Allez au contenu, Allez à la navigation



 

ANNEXE 6 : ELÉMENTS SUR LE FINANCEMENT PRIVÉ DE LA RECHERCHE

Compte tenu du poids croissant de la recherche privée dans l'effort national de recherche, une action d'envergure en faveur de la recherche française peut aussi s'envisager sous l'angle d'une mobilisation de sources de financement complémentaires et doit sans doute comprendre également un volet d'une ambition accrue pour soutenir la recherche des entreprises.

1. Le rôle encore modeste des institutions sans but lucratif et des fondations dans le financement de la recherche

La diversification des sources de financement de la recherche et des instituts de recherche est une évolution qui n'a sans doute pas encore trouvé sa pleine mesure dans notre pays.

Les financements apportés par les institutions charitables jouent d'ores et déjà un rôle significatif dans la recherche.

Ainsi, les ressources collectées par l'Association française contre les Myopathies, se sont élevées en 1999 à 622 millions de francs. En 1999, 468 millions de francs auront été collectés à l'occasion du Téléthon.

Le montant total collecté lors des 13 premières années de cet événement atteint 4,3 milliards de francs.

L'aide à la recherche représente environ les deux tiers des activités de l'AFM, le tiers restant étant dévolu à l'aide directe aux malades.

En tout état de cause, il ne semble pas abusif de dire que l'AFM a contribué d'une manière décisive à l'accélération des travaux de séquençage du génome réalisés en France et plus généralement à l'essor de la génomique dans notre pays.

Un autre élément doit être pris en compte dans l'effort de recherche, c'est l'intervention des institutions sans but lucratif.

Figure 31 : Dépenses intérieures de recherche des institutions sans but lucratif (ISBL) - évolution en valeur absolue et en pourcentage de la DIRD 24

Les institutions sans but lucratif sont composées des associations, des fondations et des instituts de recherche comme l'Institut Pasteur, l'Institut Curie et l'Institut national de transfusion sanguine. La part de leur dépense représentait 1,35 % de la DIRD totale en 1994 et atteint 1,45 % en 1999.

Les dépenses de recherche des institutions sans but lucratif sont focalisées dans les sciences du vivant. Leur montant pourrait sans doute accru grâce à des possibilités fiscales favorisant plus encore qu'aujourd'hui les dons directs.

Par ailleurs, il faut signaler le rôle d'acteur essentiel de financement de la recherche dans le domaine de la santé d'organismes comme les fondations anglo-saxonnes. Au Royaume-Uni, un " charity trust " comme le Wellcome Trust joue un rôle de plus en plus important dans le financement de la recherche, concurrençant même dans certains programmes le Gouvernement britannique lui-même.

On peut se demander s'il n'y aurait pas lieu dans le cadre d'une réflexion globale sur le financement de la recherche, d'étudier la transposition dans notre pays de mécanismes comme ceux des fondations anglo-saxonnes.

2. Les facteurs influençant le dynamisme de la recherche privée

Les causes de fluctuations de l'effort de recherche des entreprises ainsi que les modalités d'une aide publique optimale ont fait l'objet de multiples travaux de recherche. On citera ici deux études de l'OCDE.

Les causes des fluctuations des investissements de R&D des entreprises ont fait l'objet d'une étude portant sur 12 pays de l'OCDE, sur la période 1972 à 1996 25.

La diminution enregistrée à la fin des années 1980 et au début des années 1990 a quatre causes principales.

Dans certains pays, les changements de structures économiques ont exercé une influence de fond, notamment dans le cas de phénomènes de tertiarisation de leur économie qui ont pu affecter certains pays.

La deuxième cause de la baisse de l'effort de recherche des entreprises durant la période de référence est le ralentissement économique du début des années 1990.

La réduction des financements publics a joué également un rôle important, même si elle résulte principalement d'une contraction générale des budgets de la défense.

La hausse des taux d'intérêt a enfin contribué au relâchement des efforts consentis par les entreprises pour la recherche.

Au demeurant, une autre étude réalisée par l'OCDE analyse les canaux par lesquels le soutien public à la recherche favorise la recherche privée. Cette analyse couvre 17 pays de l'OCDE sur la période 1981-1996 26.

La R&D financée par les pouvoirs publics favorise la recherche privée, à la fois à court terme mais aussi à long terme. Les incitations fiscales exerceraient leur action principalement à court terme.

L'efficacité du soutien public à la R&D s'accroît avec l'ampleur de celui-ci, sauf au delà d'un seuil estimé à 15 % du total.

Le soutien public aux objectifs de défense aurait un impact global négatif sur la recherche privée.

Quel que soit le pays et la période considérés, les instruments les plus stables sont aussi les plus efficaces.

Ces indications ont été largement reprises par la politique récente de soutien à la recherche privée.

3. La recherche privée en France

Sur la base de positions de départ en retrait par rapport à de nombreux autres pays, la recherche privée française tend depuis quelques années à se renforcer. L'accroissement des investissements en R&D est un impératif dans la concurrence mondiale. La restauration des marges bénéficiaires permet d'accélérer l'effort sans détériorer la situation financière, contrairement à ce que l'on observait dans les années récentes. Il n'en demeure pas moins indispensable que les pouvoirs publics renforcent ce mouvement et accroissent encore les liens entre la recherche publique et la recherche privée.

3.1. Une position de départ moins favorable que dans d'autres pays

La structure de la recherche française est, on le sait, particulière, avec un rôle plus important que dans d'autres pays, joué par la recherche publique. La part de l'industrie était en effet en France en 1998 de 50,3 % du total contre 53,9 % pour la moyenne européenne et 61,7 % pour l'Allemagne.

Figure 32 : Répartition des dépenses de R&D par origine en 1998 27

A titre de comparaison, la part des entreprises dans les dépenses de recherche atteignait 66,7 % du total en 1998 et 73,4 % au Japon.

Il convient de souligner que les efforts très importants faits par les deux pôles de la recherche française pour se rapprocher vont évidemment dans le bon sens en ce qui concerne la compétitivité de l'économie française.

On doit remarquer à cet égard que les TGE sont des lieux de coopération privilégiée entre les entreprises et les laboratoires publics et privés, ce qui est une justification de plus de l'intérêt des équipements lourds.

S'agissant du financement par les entreprises de leurs dépenses de recherche, la situation de la France est similaire à la moyenne européenne, avec près de 80 % du total autofinancé, près de 10 % provenant de subventions directes des pouvoirs publics, et environ 10 % provenant de sources étrangères et de sources privées (voir figure suivante).

Figure 33 : Financement des dépenses de R&D des entreprises - autofinancement, subventions du gouvernement et autres sources nationales et étrangères 28

L'écart des dépenses de recherche des entreprises françaises et des entreprises allemandes, est au demeurant important en valeur absolue.

Ainsi, si l'écart entre l'Allemagne et la France était de 56 % en 1998 pour la DIRD globale, les entreprises allemandes ont dépensé 70 % de plus que les entreprises françaises en R&D pendant la même année.

Figure 34 : Dépenses des entreprises en R&D en 1998 (milliards d'écus)

3.2. Les efforts récents

Alors que l'effort de recherche des entreprises (DIRDE) avait baissé à partir de 1993, un redressement s'est opéré à partir de 1998, pour l'ensemble des entreprises.

Cet effort a été particulièrement sensible pour les grandes entreprises. Les vingt cinq plus grandes entreprises françaises ont en effet investi 100 milliards de francs dans la recherche en 1998, soit une augmentation de 12,2 % par rapport à leurs investissements de 1997 29. La création de laboratoires de recherche en dehors de France est un mouvement qui semble se généraliser aux principales entreprises. Il s'agit en effet à la fois de bénéficier d'apports intellectuels différents de ceux de la recherche française et d'afficher une image d'excellence technologique sur des marchés jugés stratégiques.

Ainsi, France Télécom a ouvert un laboratoire dans la Silicon Valley, Renault au Brésil, Vivendi à Hong Kong, Suez-Lyonnaise des Eaux en Malaisie et en Angleterre.

Ce mouvement des grandes entreprises s'est poursuivi en 1999 puisque les trente plus grandes entreprises françaises ont investi 127 milliards de francs, soit une augmentation de 10 % par rapport à 1998, alors que les subventions et les contrats de recherche accordés par les administrations publiques enregistraient une baisse sensible 30.

Au demeurant, le mouvement d'externalisation et d'internationalisation de la recherche des grandes entreprises s'est poursuivi. En l'occurrence, ces évolutions semblent devenir une tendance lourde de leur stratégie de recherche.

A ces évolutions, il faut ajouter le rachat de " start up ", que les grandes entreprises effectuent pour enrichir leurs structures d'équipes nouvelles spécialisées sur des créneaux porteurs.

L'essaimage risque ainsi de prendre une réalité inattendue, avec la création temporaire d'équipes prenant leur liberté par rapport à une structure initiale puis intégrant pour diverses raisons une autre structure.

3.3. Le renforcement des interactions entre la recherche publique et privée

Le renforcement des interactions entre la recherche publique et privée est une orientation fondamentale de ces dernières années.

L'une des bases de l'action des réseaux nationaux de recherche et d'innovation technologiques est d'accorder des financements de soutien aux seuls projets regroupant des laboratoires publics et privés.

Par ailleurs, les Centres nationaux de recherche technologique (CNRT), ont pour objectif de créer les conditions d'une collaboration efficace entre les laboratoires de recherche publique et les centres de recherche des grands groupes industriels, pour développer les activités de recherche technologique.

Les CNRT, dont les douze premiers ont été installés en juillet 2000 par M. Roger-Gérard SCHWARTZENBERG, constituent aujourd'hui un axe majeur du dispositif de soutien par le ministère de la Recherche aux transferts de technologies.

Il ne fait pas de doute que, lorsqu'un premier bilan pourra être fait de ces initiatives, il sera positif.

3.4. Le crédit d'impôt recherche

Le crédit d'impôt recherche a été institué en 1982 et régulièrement reconduit depuis lors. La loi de finances pour 1999 a introduit des modifications destinées à le rendre plus incitatif et l'a prorogé pour 5 ans 31. Le succès de cette mesure pourrait inciter à étendre le rôle.

L'article 67 de la loi n° 82-1126, codifié à l'article 244 quater du code général des impôts a institué un crédit d'impôt consistant en une réduction de l'impôt sur les sociétés ou de l'impôt sur le revenu dû par les entreprises, représentant 50 % de l'accroissement en volume de leur effort de recherche et développement d'une année par rapport à la moyenne des deux années précédentes.

Les types de dépenses ouvrant au crédit d'impôt recherche sont au nombre de huit et indiquées dans le tableau suivant.

Tableau 19 : Les dépenses ouvrant droit au crédit d'impôt recherche en 1999

1. les salaires des ingénieurs et techniciens de recherche

2. les frais de fonctionnement calculés forfaitairement en fonction des salaires versés

3. la sous-traitance de recherche effectuée par des universités ou des organismes de recherche ou par des entreprises agréées par le ministère chargé de la recherche

4. les dotations aux amortissements des immobilisations affectées à la recherche et au développement

5. les frais de dépôt et de maintenance des brevets

6. les dotations aux amortissements des brevets acquis en vue de la recherche

7. certaines de dépenses de normalisation

8. les dépenses liées à l'élaboration de nouvelles collections exposées par les entreprises individuelles du secteur textile

Le montant du crédit d'impôt recherche est limité à 40 millions de francs par entreprise et par an.

On trouvera dans le tableau ci-dessous une analyse des dépenses retenues pour le crédit d'impôt recherche en 1997.

Tableau 20 : Ventilation des dépenses retenues

pour le crédit d'impôt recherche en 1997

1997

dépenses (milliards de francs)

en % du total

1 + 2 Salaires et dépenses de fonctionnement

50,4

70,1 %

3. Sous-traitance d'opérations de recherche

15,0

20,9 %

4. Dotations aux amortissements

4,2

5,8 %

5 + 6 Brevets

1,1

1,6 %

7. Dépenses de normalisation

0,055

0,08 %

8. Dépenses de collection

1,1

1,5 %

Total sans les subventions

71,9

100,0 %

Subventions

2,5

-

Total général

69,4

 

Ce sont les salaires et les dépenses de fonctionnement qui représentent le poste principal des dépenses éligibles, suivies des dépenses de sous-traitance de la recherche à des organismes agréés, dont évidemment les organismes de recherche publics.

Le tableau ci-après montre l'effet général de la mesure sur l'ensemble des entreprises, avec une répartition à peu près égale entre les grandes entreprises et les PMI/PME.

Tableau 21 : Répartition des effets du crédit d'impôt recherche selon la taille des entreprises

1997

nombre d'entreprises concernées

(en % du total)

dépenses de R&D effectuées

(en % du total)

crédit d'impôt recherche

(en % du total)

Petites entreprises

(moins de 20 salariés)

33

4

12

Entreprises moyennes

(de 20 à 500 salariés)

58

24

42

Grandes entreprises

(plus de 500 personnes)

9

72

46

Total

100

100

100

Le crédit d'impôt recherche a représenté en 1999 un montant total de 2,9 milliards de francs, et a bénéficié à 3033 entreprises.

Le dispositif a été prorogé jusqu'en 2003 par la loi de finances pour 1999, tout en ayant fait encore l'objet d'améliorations visant à le rendre plus incitatif.

Les jugements sur le crédit d'impôt recherche sont contrastés.

Le groupe communiste a proposé, lors de la discussion en première lecture à l'Assemblée nationale du projet de loi sur l'innovation et la recherche, un amendement de suppression de ce dispositif, en mettant en avant son manque de transparence, d'efficacité et en soulignant ses dérives. Il a proposé en remplacement un impôt recherche libératoire dénommé " contribution annuelle au titre de la recherche ". Cet amendement n'a pas été adopté. L'économie du système proposé était très différente du système actuel puisqu'il s'agissait de mettre en place un impôt nouveau de 0,2 % sur la valeur ajoutée que les entreprises auraient acquitté dans le cas où elles n'auraient pas fait de recherche.

Ces critiques contre certains aspects du dispositif actuel étant mises à part, il semble que le crédit d'impôt recherche soit jugé plutôt positivement.

Certains observateurs se demandent même s'il ne serait pas opportun d'en élargir les bases.

A vrai dire, le crédit impôt recherche a fait l'objet au cours du temps d'élargissements successifs, notamment en 1985 à l'occasion de l'adoption de la loi n° 85-1376 du 23 décembre 1985 relative à la recherche et au développement technologique. Les dispositions proposées ont alors rencontré un accord politique très large.

Sous réserve d'un examen attentif de l'impact que de telles dispositions pourraient avoir sur le déficit public, le relèvement du plafond de 40 millions de francs par an et par entreprise pourrait être étudié, à la fois pour tenir compte de l'augmentation des coûts de la recherche et pour que les grandes entreprises en tirent un meilleur parti, sans pour autant que ceci nuise aux PME/PMI.

S'il apparaissait important et opportun de favoriser par ce moyen la coopération entre recherche publique et recherche privée, le quota des 50 % pourrait être relevé pour ce type particulier de dépenses.

La question de l'amortissement des dépenses de logiciel a été évoquée à plusieurs reprises lors des auditions. Il serait sans doute utile d'étudier l'impact d'une mesure qui concernerait les logiciels de conception ou de design assisté par ordinateur, tout en reconnaissant que la frontière des logiciels de calculs dits scientifiques est difficile à mettre en place.

S'agissant des TGE proprement dits, la participation des entreprises à leur construction et à leur fonctionnement ne semble pas, pour le moment, les intéresser de près ou de loin.

Les entreprises préfèrent en effet acheter directement des temps d'accès en fonction de leurs besoins à court terme, et accéder ainsi aux machines disponibles les plus performantes.

S'il apparaissait important d'associer de plus près les entreprises à leur construction voire à leur fonctionnement par des prises de participation, il conviendrait de mettre en place une incitation fiscale très forte, sans doute en dehors du mécanisme du crédit d'impôt recherche, du type d'un amortissement très fortement dégressif.

3.4. L'innovation et l'ANVAR

L'encouragement à l'innovation est une préoccupation constante des pouvoirs publics depuis quelques années, préoccupation qui s'est traduite récemment par la loi n° 99-587 du 12 juillet 1999 sur l'innovation et la recherche.

Ainsi que l'indiquait dans son rapport pour la Commission des Affaires culturelles, M. Pierre LAFFITTE 32, " L'innovation est désormais enfin reconnue dans les milieux industriels, technologiques et politiques comme un élément essentiel de la croissance et un facteur déterminant de la création d'emplois. [...] Mais innovation n'est pas synonyme de recherche bien qu'elle soit de plus en plus liée à la recherche. Elle est liée aux idées qui peuvent entrer en application, conduire à des produits et à des services qui eux-mêmes doivent trouver un marché grâce à des transferts ou créations d'entreprises. "

La loi sur l'innovation et la recherche comprend un premier volet permettant aux fonctionnaires d'apporter leur concours en tant qu'associé à une entreprise de valorisation. Le deuxième volet a pour but de favoriser les coopérations entre la recherche publique et les entreprises, en rendant possible la création de services d'activités industrielles et commerciales au sein des établissements d'enseignement supérieur et en permettant aux établissements publics d'enseignement supérieur et aux EPST d'aider à la création et au développement d'entreprises.

Par ailleurs, la loi ouvre la possibilité aux EPST de contracter avec l'Etat et simplifie les procédures qui leur sont imposées pour la création de structures de collaboration. Enfin la loi élargit le régime fiscal des bons de souscription de parts de créateur d'entreprise, pour les entreprises détenues à 25 % au moins, au lieu de 75 %.

La timidité des mesures fiscales d'incitation à l'innovation a été soulignée à plusieurs reprises par M. Pierre LAFFITTE.

Les premiers résultats de cette politique ont toutefois été soulignés par M. Roger-Gérard SCHWARTZENBERG, ministre de la recherche, le 18 juillet 2000 33. Ainsi, selon les estimations produites à cette date, le nombre de créations d'entreprises par des chercheurs et les enseignants-chercheurs des laboratoires publics devrait dépasser la centaine, contre vingt en 1999. Le nombre de réseaux de recherche et d'innovation technologique associant laboratoires publics et entreprises privées est passé de un à dix en un an. En juillet 2000, il existait déjà 29 " incubateurs " ainsi que sept fonds d'amorçage devant totaliser 700 millions de francs à la fin 2000. Le concours destiné à favoriser la création d'entreprises innovantes, doté en 2000 de 200 millions de francs, devrait permettre l'installation en deux ans de plus de 500 entreprises.

Sur un plan global, l'observation est faite par certains que la valorisation de la recherche souffre en France d'un handicap qui est encore loin d'être comblé.

Pour autant, la France dispose avec l'ANVAR (Agence nationale de valorisation de la recherche) en premier lieu et, en second lieu, avec les centres techniques industriels, d'outils qui font l'unanimité de par leur excellent fonctionnement.

Les subventions à l'innovation et les avances remboursables de l'ANVAR en 1999 ont représenté un montant de 1,4 milliard de francs en 1999.

Tableau 22 : Aide à l'innovation de l'ANVAR en 1999 34

Nature de l'intervention

Nombre d'aides

Montant

(millions de francs)

Faisabilité et développement de projets

1 279

1 083

Recrutements ingénieurs-chercheurs

963

150

Total des aides aux PME-PMI

2 242

1 233

Procédures spécifiques

893

166

Émetteurs de technologie

43

24

Réseau de diffusion technologique

30

49

Sociétés de recherche sous contrat (SRC)

49

76

Projets jeunes

706

14

Inventeurs indépendants

65

3

Total

3 135

1 400

Outre les 1.400 millions de francs ouverts à son budget, l'ANVAR a également mobilisé, en 1999, 191 millions de francs supplémentaires, provenant d'autres services de l'Etat, de collectivités locales et de crédits européens. Au premier semestre 2000, les engagements accordés par l'Agence s'élevaient à 662,56 millions de francs pour 1.580 dossiers enregistrés.

Pour autant, les crédits de valorisation de la recherche, qui sont de l'ordre de 4 à 5 milliards de francs paraissent insuffisants à beaucoup, en regard des crédits publics de recherche, qui sont de 15 à 20 fois supérieurs 35.

1 Ministère de la Recherche, note aux Rapporteurs, 19 juin 2000.

2 Les TGE : vers une évolution des concepts et moyens, rapport d'étape du CSRT, Alain PAVE et Claudine LAURENT, octobre 2000.

3 Office parlementaire d'évaluation des choix scientifiques et technologiques, novembre 2000.

4 Source : Towards a European Research Area - Science, Technology and Innovation - Key Figures 2000, Commission européenne, 2000.

5 Ecarts de dépenses de R&D (DIRD) en milliards d'euros aux parités de pouvoir d'achat de 1990.

6 Source : Towards a European Research Area, op. cit.

7 Source : OCDE et ministère de la recherche - DPD-C3, septembre 2000, cité par M. Christian CUVILLIEZ, Rapporteur spécial, rapport au nom de la commission des finances sur le projet de loi de finances pour 2001, Assemblée nationale n° 2624 , annexe n° 37.

8 Source : OCDE et ministère de la recherche, op.cit.

9 Source : Excellence and Opportunity, a science and innovation policy for the 21st century, White Paper, Department of Trade and Industry, Royaume Uni.

10 Science et Technologie, Indicateurs 2000, Rapport de l'Observatoire des Sciences et des Techniques, Paris, 2000.

11 Source : American Association for the Advancement of Science ; R & D civile et militaire.

12 Actualités scientifiques et technologiques, Service Science et Technologie, Ambassade de France à Londres, avril 2000.

13 Excellence and Opportunity, a science and innovation policy for the 21st century, Department of Trade and Industry,

14 Source : ministère de la recherche / DPD-C3, cité dans le rapport au nom de la commission des finances sur le projet de loi de finances pour 2001, par M. Christian CUVILLIEZ, Rapporteur spécial, n° 2624, annexe n° 37.

15 Source : ministère de la recherche / DPD-C3, op.cit.

16 La liste des EPST est la suivante : Inra, Cemagref, Inrets,, Lcpc, Inria, Cnrs, Inserm, Ined, Ird.

17 La liste est la suivante : Ifremer, Cirad, Ademe, Brgm, Cnes, Cea.

18 Christian CUVILLIEZ, rapporteur spécial de la commission des finances, discussion de la 2ème partie du projet de loi de finances pour 2001, Assemblée nationale, séance publique du 2 novembre 2001.

19 Rapport au nom de la commission des finances sur le projet de loi de finances pour 2001, par M. Christian CUVILLIEZ, Rapporteur spécial, Assemblée nationale n° 2624, annexe n° 37.

20 Guy OURISSON, Président de l'Académie des sciences, Office parlementaire d'évaluation des choix scientifiques et technologiques, 25 octobre 2000.

21 Source : American Association for the Advancement of Science.

22 " La régularité du financement qui doit être basée sur une planification à long terme, est indispensable pour que les investissements financés par le budget fédéral atteignent les objectifs fixés avec efficacité, pour obtenir les effets de formation désirés et pour permettre la coopération internationale ". Wellspring of Prosperity, Science and Technology in the U.S. Economy, President's Committee on Advisors on Science and Technology, Spring 2000.

23 Audition du bureau de l'Académie des sciences par l'Office parlementaire d'évaluation des choix scientifiques et technologiques, 25 octobre 2000.

24 Source : ministère de la recherche, DMD-C3, op.cit.

25 Dominique GUELLEC et Evangelos IONNADIS, Revue économique de l'OCDE, n° 29, 1997/II.

26 Dominique GUELLEC et Bruno VAN POTTELSBERGHE DE LA POTTERIE, Revue économique de l'OCDE, n° 29, 1997/II.

27 Source : Towards a European Research Area - Science, Technology and Innovation - Key Figures 2000, Commission européenne, Direction générale Recherche, Eurostat - OCDE ; Autres : autres sources de financement nationales et étrangères.

28 Source : Towards a European Research Area - Science, Technology and Innovation - Key Figures - Commission européenne, Direction générale de la recherche, Eurostat-OCDE.

29 Le Monde, 3 novembre 1999.

30 Le Monde, 17 octobre 2000.

31 Jean-Yves LE DEAUT et Pierre COHEN, Priorité à la recherche - Quelle recherche pour demain ? Rapport au Premier ministre, juillet 1999.

32 Rapport de M. Pierre LAFFITTE, au nom de la Commission des Affaires culturelles sur le projet de loi sur l'innovation et la recherche, Sénat n° 217 (1998-1999).

33 La recherche, " booster numéro 1 de l'économie et de l'emploi ", AFP, 18 juillet 2000.

34 Source : Secrétariat d'Etat à l'industrie, cité par Michel DESTOT, rapport au nom de la Commission des finances, de l'économie générale et du Plan, par Didier MIGAUD, Assemblée nationale n° 2624, Annexe n° 13 Economie, finances et industrie, industrie.

35 Robert BOYER et Michel DIDIER, Innovation et croissance, Conseil d'analyse économique, 1998.

COMPTES-RENDUS DES AUDITIONS

1. La méthodologie du rapport - mercredi 26 avril 2000

· M. Jacques FRIEDEL, Président honoraire de l'Académie des Sciences

· Mme Claudine LAURENT, Vice-présidente du Conseil supérieur de la recherche et de la technologie (CSRT)

· M. Roger BALIAN, membre de l'ancien Conseil des grands équipements

En introduction à la réunion, M. Christian CUVILLIEZ, Député, rapporteur, a rappelé qu'à la demande de l'Office parlementaire d'évaluation des choix scientifiques et technologiques, le Bureau de l'Assemblée nationale a décidé que l'étude sur les conditions d'implantation d'un nouveau synchrotron comporterait une deuxième partie, consacrée, elle, à la problématique générale du " rôle des très grands équipements dans la recherche publique et privée en France et en Europe ".

Pour la préparation de cette deuxième partie, il sera procédé selon la même méthode que précédemment, c'est-à-dire à l'audition de l'ensemble des personnes concernées, afin que la confrontation des points de vue permette de dégager des priorités et si possible une hiérarchie dans les besoins futurs en très grands équipements.

De même que pour la première partie, un groupe de travail composé de scientifiques est en cours de constitution, auquel M. Christian CUVILLIEZ a remercié Mme Claudine LAURENT et M. Roger BALIAN de bien vouloir appartenir.

Au terme de la présente étude, l'idée s'imposera-t-elle de reconstruire le Conseil des grands équipements scientifiques et la nécessité apparaîtra-t-elle de n'envisager les investissements correspondants que sous le seul angle européen ?

Ces questions, probablement récurrentes dans les travaux du groupe de travail, devraient recevoir un début de réponse au cours de la présente réunion, avec l'audition de M. Jacques FRIEDEL, fondateur du Conseil des grands équipements, de M. Roger BALIAN, membre de ce conseil de 1994 à 1996 et de Mme Claudine LAURENT, vice-présidente du Conseil supérieur de la recherche et de la technologie (CSRT).

*

Mme Claudine LAURENT, vice-présidente du Conseil supérieur de la Recherche et de la Technologie (CSRT), a indiqué que ce conseil, présidé par le ministre de la recherche lui-même, a, entre autres activités, créé un groupe de travail sur la problématique générale des très grands équipements (TGE). La première question abordée a naturellement été celle de la définition des TGE, dans la mesure où ce qu'on labellise actuellement sous ce vocable ressortit plutôt d'une " liste à la Prévert " que d'une définition scientifique. Un historique de la notion est également effectué, de même qu'un examen des raisons pour lesquelles certains équipements sont inscrits sur les crédits TGE du budget civil de la recherche au contraire d'autres équipements qui pourraient l'être également.

Au fil de ses réflexions, le groupe de travail a décelé l'intérêt qu'il y aurait d'accorder, le cas échéant, un label " TGE d'intérêt collectif " à ceux des TGE dont l'apport concerne plusieurs disciplines. Au reste, le groupe de travail a établi une liste des TGE, en identifiant les communautés scientifiques concernées. Ainsi, un TGE comme le satellite SOHO d'observation du Soleil, s'il est un équipement onéreux, est au service essentiellement d'une discipline scientifique particulière, ce qui le distingue d'un autre très grand équipement comme un synchrotron.

Au demeurant, le groupe de travail du CSRT continue sa réflexion. Mme Claudine LAURENT s'est réjouie de sa participation au groupe de travail constitué par les Rapporteurs de l'Office, puisqu'il sera ainsi possible d'éviter la duplication des efforts sur les TGE. L'importance du problème est en tout état de cause suffisamment grande pour qu'une coordination soit nécessaire. Il reste en effet à analyser les très grands équipements actuels et futurs, à mettre au point non seulement une procédure de labélisation mais aussi des mécanismes de décision efficaces tant pour le lancement des TGE que pour leur arrêt.

A l'occasion d'une remarque de M. Roger BALIAN faisant état d'un seuil d'investissement de 100 millions de francs pour le classement d'un projet dans la catégorie TGE, Mme Claudine LAURENT a estimé que la mise en _uvre d'un tel seuil est malaisée tant la détermination du périmètre des TGE se prête à des interprétations différentes.

Ainsi une bouée de mesures océanographiques ne représente pas, à elle, seule un TGE, alors qu'avec le satellite sans lequel elle est inopérante, elle rentre dans cette catégorie. D'autres exemples méritent une réflexion approfondie, celui d'un projet comme la numérisation des bibliothèques, celui du successeur du réseau à grand débit RENATER ou bien encore le cas d'un centre de calcul de pointe, qui échappent totalement pour le moment à la notion de TGE. Le rapport de l'Office parlementaire sera à cet égard particulièrement utile

En tout état de cause, le critère de l'intérêt collectif semble important à approfondir. Il semble en effet qu'il existe, à ce stade de la réflexion, deux types de TGE, les uns d'intérêt collectif, et les autres " unidisciplinaires ". Outre l'exemple de SOHO, on peut citer à cet égard la sonde Cassini Huygens dont les résultats sont certes utilisés dans le cadre d'une coopération internationale mais par quelques dizaines de chercheurs français seulement. Au vrai, il semble contestable d'appliquer le label TGE à une sonde de ce type, qui plus est déjà lancée dans l'espace, alors qu'un réseau de calculateurs et ses moyens humains ne sont pas répertoriés au nombre des TGE.

M. René TRÉGOUËT, Sénateur, rapporteur, a alors souligné combien il est important de mettre au point une grille de lecture des très grands équipements scientifiques. Le rapport de l'Office ne saurait s'y soustraire, même si ses recommandations se placeront au niveau politique. D'ores et déjà, il semble apparaître plusieurs catégories de TGE.

La première catégorie de TGE pourrait comprendre les équipements utilisés dans des recherches nécessaires pour la Connaissance et pour l'Humanité, équipements dont les résultats sont d'ailleurs exploités par un petit nombre de chercheurs. Il apparaîtrait en tout état de cause incohérent d'envisager de les réaliser au niveau national. Au contraire, c'est le niveau international qui s'impose.

La deuxième catégorie de TGE correspondrait aux installations de grande taille, devant donner lieu à des applications mais seulement au terme de développements aléatoires impossibles à assumer financièrement par un seul pays. Le cadre d'une coopération européenne semble alors s'imposer pour leur réalisation.

La troisième catégorie est celle des TGE dont la construction est pertinente au niveau national. Ainsi que l'a montré le rapport de l'OPECST, c'est le cas du synchrotron, dont les utilisations se multiplient et même explosent, en particulier dans le domaine de la biologie. Dans le cas de tels grands instruments desservant un grand nombre de communautés scientifiques nationales, " le retour sur investissement pour la communauté nationale " devient un critère de décision essentiel.

A cet égard, une réflexion sur le niveau optimal d'intervention nationale est d'autant plus indispensable que l'on voit les Etats-Unis alléger leurs dépenses spatiales - ainsi pour les missions sur Mars - grâce à la participation très importante de la France, ce qui leur permet d'investir massivement au niveau national pour les Sciences de la Vie, dont le retour sur investissement pour la communauté nationale américaine est incomparablement plus grand.

M. Jacques FRIEDEL, ayant fait connaître qu'il n'avait pas d'objection à faire à cette proposition et qu'il était d'accord pour repenser la notion de très grand équipement, a estimé nécessaire de ne pas traiter tous les TGE de la même façon. Toutefois, ces instruments ont en commun d'être chers et de faire l'objet d'un cadrage budgétaire. Leur budget doit donc être planifié sur des longues années alors que l'horizon du budget de l'Etat est l'année. En tout état de cause, il est nécessaire d'établir une cohérence entre les différents TGE lancés les uns après les autres et d'assurer un suivi. De telles tâches échappent à la responsabilité d'un ministère dont la durée moyenne n'excède pas 3 ans. Or les TGE se planifient en 3 ans et s'exécutent en 10 ans. Il faut noter, à cet égard, que le Plan assurait autrefois la cohérence entre les crédits des ministères et ceux des TGE.

Pour M. Jacques FRIEDEL, le fait qu'il existe une coopération internationale et européenne de plus en plus importante et active, ne saurait signifier qu'il soit opportun de reporter au niveau européen toutes les réflexions sur les grands équipements ne présentant pas un intérêt national immédiat. Il serait en effet dommageable que l'Europe soit seule à décider des TGE que la France contribuerait à financer. En réalité, il faut une réflexion sur la nature des TGE, domaine par domaine, et mettre en place un processus de suivi qui dépasse la durée moyenne des fonctions d'un ministre de la recherche.

A ce titre, M. Jacques FRIEDEL a rappelé que le Conseil des grands équipements jouait ce rôle même s'il n'était pas toujours écouté. Il avait ainsi délivré un avis négatif sur le projet ITER, avis transmis au ministre de la recherche mais jamais répercuté au niveau international,

M. Roger BALIAN a ajouté que les scientifiques avaient jugé que l'intérêt de la station spatiale ne pouvait être que politique.

Notant que de telles questions ne peuvent pas ne pas intéresser les chercheurs français, M. Jacques FRIEDEL a estimé au contraire qu'il ne faut pas " éjecter de la réflexion nationale ce qui est de portée européenne ou internationale ".

A cet égard, M. Roger BALIAN a précisé d'une part que la coopération internationale en matière de TGE est à géométrie variable, allant de projets bilatéraux à des projets multilatéraux, et, d'autre part, que celle-ci doit être pilotée au niveau national, ce qui oblige dans tous les cas à maintenir des compétences. Mais il existe une autre limite à la notion actuelle de TGE, à savoir l'absence de critère permettant de distinguer ceux qui ont une vocation scientifique de ceux qui n'en ont pas.

Ainsi, le label scientifique a été accordé dans le passé à des projets qui ne l'étaient pas. M. Roger BALIAN a cité sur ce point des expérimentations sur la croissance des plantes en apesanteur ou de biologie humaine dans l'espace. On peut dire dans ce dernier cas que de nombreuses expériences de biologie humaine dans l'espace visent davantage le développement des vols spatiaux eux-mêmes que l'accroissement du stock de connaissances générales en biologie. En conséquence, il semble nécessaire d'être capable de reconnaître sans ambiguïté la portée scientifique réelle des différents TGE. Au demeurant, il existe bien entendu des TGE mondiaux ou européens auxquels la France peut coopérer même s'ils n'ont pas de retombée scientifique immédiate. Mais la justification de la participation française ne devrait pas alors être présentée comme de nature scientifique.

*

A l'instigation de M. René TRÉGOUËT, Sénateur, rapporteur, qui a souligné que le réseau à haut débit RENATER ne figure pas dans les TGE, une discussion s'est alors engagée sur l'opportunité d'y inclure des équipements qui, selon son expression, ne se caractérisent ni par une " unité de lieu " ni par une " unité de commandement ".

Une définition moderne des TGE devrait nécessairement inclure les machines en réseau et les réseaux eux-mêmes. Cette notion présenterait en outre l'avantage de supprimer les antagonismes entre petits et grands laboratoires, qui semblent souvent s'opposer sur la question de grands instruments.

Pour Mme Claudine LAURENT, la réponse est incontestablement positive. Les réseaux comme RENATER devraient figurer au nombre des TGE.

M. Roger BALIAN a ajouté que le Conseil des grands équipements avait en son temps apporté une réponse identique s'agissant de la flotte océanographique, en l'incorporant dans la catégorie des TGE.

M. Jacques FRIEDEL a estimé que l'on devait se poser la même question pour les investissements relatifs au génome, approuvé en cela par M. René TRÉGOUËT, Sénateur, rapporteur, qui a souligné la pertinence de cette question au moment où un réseau des génopoles est en création.

Mme Claudine LAURENT, faisant mention de la réflexion en cours au CSRT sur ce sujet, a alors souligné qu'avec des subventions de 80 millions de francs sur 10 ans, le programme de séquençage du génome mérite le label TGE, ne serait-ce que parce que son interruption ruinerait tous les efforts engagés. Le CSRT devrait à cet égard faire des propositions pour le génoscope. S'agissant de la station spatiale par ailleurs, la politique américaine pose effectivement un problème en ce qu'elle focalise les ressources des autres pays du monde, alors que les Etats-Unis investissent pour leur propre compte dans les biotechnologies et les technologies de l'information. En tout état de cause, le label scientifique ne devrait être octroyé qu'aux TGE répondant à un véritable projet scientifique. En conséquence, il conviendrait sans doute de prévoir un deuxième label, celui-là technologique, de manière à prendre en compte le cas de la station spatiale.

M. Christian CUVILLEZ, Député, rapporteur, a insisté sur l'importance de définir une méthode d'analyse et des critères de définition des TGE. A vrai dire, des entrées diverses seront sans doute nécessaires pour les caractériser, leur coût n'étant qu'un élément certes important mais un élément parmi d'autres.

M. Roger BALIAN a ensuite estimé que les comparaisons internationales seraient particulièrement importantes pour le travail de l'Office parlementaire, ce qui souligne l'importance de définir des critères applicables quel que soit le pays considéré. Dans le cas des génopoles en réseau, il sera indispensable, pour comparer les efforts des différents pays, de prendre en compte les mêmes types de dépenses, selon une méthode harmonisée.

A l'invitation des Rapporteurs, M. Jacques FRIEDEL a alors dressé un historique de la création du Conseil des grands équipements, dont il est à l'origine.

*

M. Jacques FRIEDEL a indiqué qu'il avait créé le Conseil des grands équipements alors qu'il présidait le comité technique du Conseil consultatif de la recherche scientifique et technologique (CCRST). Ce dernier organisme avait pour mission d'analyser l'enveloppe recherche et de faire connaître son avis au Gouvernement.

Or que constatait-on à l'époque, c'est-à-dire dans les années 1978-1980 ? D'une part une rivalité entre le ministère de l'industrie dirigé par André GIRAUD et celui de la recherche conduit par Pierre AIGRAIN, et, d'autre part, la personnalisation excessive du lancement de grands projets.

S'agissant du premier point, le ministère de l'industrie s'appliquait, de manière à prendre de vitesse son concurrent de la recherche, à lancer presque tous les mois des grands projets scientifiques et technologiques, sans référence à "l'enveloppe recherche " globale limitative qui était gérée par le ministère de la recherche et le CCRST.

S'agissant du rôle moteur de certaines grandes personnalités du monde de la recherche, il faut citer l'initiative de Jules HOROWITZ du CEA, qui, souhaitant lancer le projet TORE SUPRA, tokamak de recherche sur la fusion, obtint le feu vert du Président GISCARD D'ESTAING, sans consulter quiconque, pas même André GIRAUD.

L'idée à la base de la création du Conseil des grands équipements fut donc d'introduire un " minimum de formalités " en préalable au lancement d'un investissement de ce type. Il ne s'agissait pas pour autant de partir d'une feuille blanche, dans la mesure où il existait déjà un conseil pour le CERN qui se réunissait deux fois par an pour instruire les demandes de crédits correspondant à la participation française, dont le ministère des Affaires étrangères assurait la charge. Le conseil relatif au CERN servit donc de point de départ, avec un élargissement tant de sa composition que de son rôle.

Le Conseil des grands équipements fut créé dans le contexte de la préparation en 1979-1980 du nouveau Plan, sous l'autorité de Michel ALBERT, alors Commissaire général du Plan. Le cadrage des dépenses dans ce domaine fut préparé par un groupe de travail chargé par le Commissaire général et le CCRST de planifier une croissance raisonnable de l'enveloppe recherche.

Une précision s'impose toutefois quant aux débuts du Conseil des grands équipements. Ce furent en réalité deux conseils qui furent créés, le premier sur les grands équipements scientifiques animé par Jean TEILLAC et le second sur les grands équipements technologiques animé par Claude FREJACQUES. Au vrai, ce dernier conseil n'a pas survécu aux aléas politiques de l'époque, dans la mesure où il dépendait trop de ministères technologiques peu disposés à se voir limités dans leur action par une référence extérieure.

Au contraire, le Conseil des grands équipements scientifiques fut conservé en tant que tel par M. Jean-Pierre CHEVENEMENT, ministre de la Recherche du Gouvernement MAUROY, qui le jugea " normal et utile ". Mais quelles étaient la composition et la mission du Conseil des grands équipements ?

Le Conseil des grands équipements fut conçu comme devant être composé d'un nombre restreint de membres représentant l'ensemble des disciplines scientifiques intéressées, à savoir la physique, la chimie, la biologie, l'espace, l'astronomie, les sciences de la terre et l'océanographie. Les membres du Conseil étaient choisis ès qualité et non pas en tant que représentants des organismes de recherche.

Quant à la mission du Conseil, elle était moins de faire des choix absolus que de fixer des ordres d'urgence en matière de grands équipements en amenant les chercheurs et les organismes à proposer des plans d'investissement.

Une telle méthode présentait le double avantage de sortir de la confidentialité des rapports exclusifs des organismes de recherche avec le ministre et de permettre d'amortir les chocs par une vision à long terme, ce qui s'est révélé plus aisé pour la physique que pour l'océanographie, dont les demandes assez erratiques ont cependant été satisfaites.

Notons, pour ce dernier cas, comme l'a précisé M. Roger BALIAN, que des plans ont été finalement élaborés dans les années 1994-1996 pour le renouvellement de toute la flotte

En tout état de cause, le Conseil des grands équipements conduisit ses réflexions dans le cadre de contraintes budgétaires connues. Pour la préparation du Plan, le Conseil élabora un programme de grands équipements après avoir obtenu par une action commune avec le CCRST une relance progressive des crédits de la recherche et une augmentation des crédits des TGE.

En 1981, après consultation d'Hubert CURIEN, le Gouvernement MAUROY reprit l'essentiel de ces orientations en les gonflant quelque peu.

En conclusion, M. Jacques FRIEDEL a jugé qu'une formule telle que celle du Conseil des grands équipements est nécessaire mais qu'il faut aussi que le ministère ait sa propre instance de réflexion sur ces questions, l'existence d'un petit groupe de scientifiques étant à cet égard sans doute préférable. Bien évidemment une réflexion au niveau français est utile mais ne constitue pas la seule réponse à apporter à la question des grands équipements. Au demeurant, l'effort effectué actuellement par la France étant comparable à celui des autres pays, un " drame " n'est pas à craindre dans ce domaine.

Une discussion est alors intervenue sur les circonstances de la disparition du Conseil des grands équipements.

M. Roger BALIAN, membre de ce Conseil lors de ses deux derniers exercices, de 1994 à 1996, a estimé que les " choses ont commencé à se dérégler " lorsque Mme Elisabeth DUFOURCQ assuma la charge du secrétariat d'Etat à la Recherche. Un retard dans la nomination des nouveaux membres du Conseil fut pallié par une prolongation de fonctions jusqu'à l'été. Mais, en réalité, le remaniement ministériel qui aboutit, entre autres, au départ de Mme DUFOURCQ, ne permit pas la nomination effective d'intervenir, l'affaire se perdant alors dans les " sables " comme par un effet de " déshérence " ou comme résultat d'une " pagaille " administrative. Il semble donc que la mise en sommeil du Conseil des grands équipements n'ait pas répondu à une volonté délibérée du Gouvernement JUPPÉ de s'en débarrasser.

M. Jacques FRIEDEL a ensuite précisé que, selon plusieurs sources concordantes, M. Claude ALLÈGRE ne tenait pas à avoir un comité de ce genre dans son domaine d'action.

Selon M. FRIEDEL, il serait sans aucun doute utile au groupe de travail de l'Office sur les TGE d'auditionner le secrétaire du Conseil des grands équipements, M. Georges LAURENS.

M. Roger BALIAN a ensuite souligné l'une des particularités du Conseil, particularité finalement dommageable à sa pérennité.

Les avis du Conseil des grands équipements avaient en effet pour seul destinataire le ministère de la Recherche. Le Conseil ne disposait d'aucun relais à l'extérieur. Ses travaux appartenaient en exclusivité à l'exécutif qui n'en assurait pas la publication. Il s'agit vraisemblablement là d'une erreur, même si dans certains cas, en particulier avec M. Bernard BIGOT, la confiance de la direction de la Recherche dans les travaux du Conseil était grande.

En réponse à une interrogation de Mme Claudine LAURENT sur la supposée sensibilité du Conseil aux lobbies, M. Roger BALIAN a noté qu'il s'agit de critiques postérieures à sa disparition. Au vrai, le Conseil n'était pas responsable des décisions. Les grands organismes lui exposaient les projets qu'ils avaient préparés. Un examen dans la durée était effectué, notamment en répondant aux deux questions de l'objectif visé et des utilisateurs concernés.

M. René TRÉGOUËT, Sénateur, rapporteur, regrettant que l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST) n'ait pas eu de relations avec le Conseil des grands équipements, a pointé la spécificité des travaux de l'Office qui ne peut être assimilé à un comité technique. Après que les dossiers ont été instruits dans la sérénité et avec toute l'objectivité possible, les rapports dont les élus décident la publication, expriment alors l'avis du Parlement.

M. Jean GALLOT, membre du groupe de travail, a rappelé que l'Office, créé par la loi et formé d'élus, est non seulement d'une nature et d'un poids différents de ceux du Conseil des grands équipements, mais a également une mission beaucoup plus large, puisqu'il est conduit à informer le Parlement sur quantité d'autres problèmes scientifiques. Au demeurant, le fonctionnement d'un groupe comme le Conseil des grands équipements, est toujours tributaire de sa composition mais l'est particulièrement sur des problèmes scientifiques et technologiques.

M. Jean GALLOT a ensuite souligné l'impact des choix scientifiques sur l'aménagement du territoire, notamment en matière de grands instruments. Les élus sont de plus en plus sensibilisés à cette problématique. Les scientifiques doivent à leur tour commencer à intégrer cette dimension, la France détenant une multitude de pôles secondaires dont la vocation scientifique devrait être développée. Il convient en conséquence de veiller non seulement à l'implantation d'équipements centralisés mais aussi de prévoir l'essor d'un système plus décentralisé.

La question des grands équipements est également révélatrice de conflits de pouvoir.

La définition du budget de la recherche se traduit en effet par la fixation de crédits budgétaires qui ne peuvent être transférés d'une ligne à l'autre, en particulier dans le cas des TGE, ce qui limite à la fois la marge d'action du Parlement et celle des organismes de recherche. Une fois encore, les problématiques scientifiques et politiques sont étroitement liées.

Les mêmes enjeux se retrouvent au niveau européen. En tout état de cause, même si l'on peut trouver avantage à construire certains grands instruments dans le cadre européen, il est primordial que les communautés scientifiques nationales en discutent la construction et l'exploitation. Au reste, le développement d'un projet international commence toujours par des contacts bilatéraux, ainsi que le montre le cas des lasers à électrons libres rapporté par le Professeur Jochen SCHNEIDER au cours des auditions relatives au synchrotron.

Un danger doit par ailleurs être écarté, celui d'experts nationaux ayant une délégation de pouvoir pour prendre, au nom de la France, des décisions au niveau européen.

Une première étape démocratique est essentielle, rassemblant des représentants de toutes les communautés scientifiques et se traduisant par un véritable dialogue sur les priorités en matière de futurs grands équipements.

Enfin, il convient de rappeler que la majorité des grands projets scientifiques européens sont nés en dehors des institutions de l'Union européenne et continuent d'exister en dehors de la Commission et du Parlement européens.

M. René TRÉGOUËT, Sénateur, rapporteur, prolongeant les considérations précédentes, a noté en outre que, s'il existe des compétences européennes pour le financement de la recherche, il faut toujours un pays initiateur pour porter à son terme un projet de recherche.

En l'occurrence, la France doit garder la capacité d'être à la base de nouveaux projets de grands équipements, quitte à rechercher le concours d'autres pays dans le cas où ces derniers ne sont pas finançables au plan national.

M. Jacques FRIEDEL est alors revenu sur l'impact des décisions en matière de grands équipements sur l'aménagement du territoire.

En tout état de cause, il faut se garder de schématiser et de considérer que la décision de construction est du domaine scientifique et qu'une décision d'implantation est du ressort des politiques. En réalité, les deux aspects sont liés.

Le cas de l'ESRF est éclairant à cet égard. La construction de ce synchrotron avait été prévue à Strasbourg. Pour des raisons politiques, elle s'effectua, comme on sait, à Grenoble, ce qui fut une grave erreur. Le fait que ce synchrotron n'ait pas été construit à Strasbourg est probablement l'une des raisons principales pour lesquelles l'utilisation du rayonnement synchrotron en biologie s'est développée plus lentement en France qu'ailleurs. Certes, des transferts d'équipes ont eu lieu de Strasbourg vers Grenoble. Mais ces transferts n'ont eu lieu que partiellement, certaines des meilleures équipes restant à Strasbourg.

Le GANIL 1 est un autre exemple significatif. Sa construction à Caen est intervenue dans une région dépourvue de toute activité de physique nucléaire. Certes, le pari de la construction et d'une activité de haut niveau a été tenu. Mais la décision de construction était incohérente avec les efforts déjà déployés par Lyon, Orsay et Strasbourg en la matière.

Au final, " les politiques devraient écouter les scientifiques dans leurs commentaires sur les lieux d'implantation d'un grand équipement ".

M. René TRÉGOUËT, Sénateur, rapporteur, a souligné que l'étude sur le synchrotron a mis en évidence l'importance qu'un équipement de ce type soit bien desservi par un réseau de transports nationaux et internationaux de qualité. On peut estimer que Strasbourg ne présentait pas toutes les garanties à cet égard, notamment en tant que plate-forme de communications internationales, comme le démontrent d'ailleurs malheureusement les critiques des usagers du Parlement européen. Au contraire, Grenoble est accessible depuis l'étranger grâce à l'aéroport de Lyon-Satolas.

M. Jacques FRIEDEL a néanmoins observé qu'il y avait eu unanimité des chercheurs en faveur de Strasbourg.

Mme Claudine LAURENT a, pour sa part, estimé qu'il est indispensable pour décider valablement d'une implantation de connaître les projets scientifiques qui y sont attachés et leurs priorités respectives.

M. Jacques FRIEDEL a alors abordé un deuxième thème, celui du rôle des communautés scientifiques dans la genèse des grands équipements. En tout état de cause, les communautés scientifiques nationales ont un rôle éminent dans la création de grands équipements dans des domaines nouveaux. Un bref historique de l'ESRF le démontre aisément.

L'idée d'un centre européen de rayonnement synchrotron de haute énergie est née des débats de la Société européenne de physique qui a ultérieurement organisé une réunion technique sur les grands équipements en Europe. A la suite du succès de cette réunion, la Fondation européenne de la science, une organisation indépendante des ministères et regroupant des organismes de recherche, a conduit une étude de spécification d'un synchrotron d'avenir pour l'Europe, étude qui devait déboucher sur l'ESRF de Grenoble. En définitive, l'idée de l'ESRF est venue de la base et non pas d'une décision ministérielle.

A ce stade de la discussion, M. Pierre POINTU, membre du groupe de travail, est revenu sur la question des critères de décision en matière de grands équipements.

Lors de la préparation de la première partie du rapport sur le synchrotron, différents dysfonctionnements dans les processus de décision ont été mis en évidence, avec en particulier des mélanges à la fois des genres et des niveaux d'intervention.

Une constante des projets à succès est qu'ils viennent de la base et qu'ils sont portés progressivement vers les niveaux de décision ultime, dans tous les cas par un scientifique à vocation " entrepreneuriale ". C'est ce processus de développement qui doit inspirer la méthode d'instruction des dossiers de grands équipements. Les questions fondamentales doivent en conséquence porter sur ce qu'apporte le projet considéré et à qui. Les réponses donnent à l'évidence des indications sur les communautés scientifiques concernées, sur l'impact régional de l'équipement, ainsi que sur les budgets qui doivent être mis à contribution.

M. Pierre POINTU a proposé, en conséquence, une typologie reposant sur l'usage, les effets des grands équipements et l'évolution de ces effets dans le temps. Cette méthode a fait la preuve de son efficacité dans le choix de projets de recherche concurrents ou dans des décisions relatives à la protection de l'environnement. Elle oblige à reposer des questions sur la finalité cognitive ou applicative du grand équipement. En tout état de cause, une fois un dossier instruit selon cette méthode, la décision, qui demeure un enjeu de pouvoir, fait naturellement référence aux usages et aux effets attendus ou bien peut être décryptée selon ces critères, ce qui en éclaire les raisons dans tous les cas de figure.

Mme Claudine LAURENT a estimé utile cette méthode d'analyse. Alors que les moyens budgétaires ne sont pas illimités, il convient d'établir des priorités et donc pour cela de comparer des projets incomparables à première vue.

M. Gilles COHEN-TANNOUDJI, membre du groupe de travail, s'est ensuite interrogé sur le champ de l'étude par référence à l'intitulé de la saisine, à savoir " le rôle des très grands équipements dans la recherche publique et privée en France et en Europe ". Un premier questionnement doit en conséquence intervenir sur le rôle de l'instrumentation dans la démarche scientifique.

L'évolution de la recherche moderne montre qu'au dialogue entre théoriciens et expérimentateurs, se substitue une relation triangulaire entre l'expérimentateur, le technicien et le théoricien, dans laquelle le rôle du technicien s'accroît inexorablement en raison de l'augmentation des performances attendues des instruments. Il y a donc une tendance irréversible au développement de grands équipements dont les performances sont au faîte des possibilités techniques. Même si certains d'entre eux peuvent voir leur taille et leurs coûts réduits jusqu'à se banaliser, une autre génération d'installations plus performantes prend alors le relais.

De fait, il existe des communautés scientifiques pour lesquelles les grands équipements ont un rôle " existentiel " et vis-à-vis desquels elles ont une responsabilité particulière. Au vrai, chaque communauté scientifique devrait, dans ce domaine, avoir une vision à long terme et anticiper sur les différentes évolutions techniques envisageables afin d'utiliser les grands équipements au mieux de leurs performances. En outre, s'agissant d'un grand équipement interdisciplinaire, la communauté porteuse devrait avoir la responsabilité de convaincre les autres communautés de la nécessité de contribuer à son financement.

Deux exemples sont éclairants à cet égard. Le premier est celui du CERN. Grâce à une vision à long terme, la physique des hautes énergies non seulement a conquis son autonomie et son indépendance mais a également convaincu les autres disciplines de l'importance de ses activités. Le contre-exemple est celui du projet SSC aux Etats-Unis que son gigantisme et son absence de soutien réel autre que politique ont conduit à l'échec.

En tout état de cause, l'instruction d'un dossier de grand équipement par une instance émanant de la communauté scientifique est donc primordiale pour le succès de celui-ci.

Une autre dimension a été citée comme essentielle par M. Gilles COHEN-TANNOUDJI, à savoir les modalités de contrôle des grands organismes de recherche en matière de grands équipements.

Ni la décision ministérielle pour leur création ni la tutelle pour leur exploitation ou leur arrêt ne semblent permettre une gestion moderne et responsable.

C'est bien au contraire le régime du contrat qui devrait s'imposer, tant pour gérer la durée que pour régler les rapports des grands organismes de recherche avec l'Etat et les rapports mutuels de ceux-ci. Dans ce schéma, il est nécessaire de garantir la valeur des contrats et d'assurer la cohérence des projets dans le temps. On peut imaginer que ceci soit assuré par un ensemble de trois institutions travaillant de concert, d'une part un nouveau type de Conseil des grands instruments, d'autre part le CSRT et enfin l'OPECST qui possède la caractéristique fondamentale d'avoir la pérennité nécessaire.

M. Roger BALIAN a ensuite brossé alors le tableau d'un Conseil des grands équipements idéal de son point de vue.

Ce dernier serait un lieu de dialogue entre les différentes disciplines scientifiques où il serait en outre possible de séparer les facteurs non politiques des considérations politiques. En particulier, une méthode prenant en compte les facteurs scientifiques et les coûts consolidés de construction et de fonctionnement - dont les coûts des déplacements - permettrait d'éviter, au contraire du cas du synchrotron SOLEIL, que les régions court-circuitent toute prise de décision rationnelle pour la localisation.

Il convient à cet égard que le groupe de travail mette au point une méthode d'ensemble pour l'évaluation des projets de grands équipements. En tant qu'organe pluridisciplinaire et purement consultatif, ce futur Conseil pourrait être relié organiquement au CSRT ou à l'OPECST ou bien aux deux.

Un débat s'est alors engagé sur le rôle que pourrait jouer l'Office parlementaire d'évaluation des choix scientifiques et technologiques dans le domaine des grands équipements.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé que l'Office n'a pas vocation à se substituer à l'exécutif.

Grâce à sa composition et à l'esprit de ses travaux qui conduisent le plus souvent à des diagnostics adoptés à l'unanimité de ses membres, l'Office pourrait certes constituer un élément de stabilisation en matière de grands équipements en exprimant " la continuité dans les choix scientifiques ". Mais il ne lui appartient pas de dire à tout moment et à tout propos ce qui doit être adopté et lancé comme nouveau projet. En outre, il courrait un risque fatal à ajouter à une préconisation sur les priorités de TGE une préconisation sur leur localisation.

M. Jean GALLOT a noté, quant à lui, que l'une des forces de l'Office, qui bénéficie au demeurant de la durée nécessaire pour mener un travail de fond, est d'ouvrir le débat à la presse, de publier l'ensemble de ses travaux et d'alimenter ainsi le débat public.

Pour M. René TRÉGOUËT, Sénateur, rapporteur, la transparence de la démarche de l'Office, difficile à mettre en _uvre par une administration par nature travaillée par des influences contradictoires, constitue l'un de ses grandes forces.

Le Rapporteur a par ailleurs fait connaître son intention de suggérer au Président de l'Office la pérennisation de la présente démarche sur les très grands équipements. En effet, s'il s'agissait seulement de prendre une photographie de la situation actuelle, les propositions de l'Office ne présenteraient qu'un intérêt limité. Au contraire, en s'appuyant sur la durée dont il est l'une des rares institutions politiques à bénéficier, l'utilité de la présente mission en serait considérablement accrue grâce à une profondeur de champ plus grande.

M. Christian CUVILLIEZ, Député, rapporteur, à son tour, a souhaité que du présent rapport résulte une vision dynamique des grands équipements, vision qui remédie en particulier aux inconvénients d'un système de prise de décision centralisé, fonctionnant souvent dans l'urgence, négligeant dans une certaine mesure l'examen de l'utilité sociale et scientifique d'un projet et ne pouvant résoudre dans la durée le problème du financement.

La réunion s'est terminée sur la mise au point du programme des auditions et la discussion d'une liste provisoire des TGE établie sur la base de documents transmis par le CNRS et émanant du ministère de la Recherche.

2. Les aspects budgétaires et fiscaux des TGE - mercredi 17 mai 2000

Ministère de la Recherche - Direction de la Recherche

· M. Vincent COURTILLOT, Directeur de la Recherche

· M. Michel LE BELLAC, conseiller du Directeur de la Recherche pour la physique et les sciences de l'ingénieur (CRD2)

· M. Jean-Pierre CHARLEMAGNE, chef du bureau du Budget civil de recherche, du Développement et du financement des programmes

Ministère de la Recherche - Direction de la Technologie

· Mme Geneviève BERGER, Directrice de la Technologie

· M. Bernard FROIS, directeur du département énergie, transports, environnement et ressources naturelles (DTA4)

· M. Jean-Alexis GRIMAUD, directeur du département bio-ingéniérie (DTA2)

Ministère de l'économie, des finances et de l'industrie - secrétariat d'Etat au budget

· M. Laurent GALZY, Sous-directeur, Direction du Budget

· M. Stéphane BRIMONT, Chef de Bureau, Direction du Budget

CEA

· M. Philippe BRAIDY, Directeur financier

· M. François GOUNAND, Directeur des Sciences de la Matière

· M. Bernard SALANON, Direction de la Stratégie

· M. Pierre TRÉFOURET, chef du service des Affaires publiques

CNRS

· M. Nicolas RUBEL, Chef du service de la programmation des moyens

· Mme Nathalie GODET, Secrétaire permanent des grands équipements

*

Pour introduire la réunion, M. René TRÉGOUËT, Sénateur, rapporteur, a rappelé que la mission de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST), après s'être focalisée sur les conditions d'implantation d'un nouveau synchrotron, porte désormais sur le rôle des très grands équipements (TGE) dans la recherche publique et privée en France et en Europe. Le grand nombre de participants à la réunion démontre un grand intérêt pour la problématique des très grands équipements.

En tout état de cause, il convient que le groupe de travail accorde une place de choix à la réflexion sur les très grands équipements dans les sciences et technologies de l'information et de la communication (STIC) ainsi que dans les sciences de la vie, du fait de l'importance déterminante de ces domaines dans l'avenir.

Au reste, parmi les questions que se posent les Rapporteurs de l'Office, l'une des plus importantes concerne la définition des TGE et son évolution éventuelle au cours du temps. Après que leur périmètre s'est étendu, il semble aujourd'hui nécessaire d'aller plus loin de sorte que cette notion ne désigne plus obligatoirement un instrument unique sur un lieu unique mais puisse aussi comprendre un ensemble d'équipements en réseau et le réseau lui-même. Un réseau comme RENATER qui rend des services précieux ne devrait-il pas entrer dans la catégorie des TGE ? Un tel élargissement permettrait notamment que des réseaux d'équipements mi-lourds " pré-programmés " pour rendre des services à des petits laboratoires puissent être pris en compte. Sans doute, faut-il mettre fin à la caractéristique des TGE d'être des équipements " pyramidaux " pour y faire entrer les réseaux.

Une autre approche consiste à différencier les TGE selon qu'ils relèvent de la compétence nationale et donc de l'investissement national, ou bien d'une compétence européenne avec éventuellement des participations croisées. A la veille de la présidence française de l'Union européenne, la réflexion sur ces questions revêt à l'évidence une grande importance.

L'un des objectifs de la présente réunion est que les représentants du ministère de la Recherche définissent leur approche des très grands équipements et que l'on puisse vérifier la cohérence des notions retenues avec l'approche du ministère de l'économie, des finances et de l'industrie, exposée par le représentant de la Direction du Budget.

En tout état de cause, il est essentiel que les pouvoirs publics aient une approche identique de ces questions et conçoivent leur action dans la durée : l'alternance politique ne doit pas avoir d'impact sur la recherche, en particulier dans le domaine des TGE.

Pour sa part, l'Office parlementaire, compte tenu de ses caractéristiques, peut apporter une contribution qui va dans le bon sens.

En effet, depuis sa création en 1983, au total sur près de 17 années, l'Office a réussi à dépasser les approches partisanes pour faire place au consensus. Au vrai, la réflexion sur les TGE devrait trouver un lieu naturel où s'effectuer dans la durée. A cet égard, la contribution de la Direction du Budget sera essentielle pour déterminer si l'approche budgétaire des TGE est soumise ou non à des décisions politiques et, dans l'affirmative, pour tenter de dégager une méthode permettant de les inscrire dans la durée.

Pour M. Christian CUVILLIEZ, Député, rapporteur, il ne s'agit pas seulement de définir les très grands équipements par leur coût et leur financement mais aussi de répondre à d'autres questions essentielles, comme les raisons pour lesquelles le Conseil des grands équipements a disparu, de mettre au point des critères de caractérisation des TGE selon leur utilisation, le nombre d'utilisateurs, la répartition et le nombre de leurs sites dans le cas de TGE répartis, et enfin de pouvoir distinguer entre les TGE nationaux comme les synchrotrons et ceux pour lesquels il faut une coopération européenne ou mondiale. En tout état de cause, la deuxième partie de l'étude de l'Office, par l'étendue de son champ, diffère sensiblement de la première, qui, on s'en souvient, était focalisée sur un seul grand équipement spécifique, le synchrotron.

M. Vincent COURTILLOT, Directeur de la Recherche au ministère de la Recherche, a assuré les Rapporteurs de sa volonté de répondre, depuis la position centrale qu'il occupe, aux différentes questions adressées par le secrétariat de l'Office et de fournir à la fois des informations sur la situation actuelle et une critique de cette dernière. Cette réflexion avec l'Office parlementaire d'évaluation des choix scientifiques et technologiques est l'occasion de trouver en commun une piste pour définir des priorités et les réaliser.

La deuxième phase du rapport de l'Office est importante, comme l'est toujours le regard du Parlement.

Une réflexion est par ailleurs engagée par le Conseil supérieur de la recherche et de la technologie (CSRT). La Direction de la recherche du ministère travaille également sur ce sujet. La présente réunion permettra sans nul doute un échange profitable entre ces différentes instances, ici toutes représentées, auxquelles s'ajoutent les grands organismes de recherche. Mais il convient, avant toute chose, de " balayer " les informations nécessaires.

M. Vincent COURTILLOT a estimé qu'il n'existe pas de définition des TGE et qu'il ne saurait oser en proposer une en l'état actuel des choses. La notion de TGE est essentiellement une définition historique. Au reste, cette notion diffère d'un pays à l'autre, ce qui constitue une difficulté supplémentaire.

A l'origine de cette notion, les TGE étaient constitués des très grands appareils de la physique, dont la finalité était l'étude des objets de cette discipline. Leur échelle de financement et de fonctionnement, ainsi que leur degré de sensibilité les plaçaient au delà de l'échelle des laboratoires et même des organismes de recherche eux-mêmes. Avec ces équipements, on est à l'échelle nationale, dans un contexte pluri-organismes et pluri-utilisateurs, voire même à l'échelle européenne. A cet égard, cette question sera présente dans les propositions que fera la France en matière de politique européenne de la recherche au cours de sa présidence de l'Union.

La notion de TGE a connu ensuite un élargissement progressif. C'est ainsi qu'au cours du temps, ont été inclus successivement les grands instruments de l'astronomie au sol, les grands appareils de la physique au service des autres disciplines comme le synchrotron, la flotte océanographique, les expériences spatiales avec les sondes, les satellites et les expériences dont l'objet principal est scientifique, et enfin les grands équipements des sciences de la vie comme l'EMBL.

Aujourd'hui, il existe près de 40 très grands équipements répertoriés, avec une définition qui est la même depuis 10 ans. Les bases de comparaison existent donc pour la France sur cette période. Mais on peut se demander si cette définition rend compte avec exactitude de l'effort national.

Au reste, après les travaux du CSRT et les séminaires tenus par la Direction de la Recherche, les analyses des conseillers du Directeur de la recherche permettent de disposer de séries numériques depuis 1990, par institution, par type de machine et par discipline. Toutes ces données sont disponibles pour l'Office parlementaire et lui seront communiquées.

Au demeurant, pour mesurer l'effort national dans le domaine des TGE, une extension de la notion est étudiée par la Direction de la recherche dans trois directions.

La première direction est celle des sciences et technologies de l'information et de la communication (STIC). Il conviendrait peut-être d'inclure d'une part les 3 grands centres de calcul nationaux que sont l'IDRIS (Institut du développement et des ressources en informatique scientifique) du CNRS, le CINES (Centre informatique national de l'enseignement supérieur) de Montpellier et le Centre de calcul du CEA à Cadarache et, d'autre part, le réseau RENATER. Le doublement de la capacité de recherche et d'intervention de l'INRIA au terme d'un contrat quadriennal de 4 ans invite également à la même interrogation.

La deuxième direction est celle des sciences de la vie. Après l'inclusion de la contribution française à l'EMBL, il peut sembler nécessaire de prendre en compte dans l'enveloppe TGE les équipements de la biologie requérant un financement de grande ampleur. Ainsi, il serait logique de prendre en considération l'aide éventuelle de l'Etat au laboratoire P4 de Mérieux à Lyon lancé sur fonds privés mais qui ne réussit pas à perdurer dans ce cadre. Au premier rang des TGE des sciences de la vie, pourraient figurer aussi, bien entendu, le programme national de génomique, avec, notamment, le réseau des Génopoles, le programme Genhomme et les centres de séquençage, CNS (Centre National de Séquençage) et le CNG (Centre national du génotypage), à quoi on pourrait songer à joindre les animaleries (souris et primates).

La troisième direction est celle des sciences humaines et sociales, qui constituent au demeurant une des priorités du ministère de la recherche. Or les sciences sociales, en mettant en _uvre des recherches disciplinaires, ont besoin de moyens lourds. A cet égard, le réseau des maisons des sciences humaines, qui est un engagement fort du ministère, représente un investissement onéreux, lourd et structurant, qui pourrait être considéré comme un très grand équipement.

En réponse à la demande de M. René TRÉGOUËT, Sénateur, rapporteur, de voir la notion de TGE étendue aux réseaux, M. Vincent COURTILLOT, Directeur de la Recherche, a estimé qu'il y aurait lieu de procéder ainsi, mais que, plus la notion de TGE sera vaste, plus elle sera difficile à gérer. Dans l'attente d'une révision éventuelle à la suite des travaux de l'Office, du CSRT et de la Direction de la recherche, la liste des 40 TGE qui sert de base au ministère de la recherche doit donc seule être considérée.

Mme Geneviève BERGER, Directrice de la Technologie au ministère de la Recherche, a fait connaître son accord avec cette approche. Il existe toutefois des très grands équipements qui ne se composent pas d'une installation unique, leur intégration à cette catégorie étant alors admissible s'ils sont structurants.

M. Vincent COURTILLOT, Directeur de la Recherche, a alors précisé d'une part que le débat peut également être ouvert sur les collections biologiques et sur certains musées, en particulier pour le futur musée du quai Branly sur les Arts premiers et pour le Muséum d'Histoire naturelle et d'autre part que, si l'on peut ouvrir le débat, il convient de s'en tenir, pour le moment, à la définition actuelle.

L'évolution des crédits relatifs aux TGE a alors été retracée, ces derniers étant relatifs à la physique des particules (Cern, LHC), au nucléaire (Ganil, Saturne avant sa fermeture), à la fusion (JET, Tore Supra), à l'astronomie au sol (ESO, VLTI, télescope Canada-France-Hawaii, IRAM), à l'astrophysique spatiale (ISO, INTEGRAL, SOHO, PLANCK, XMM), à la planétologie (Rosetta, Cluster 2, Cassini, mission sur Mars), à l'observation de la Terre (TOPEX, PROTEUS-JASON, ERS2-Envisat, PICASSO-CENA), à la géologie (ODD, GéoFrance 3D), à l'océanographie (flotte océanographique), aux neutrons (ILL, LLB, SILOE avant sa fermeture), au rayonnement synchrotron (LURE, ESRF, SOLEIL), aux sciences de la vie (EMBL, sciences de la vie dans l'espace), à la physique gravitationnelle (VIRGO), ensemble auquel il faut ajouter les TGE techniques représentés principalement par les satellites météorologique (EUMETSAT, METOP, MSG) et la station spatiale internationale.

Ce sont le CEA, le CNRS, le CNES et le ministère des Affaires étrangères par lesquels le financement des TGE transite à partir du BCRD.

Sur les bases précédemment définies, les crédits d'équipement, de fonctionnement et les salaires relatifs aux TGE ont représenté en 1999 un total de 4,6 milliards de francs. Pour 2000, si le but est de stopper la croissance de ces crédits, leur montant devrait atteindre 4,7 milliards de francs.

L'indicateur des crédits TGE, en base 100 pour 1990, ressortit donc à plus de 160 pour l'année 2000, avec une croissance globale de 61,8 % en francs courants où les TGE techniques témoignent de la plus forte augmentation.

Pendant la même période, le Budget civil de la recherche et développement (BCRD) aura augmenté de 22,4 %, le soutien de base aux EPST et aux EPIC de 34 %, le budget de la recherche universitaire de 38,7 % en dotation de fonctionnement et autorisations de programme, tandis que la masse salariale des chercheurs et des enseignements chercheurs aura augmenté de 29 %.

Au total, sur une période de 10 ans, les différents indicateurs varient de 20 à 40 %, tandis que celui des TGE augmentent de plus de 60 %. Cette dernière hausse est principalement due aux TGE techniques, puisque l'augmentation des crédits des TGE scientifiques s'établit à 21 %.

Au reste, il est indispensable de distinguer entre les différents types de TGE, notamment entre les grands instruments nationaux ou internationaux et entre les grands instruments généralistes ou spécialisés.

Cette dernière distinction est particulièrement importante. Il existe en effet des équipements lourds indispensables à un petit groupe de chercheurs et d'autres, comme les synchrotrons, utilisés par un grand nombre d'entre eux.

Mais la différenciation essentielle est à faire entre les TGE de recherche et les TGE techniques et technologiques.

S'ils ont augmenté de 26,7 % en francs courants, les crédits des TGE de recherche sont, globalement, restés à peu près stables en francs constants sur la période, avec une légère augmentation pour les instruments généralistes et une légère diminution pour les instruments spécialisés.

Au contraire, les crédits des TGE techniques et technologiques ont enregistré une augmentation de 350 % en francs constants, pour atteindre un montant de 1,1 milliard de francs en 1999, sur un total de 4,6 milliards de francs.

La dichotomie " spatial " - " non spatial " est également instructive.

Les crédits des TGE " non spatiaux ", s'ils ont en effet augmenté de 9 % en francs courants, ont en réalité diminué de 8 % en francs constants, c'est-à-dire en volume. En revanche, les crédits des TGE " spatiaux " ont augmenté de 65 % en francs courants, ce qui correspond à une croissance de 38 % en francs constants.

Quoi qu'il en soit, un très grand équipement constitue une opération qui se déroule sur une durée importante et qui connaît, au plan budgétaire, une phase d'augmentation des crédits, suivie d'une phase de dépense maximale sur un plateau de plusieurs années et enfin une phase de décroissance.

C'est par superposition des cycles des différents TGE que l'on détermine si l'on peut engager un nouveau grand équipement.

Deux contraintes s'opposent à l'heure actuelle à des initiatives dans ce domaine. La première est qu'aucun dégagement d'un TGE majeur ne se profile. La deuxième est la longueur des cycles. La durée de la phase en plateau s'allonge, ainsi que celle de la décroissance. Cet allongement est, en soi, est une bonne chose puisqu'il traduit une meilleure rentabilisation de l'équipement. L'extension de la phase de décroissance traduit un recours plus systématique à des opérations de jouvence qui peuvent s'avérer au total onéreuses. Au final, une pression inflationniste résulte de ces deux phénomènes.

Mme Geneviève BERGER, Directrice de la Technologie, a précisé que la croissance des crédits relatifs aux TGE " spatiaux " provient de la multiplication des applications du spatial dans les domaines des télécommunications et de l'observation de la Terre.

Le CNES est, dans le cadre d'une stratégie européenne et internationale, le principal porteur des ressources financières allouées par la France au spatial, soit directement, soit au sein de l'Agence spatiale européenne (ESA). Pour l'année 2000, les crédits du CNES en faveur des TGE vont diminuer de 80 millions de francs pour atteindre un montant de 2,1 milliards de francs. Pour la période 2001-2003, une augmentation est prévue, principalement en raison de la station spatiale internationale, ce qui devrait hisser l'enveloppe TGE aux alentours de 2,3 milliards de francs. Les dépenses correspondant à la participation française aux missions sur Mars devaient s'accroître aussi mais avec retard par rapport au calendrier initialement prévu.

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, Mme Geneviève BERGER, Directrice de la technologie, a confirmé que le projet européen GALILEO de positionnement par satellite, le réseau RENATER pour les STIC, les animaleries pour les sciences de la vie et les bibliothèques numériques pour les sciences humaines et sociales ne font pas partie, pour le moment, de la catégorie des TGE.

M. René TRÉGOUËT, Sénateur, rapporteur, est alors revenu sur la grille de lecture qui devrait être appliquée lors de la définition des priorités dans le domaine des TGE. En tout état de cause, la comparaison de leurs retombées devrait intervenir dans les choix à faire. Ainsi, le projet Galileo de positionnement satellitaire peut apparaître comme prioritaire de par ses retombées considérables pour la vie des entreprises et des particuliers, comparées à celles des projets relatifs à la planète Mars dont l'impact sera, selon toute probabilité, sensiblement inférieur.

Par ailleurs, la politique américaine dans le domaine des TGE devrait être source d'inspiration pour la France.

Ce sont en effet les projets aux retombées les plus lointaines pour lesquels les Etats-Unis proposent des coopérations internationales, ce qui accroît d'autant leurs ressources disponibles pour les TGE à fort impact économique national. Au demeurant, les investissements relatifs aux TGE ne sauraient constituer une " bulle " déconnectée des besoins de la Nation et des réalités économiques.

M. Vincent COURTILLOT, Directeur de la Recherche, a par ailleurs indiqué que des données comparatives portant sur la situation des TGE dans les autres pays ont été présentées au conseil d'administration du CNRS du 2 décembre 1999.

Ainsi, selon le CNRS, sur la période 1997-1998, si la part des TGE atteignait en France 7,9 % du BCRD, le même ratio était de 9,1 % aux Etats-Unis, hors station spatiale et hors satellites de météorologie.

Des statistiques équivalentes pour la même période ne sont pas disponibles pour le Royaume Uni et l'Allemagne. En revanche, les chiffres français ont pu être recoupés avec ceux du Royaume Uni fournis par M. John TAYLOR, Directeur de l'OST, et ceux de l'Allemagne présentés par le Secrétaire d'Etat M. Uwe THOMAS, pour 1999.

Il résulte que la part des TGE dans le BCRD oscille dans ces trois pays entre 8 et 9 %, avec probablement des dépenses plus fortes en Allemagne qu'en France, et plus fortes en France qu'au Royaume Uni. En ajoutant les grands équipements de la biologie et de l'informatique, cette part atteindrait probablement 15 %. En tout état de cause, les ordres de grandeur sont peu différents d'un pays à l'autre.

Les interrogations sur les TGE et la volonté politique dans ce domaine sont communes à la France, à l'Allemagne et au Royaume Uni.

En premier lieu, il s'agit de déterminer si la part des TGE est optimale, par rapport aux équipements mi-lourds des laboratoires et au soutien de base aux équipes de recherche. En deuxième lieu, la volonté politique commune aux différents pays est de faire en sorte que la part des TGE n'augmente pas à périmètre constant. L'Allemagne, en particulier, s'est engagée dans un vaste processus de réflexion qui ne devrait pas aboutir avant un an et qui mobilise l'ensemble de la communauté scientifique dans une approche pluridisciplinaire. Les principaux objectifs visés sont d'une part de recenser les demandes d'une manière exhaustive, d'autre part d'éviter les doublons, et enfin d'établir des priorités.

M. Vincent COURTILLOT a par ailleurs indiqué que le groupe européen de coordination à géométrie variable sur les TGE, dont il avait annoncé la création lors de ses auditions privée et publique de mars dernier sur le synchrotron, a effectivement progressé dans sa démarche et ses activités. Rassemblant les directeurs de la recherche de l'Allemagne, du Royaume Uni, de l'Italie, de la France et de l'Espagne, ce groupe, qui accueille dans le cas de la flotte océanographique le représentant du Portugal, a pour objectif la coordination des politiques nationales des TGE.

Un premier sous-groupe de travail se consacre aux méthodes d'analyse fine de la matière, à savoir le rayonnement synchrotron, les sources de neutrons, les lasers à électrons libres et les hauts champs magnétiques. Un premier compte rendu de ses travaux sera fait le 22 juin prochain à Rome. Un second rapport d'étape sera fait au cours du Colloque organisé à Strasbourg en septembre 2000.

Un deuxième sous-groupe examine la question des flottes océanographiques, une réunion étant prévue en Allemagne le 15 juin prochain.

Un troisième sous-groupe, à la demande de l'Espagne, devrait axer ses réflexions sur l'astronomie et l'astrophysique.

Deux autres sous-groupes pourraient étudier la problématique des TGE dans les domaines de l'informatique et des sciences de la vie.

Bien que représentant une rupture par rapport à la politique européenne antérieure, la constitution du groupe à géométrie variable des directeurs de la Recherche a été validée par le Commissaire européen à la Recherche, M. Philippe BUSQUIN, qui y délègue désormais un représentant comme dans chacun des sous-groupes de travail, ainsi d'ailleurs que la Fondation européenne de la science (ESF).

Mais quelles sont actuellement dans notre pays, les instances compétentes en matière de TGE ?

Si le Conseil des grands équipements n'a pas été renouvelé, une autre procédure a été mise à sa place, suite au conseil interministériel de la recherche scientifique et technologique (CIRST) de juin 1998. On peut la schématiser en 4 niveaux d'instruction des dossiers.

Le premier niveau est celui de l'expression des besoins en très grands équipements, qui est celui des organismes de recherche eux-mêmes.

Le deuxième niveau est celui des 4 comités de coordination du ministère chargé de la recherche, et qui sont relatifs aux sciences de la vie, aux sciences de la planète et à l'environnement, aux matériaux et aux sciences et technologies de l'information et de la communication. Ces comités, qui rassemblent les responsables des organismes de recherche ainsi que des chercheurs nommés intuitu personae, et qui siègent parfois en deux collèges distincts, ont une mission d'information et de proposition.

S'agissant des TGE de la physique, la coordination en est effectuée directement par la Direction de la Recherche elle-même, en raison du petit nombre de partenaires institutionnels concernés. A cet égard, on peut citer la réflexion en cours avec ces deux grands organismes pour un rapprochement de l'IN2P3 du CNRS et du DAPNIA du CEA.

Le troisième niveau est celui du Conseil supérieur de la recherche et de la technologie (CSRT) et du Conseil national de la science. Ce dernier conseil, composé d'un tiers de scientifiques français de la recherche académique nationale, d'un tiers de chercheurs français de l'industrie et d'un tiers de scientifiques étrangers.

Le quatrième niveau est celui du Comité interministériel de la recherche scientifique et technologique (CIRST).

M. Vincent COURTILLOT a ensuite détaillé les raisons pour lesquelles il n'avait pas proposé la recomposition du Conseil des grands équipements.

La structure de cette instance lui conférait en effet un caractère intrinsèquement inflationniste.

Au surplus, il est " malsain " de " sortir la réflexion sur les TGE de la réflexion générale ". Au contraire, la réflexion sur les TGE " doit se faire au sein de la réflexion générale sur la recherche et non pas indépendamment ". Les nouveaux comités de coordination conduisent une démarche globale, portant non seulement sur les programmes mais aussi sur les équipements afférents. De fait, les TGE doivent être envisagés dans le cadre d'une réflexion non seulement scientifique mais aussi économique et passés au crible de leurs applications. Au demeurant, on peut souligner l'insuffisance du concours de l'industrie au lancement et au démarrage des installations.

La parole a ensuite été donnée à M. Laurent GALZY, Sous-Directeur à la direction du budget du ministère de l'économie, des finances et de l'industrie.

*

M. Laurent GALZY, Sous-Directeur à la direction du budget, a remarqué, avant de répondre aux huit questions communiquées par les Rapporteurs, qu'il est difficile de faire entrer les très grands équipements dans les critères budgétaires classiques. Pour autant, aux TGE sont attachés des enjeux budgétaires lourds, qui s'ajoutent à des enjeux scientifiques, à des enjeux économiques et à des enjeux de coopération internationale eux-mêmes importants. Dans ces conditions, que les processus de décision soient complexes n'est pas fait pour étonner. Bien évidemment, la hiérarchisation des différents TGE et projets de TGE sous contrainte budgétaire est une obligation. Mais il faut également une hiérarchisation par domaine scientifique, par type de dépenses de recherche et une autre entre les dépenses relatives aux TGE, aux laboratoires et à la recherche industrielle.

" Il faut donc une grande qualité des systèmes de décision ". Cette question est précisément un " souci fort " de la Direction du Budget. Les deux ministères ont dépêché une mission d'experts conjointe de l'Inspection générale des finances et de l'Inspection générale de l'administration de l'éducation nationale et de la recherche sur l'amélioration des processus de décision.

Sur la notion de très grand équipement, force est de constater qu'il s'agit plutôt d'une liste qui s'est allongée au fil du temps que d'une définition méthodique. En réalité, " il n'existe pas de définition budgétaire des très grands équipements " et " il n'existe pas de traitement spécifique des très grands équipements dans le cadre de la procédure budgétaire ".

En tout état de cause, la procédure budgétaire appliquée au Budget civil de la recherche et développement (BCRD) recourt à la globalisation. La dotation de l'Etat aux différents organismes de recherche publics est globalisée. De surcroît, à la diversité des statuts juridiques de ces derniers répond une variété de canaux budgétaires. Au total, l'absence de procédure budgétaire concernant les TGE répond d'une certaine manière à leur hétérogénéité.

Il reste qu'une définition des très grands équipements est nécessaire, du fait de l'importance des enjeux et parce qu'il faut un processus de décision fiable et efficace. Ce dernier devra intégrer les différentes facettes à prendre en compte, à savoir les choix de TGE concurrents, les plans de financement et la recherche de coopérations internationales.

Un seuil financier aurait une pertinence, à condition de ne pas considérer le seul coût de l'investissement mais au contraire de faire référence au coût complet comprenant non seulement les dépenses d'investissement mais aussi les coûts de fonctionnement.

Deux écueils sont à éviter dans la mise au point d'une définition. Le premier est celui de la dilution de la notion de TGE, du fait d'une extension trop grande de leur définition. Ceci rendrait impossible le processus rigoureux qui est pourtant indispensable pour équilibrer les investissements relatifs aux différents domaines de recherche. Le deuxième écueil est celui de la création d'un tropisme en faveur des TGE qui, par un excès de priorité, éloignerait la perspective d'un équilibre entre leur financement et celui des laboratoires de recherche propres.

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, sur la possibilité des techniques budgétaires actuelles de prendre en compte les réseaux, M. Laurent GALZY a noté que les crédits correspondants sont inclus dans la dotation globalisée aux organismes de recherche. Ceux-ci appliquent des processus budgétaires internes pour l'allocation aux TGE. Ce n'est que grâce aux données collectées par la Direction de la Recherche du ministère de la Recherche que s'effectue la consolidation extra-budgétaire relative aux TGE, dont il est fait état dans le fascicule sur " l'état de la recherche et du développement technologique " annexé au projet de loi de finances.

Dans ces conditions, quelles sont les améliorations souhaitables ?

Parmi les pistes envisageables, l'une des plus importantes est certainement l'amélioration du suivi budgétaire et comptable au sein de chaque établissement public à caractère scientifique et technologique (EPST). A cet égard, l'étude d'une solution est en cours, qui permettrait en particulier d'identifier les investissements pluriannuels et, en particulier les TGE, et de fournir des données systématiques grâce à une comptabilité analytique.

S'agissant de la deuxième question sur l'évolution des crédits alloués aux très grands équipements et les comparaisons internationales, M. Laurent GALZY, a, pour les raisons vues plus haut, fait référence aux données communiquées par M. Vincent COURTILLOT. Au plan global, il est établi, en tout état de cause, que le poids des dépenses relatives au TGE en France est cohérent avec ce qu'il est dans d'autres pays . Il n'existe pas de déficit ou de retard de notre pays dans ce domaine.

M. René TRÉGOUËT, Sénateur, rapporteur, a, pour sa part, estimé indispensable de se poser des questions sur la répartition des dépenses par secteur, les TGE " spatiaux " ayant un poids croissant alors que d'autres domaines sont en recul.

M. Laurent GALZY, a alors traité la question portant sur " les besoins prévisibles de la recherche française et européenne en très grands équipements scientifiques et technologiques dans les années à venir ".

On ne saurait traiter des besoins en matière de TGE hors de leur contexte scientifique correspondant. Mais il faut tenir compte de deux exigences de portée générale. En premier lieu, il est indispensable de disposer de la capacité de prendre en compte les besoins et les projets à l'échelle européenne grâce à une coordination européenne effective, de manière à éviter des surcapacités et un " doublonnage " des installations. En second lieu, il faut également être en mesure de hiérarchiser les priorités respectives des différentes disciplines et celles des dépenses de soutien aux laboratoires vis-à-vis des TGE.

Sur le sujet des procédures de décision relatives aux nouveaux TGE, M. Laurent GALZY a répété qu'il n'existe pas de processus budgétaire spécifique les concernant et a ajouté " qu'il n'existe pas non plus de procédure de décision interministérielle formalisée relative aux TGE ".

De fait, les situations sont disparates selon les secteurs et les niveaux de transparence variables. Ainsi, l'ESA (European Space Agency - Agence spatiale européenne) a mis au point une formalisation des processus de décision qui assure une lisibilité satisfaisante. Mais il existe des domaines où la transparence est inférieure, par exemple au CERN.

Au vrai, la situation est hétérogène suivant les organismes. Ceci n'est pas sans inconvénient. Le manque de transparence et de formalisation des processus de décision contribue à l'inertie de la répartition des crédits entre les disciplines. La pérennité des structures, souhaitable pour la continuité de la recherche, est toutefois un facteur d'inertie, de même que le caractère international d'une structure. D'ailleurs, la constitution d'équipes de recherche aguerries crée un phénomène inévitable de polarisation autour du renouvellement de l'installation.

Il y a donc de nombreuses raisons pour qu'un niveau de priorité élevé historiquement n'évolue pas aisément en fonction de nouveaux enjeux.

Si, comme on l'a vu précédemment, un chantier est ouvert au ministère de l'économie, des finances et de l'industrie pour l'amélioration des décisions relatives aux TGE, il n'en demeure pas moins indispensable que le futur processus budgétaire soit complété en amont par un dispositif assurant un " travail de maturation scientifique " et une " cohérence des priorités ".

M. Laurent GALZY a ensuite esquissé les " pistes d'améliorations souhaitables " pour les décisions en matière de nouveaux TGE.

En premier lieu, il est indispensable de veiller non seulement à ce qu'un dialogue interministériel de qualité intervienne sur ces sujets mais également qu'il se produise suffisamment en amont de la décision.

En second lieu, il est souhaitable d'avoir un processus de décision formalisé, pour avoir une décision claire à chacune de ses différentes phases. Ceci va à l'inverse des méthodes informelles d'engagement et milite au contraire en faveur de mémorandums circonstanciés et détaillés.

En troisième lieu, il convient d'élargir et de diversifier les paramètres de l'évaluation. Celle-ci doit bien sûr se faire sur la base des coûts complets, mais doit aussi porter sur l'impact de l'équipement sur la compétitivité économique et intégrer les avantages et les inconvénients d'une coopération internationale éventuelle. Les chercheurs eux-mêmes devraient être associés au processus.

En quatrième lieu, il est souhaitable de systématiser les questions à traiter aux différentes phases de l'instruction du dossier, en particulier le statut, la planification financière et les partenariats. S'agissant du financement, on sait que les dépenses d'investissement, de fonctionnement et de personnel des TGE sont intégrées au budget de l'établissement public porteur. Que les TGE soient gérés en interne, sous la forme d'un GIP ou d'une société civile, les dépenses sont traitées essentiellement en interne.

Il est nécessaire qu'à l'avenir, leur gestion budgétaire soit clarifiée et que les différentes structures internes et les conseils d'administration soient mieux informés à la fois du processus de décision et des coûts. De même, il serait opportun de mettre en place une tarification des usages, de façon à mieux faire participer les entreprises et les utilisateurs étrangers au financement des installations.

M. René TRÉGOUËT, Sénateur, rapporteur, a alors souligné qu'il est primordial d'avoir une vision précise des modes de financement des TGE, notamment à l'étranger. A cet égard, des éléments comparatifs sont essentiels. On connaît en effet le rôle du Wellcome Trust au Royaume Uni dans le financement de la recherche et bientôt du synchrotron DIAMOND. Des structures juridiques particulières comme les fondations existent outre Manche. De même, les collectivités territoriales en Allemagne apportent des financements substantiels à certains TGE.

M. René TRÉGOUËT, en conséquence, a demandé aux représentants du ministère de la recherche, des comparaisons internationales sur ces points, ainsi que sur les coûts d'investissement et de fonctionnement et les tarifications subséquentes.

M. Vincent COURTILLOT, Directeur de la Recherche, confirmant qu'il avait pris bonne note de cette demande, a remarqué qu'elle serait toutefois difficile à satisfaire d'une manière détaillée, en l'absence de données préexistantes.

S'agissant du Royaume Uni, le rôle de grandes fondations y est favorisé par la fiscalité. Le Wellcome Trust est, quant à lui, un Charity Trust qui a rompu ses liens avec l'industrie. Au demeurant son poids dans le financement de la recherche relative aux sciences de la vie devient équivalent à celui des pouvoirs publics. Le Wellcome Trust apporte ainsi des ressources financières supplémentaires pour la recherche britannique, tout en compliquant les processus de décision.

Le rôle des entreprises privées de l'industrie est également une dimension importante de la question des TGE. L'utilisation directe du rayonnement synchrotron et des sources de neutrons par l'industrie est faible en France. En revanche, par l'entremise de contrats de recherche passés avec les laboratoires publics, elle atteint près du tiers du total. Mais l'industrie est peu présente lors de l'initiation et la construction d'un projet, si elle l'est davantage pour son utilisation.

Le problème de la tarification peut être traité de deux façons. La première solution consiste à faire financer les centres de calcul ou de séquençage, par exemple, par l'Etat. Les chercheurs déposent alors un projet et le conseil scientifique de l'installation leur attribue des moyens en fonction de l'intérêt de leur dossier. Les " barrières d'énergie " sont certes différentes d'une discipline à l'autre. Mais s'il est des disciplines pour lesquelles il reste difficile de préparer des échantillons ou de soumettre un projet intéressant, il existe aussi des disciplines où ce n'est pas le cas, ce qui conduit à un gâchis de ressources rares car, alors, il n'y a pas de filtre. C'est pourquoi un deuxième type d'organisation peut être préférable, celui du ticket modérateur, où le laboratoire consacre une partie de sa subvention globale, au paiement d'une partie du coût de la ressource dont il bénéficie.

M. René TRÉGOUËT, Sénateur, rapporteur, ayant demandé des comparaisons internationales également sur les modes de tarification, M. Vincent COURTILLOT a estimé là aussi difficile de réunir des informations fiables, même si Internet devrait faciliter les choses.

Au sujet de la nécessité de la tarification, M. Laurent GALZY a rapporté que la Cour des Comptes a récemment observé une éviction des entreprises au profit des laboratoires dans l'accès au centre national de séquençage. Une telle situation pose le problème du financement structurel d'une installation de ce type et requiert des solutions pour une meilleure diffusion de ce type d'outil au profit des entreprises.

La parole a ensuite été donnée à M. François GOUNAND, Directeur des sciences de la matière au CEA.

*

M. François GOUNAND, Directeur des sciences de la matière (DSM) au CEA, a indiqué que le CEA, s'il utilise des très grands équipements pour sa recherche propre, a aussi la mission de participer à leur construction. Au reste, les TGE pèsent d'autant plus lourd dans le budget de la DSM que celui-ci est en diminution.

L'échelle de temps propre aux TGE, à savoir plusieurs décennies, n'est pas sans poser des difficultés. Lors de la création d'un TGE, la phase d'investissement apparaît souvent plus facile à monter au plan financier que ne l'est le financement ultérieur, c'est-à-dire celui de son fonctionnement, qui revient toujours aux organismes de recherche.

Même si le cas de chaque TGE est différent, une réelle difficulté existe pour le CEA en ce qui concerne l'adéquation de la charge financière à laquelle il est assujetti pour chaque TGE et l'utilisation réelle qu'il en fait. Sa participation financière est en effet indépendante de sa recherche propre. C'est ainsi que le CEA paie 50 % de la participation française à l'ESRF et à l'ILL, alors que les chercheurs du CEA recourant à ces machines sont loin de représenter 50 % du contingent des utilisateurs français.

Bien sûr, la prise en charge des participations françaises à 50 % par le CEA et à 50 % par le CNRS est une disposition qui date de la signature par la France des conventions internationales afférentes et il paraît difficile d'y revenir. Toutefois, cette charge se révèle lourde pour la Direction des Sciences de la Matière du CEA, car il s'agit d'un engagement de dépenses incompressible.

Sur un plan plus général, définir ce qu'est un TGE est assurément un exercice délicat. Deux critères fonctionnels apparaissent toutefois essentiels. Les TGE sont toujours en effet des programmes pluriannuels et pluri-organismes.

Par ailleurs, sur la question du cycle de vie des TGE, le CEA a démontré sa capacité non seulement à les concevoir, les construire, les faire fonctionner mais aussi à les fermer. C'est ainsi que dans les années récentes, les installations ALS (Accélérateur linéaire de Saclay), SATURNE et SILOE ont été effectivement arrêtées, même si, comme c'est inévitable, certaines dépenses relatives à leur démantèlement continuent de courir.

M. Philippe BRAIDY, Directeur financier du CEA, a indiqué que, les frais de fonctionnement et les salaires représentent l'essentiel des 4,6 milliards de francs de budget des TGE pour 1999. " La flexibilité à la baisse de ces dépenses est donc mauvaise ". Les coûts unitaires de l'investissement dans des nouveaux TGE semblent peu susceptibles de diminuer, compte tenu de leur technicité croissante. Par ailleurs, l'allongement de leur durée de vie ne semble pas critiquable, en ce qu'elle permet de rentabiliser l'investissement de départ. Au demeurant, l'arrêt d'une installation présente un coût, comme par exemple celui de retrait du combustible.

A l'évidence, il manque dans notre pays les outils de consolidation comptable qui permettraient d'avoir une meilleure appréciation de la situation globale des TGE. L'exercice est de toute façon complexe en raison des structures juridiques différentes des organismes de recherche en charge des très grands équipements. La présence de laboratoires mixtes CNRS-CEA complique encore les choses. Si le champ des TGE devait être étendu, la consolidation risquerait d'être de plus en plus difficile. En tout état de cause, la nature pluriannuelle des dépenses relatives aux TGE constitue sans aucun doute la difficulté de gestion la plus importante, même en l'absence d'aléas politique.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est alors interrogé sur la possibilité réelle de remédier à l'inadéquation entre l'usage des TGE et leur financement.

Pour M. Vincent COURTILLOT, Directeur de la Recherche, une fois arrêté l'enveloppe TGE qui transite pour la plus grande part par le CEA et le CNRS, l'essentiel est de déterminer comment améliorer la façon dont le service est rendu aux utilisateurs. Il est également indispensable de travailler sur des budgets à 20 ans. C'est à cet horizon de temps qu'ont été établies les études sur SOLEIL et sur la participation française dans le synchrotron britannique. L'intérêt des régions pour les très grands équipements scientifiques et leur participation financière ne doivent pas faire oublier la nécessité de ces études sur 20 ans. Il faut enfin imaginer les moyens de mieux répartir la charge financière de ces grands instruments entre utilisateurs, le CEA et le CNRS l'assumant dans une proportion supérieure à celle de son usage propre.

La parole a ensuite aux représentants du CNRS, M. Nicolas RUBEL et Mme Nathalie GODET.

*

M. Nicolas RUBEL, Chef du service de la programmation des moyens, s'est proposé dans un premier temps d'analyser l'évolution des crédits des TGE et la part du CNRS dans leur financement, et, dans un deuxième temps, de présenter des comparaisons internationales.

Le CNRS fait la même analyse que le ministère de la Recherche quant aux évolutions majeures des TGE dans le passé.

L'augmentation globale provient des TGE technologiques " spatiaux ", c'est-à-dire de la station spatiale et des satellites de météorologie.

Les crédits des TGE dits scientifiques ont connu, quant à eux, une diminution en volume. De fait, depuis les années 1980, le poids de l'espace n'a cessé d'augmenter, ce qui n'a pas manqué d'interroger les diverses instances qui conduisent actuellement des réflexions sur ce sujet, dont le Conseil supérieur de la recherche et de la technologie (CSRT).

Au total, si le poids des crédits de TGE dans le BCRD est passé de 6 à 8 %, la responsabilité en incombe aux TGE techniques.

Encore faut-il, dans cette évolution, faire également la part de ce qui relève de la seule " géométrie " de cette catégorie de dépenses : au CNRS, par exemple, les crédits alloués aux TGE s'élevaient à 425 millions de francs en 1990, sur un budget total des TGE dans notre pays de 2,854 milliards de francs à la même date. En 1996, ce montant avait atteint 895 millions de francs. Quels sont les facteurs de ce doublement des dépenses pour le CNRS intervenu entre 1990 et 1996  ?

Des raisons techniques sont à prendre en compte pour interpréter cette croissance. En tout état de cause, le poids de l'ESRF est négligeable. En revanche, l'amélioration de la description des dépenses intervenue dans l'intervalle joue un rôle essentiel. Ainsi un meilleur chiffrage des charges de personnel pour le spatial contribue à alourdir la facture de 170 millions de francs pour la seule année 1996, de sorte qu'une forte part de la croissance observée résulte de la meilleure connaissance des salaires pour les TGE " spatiaux ".

Il faut, à cet égard, observer la concurrence, à, budget constant, entre les engagements d'investissement dans de nouveaux TGE et l'amélioration des moyens de fonctionnement des laboratoires, avec une pression de la masse salariale qui ne peut être mésestimée.

Les crédits des TGE ont représenté au CNRS une part relativement stable du total des autorisations de programme, avec un ratio en volume de 12 % en 1982 et de 13 % en 2000.

Seules les deux années 1995 et 1996 constituent des points singuliers, en raison des annulations de crédits totaux en AP de 200 millions de francs en 1995 et de 100 millions en 1996, intervenues pour résorber la crise de trésorerie de l'organisme.

En francs constants, les dépenses de construction s'élevaient à 115 millions de francs en 1982, hors ESRF, et à 80 millions de francs pour 2000. Aux mêmes dates, les dépenses d'exploitation hors salaires étaient respectivement de 178 et de 273 millions de francs.

Au total, les dépenses d'investissement sont moins responsables de la croissance du budget des TGE que les dépenses de fonctionnement.

Le souci du CNRS est donc de préserver une capacité d'investissement pour l'avenir tout en assurant le fonctionnement des installations existantes ou entrant en exploitation. A cet égard, les fermetures d'instruments obsolètes comme Saturne sont essentielles, de par les économies qu'elles génèrent, 40 millions de francs en l'occurrence pour cette dernière installation.

S'agissant des comparaisons internationales, le CNRS dispose de chiffres solides sur les Etats-Unis, provenant des demandes budgétaires des laboratoires et des crédits budgétaires des organismes ministériels ou de recherche, comme le DOE, la National Science Foundation ou la NASA. Les résultats de cette étude seront communiqués aux Rapporteurs de l'OPECST.

Mme Nathalie GODET, secrétaire permanente des très grands équipements au CNRS, a ensuite confirmé qu'il est aussi dans la mission du CNRS de participer à la construction et à la gestion des TGE pour l'ensemble de la communauté scientifique française. C'est en 1982 qu'une programmation des TGE scientifiques a été mise en place, en incluant les dépenses d'investissement et les dépenses de fonctionnement y compris les salaires. Un premier comité interne des TGE a été crée à cette date. Ce comité, arrêté en 1994, présentait l'avantage d'obliger à une formalisation et à un suivi des décisions au sein du CNRS. Ses travaux étaient éclairés par des évaluations externes, ainsi en ce qui concerne l'ESRF, VIRGO et SOLEIL. Le ministre de la recherche était destinataire de ses conclusions.

La définition des TGE est fondée dans la pratique sur des critères multiples. Ces outils mis à disposition de la communauté scientifique ont une triple vocation de service, de recherche propre et de développement. Il s'agit d'investissements insécables qui nécessitent à la fois une programmation pluriannuelle des moyens et des processus de décision et de suivi particuliers.

Concernant la définition des TGE, il y aurait un danger à pratiquer un élargissement trop grand. Les échelles de coûts et de délais de réalisation seraient disparates et donc peu évidentes à manier.

S'agissant enfin de l'intérêt respectif des différentes structures de gestion des TGE, l'expérience montre que c'est le statut juridique de la société civile qui permet le meilleur suivi.

*

M. René TRÉGOUËT, Sénateur, rapporteur, a ensuite demandé des précisions sur les travaux du groupe de travail européen " à géométrie variable " sur les très grands équipements. Quels sont ses constats sur l'élargissement éventuel du champ des TGE ? Quelles sont les volontés réelles des différents pays de mettre en place une coopération renforcée ? Quelles sont ses vues sur la révision des modes de financement ?

M. Vincent COURTILLOT, Directeur de la recherche, a précisé que tous ces sujets font l'objet de discussion, à l'exception du financement, pour le moment.

Il faut préciser que ce nouveau groupe de travail européen n'est pas le premier organisme de concertation en Europe. En effet, il existe depuis plusieurs années un niveau de coordination rassemblant les " grands directeurs " des " grands organismes de recherche ". Pour autant, il n'existait aucune coordination au niveau des Directeurs de la Recherche au niveau des ministères compétents.

Les premiers pas du nouveau groupe de travail, dont les réunions sont trimestrielles, n'ont pas suscité de critiques ni de la part des petits pays ni de la part de la Commission. Il faut dire que le principe de subsidiarité des actions de l'Union européenne y a été rappelé comme principe de base. Par ailleurs, ce groupe n'a aucun pouvoir. Il s'agit d'y effectuer un travail de coordination et d'y rassembler des informations à l'intention des Gouvernements nationaux qui gardent bien entendu leur autonomie par rapport aux travaux du groupe.

La question des très grands équipements s'est imposée de l'avis général comme l'une des premières à aborder. La création des sous-groupes de travail a été décrite précédemment. Si l'on prend l'exemple du sous-groupe sur les méthodes d'analyse fine de la matière, l'objectif est de réaliser un état des lieux et de faire des propositions d'action pour les pays représentés, notamment en définissant des priorités sur la longue durée. L'un des intérêts principaux de cette démarche est d'examiner les méthodes d'analyse dans leur ensemble et de conduire une réflexion sur leur utilisation conjointe, le recours simultané au rayonnement synchrotron et aux sources de neutrons étant en effet souvent le fait des meilleures équipes de recherche. Le rapport de ce sous-groupe devrait être disponible dans sa première version fin septembre et dans sa version définitive à la fin de l'année.

A la question de M. René TRÉGOUËT, Sénateur, rapporteur, concernant une éventuelle contribution de l'Union européenne au financement des TGE, M. Vincent COURTILLOT, Directeur de la Recherche, a indiqué qu'il existe une ligne budgétaire dans le budget des actions communautaires pour le programme " Access to Large Facilities " qui finance l'accès de chercheurs européens aux très grands équipements mais qu'il n'existe pas de participation aux coûts de construction et de fonctionnement de ces derniers.

Le ministère français de la recherche et le Commissaire européen ont envisagé de faire évoluer cette situation et d'impliquer l'Union européenne dans les phases de financement de certains TGE. La discussion est en cours avec les principaux partenaires européens. Il faut éviter la lourdeur des procédures communautaires et une prise de contrôle des instruments bénéficiaires par la bureaucratie européenne.

Dans la discussion qui a suivi, M. Robert COMÈS, membre du groupe de travail, a précisé que, s'agissant du LURE, la subvention de l'Union européenne non seulement comprend la prise en charge des frais de déplacement des chercheurs étrangers mais inclut également une contribution correspondant à la redevance d'utilisation.

M. Gilles COHEN-TANNOUDJI, membre du groupe de travail, a pointé la notion de tarification, particulièrement importante selon son point de vue.

Bien sûr, seule une connaissance précise des coûts permettrait une tarification. Mais avec cette dernière, il serait possible de passer d'une notion relativement floue d'aide aux laboratoires par l'intermédiaire de la gratuité d'accès à des grands instruments comme le synchrotron, à une situation de vérité des prix qui permettrait une clarification des rapports entre les organismes. Il semble urgent de rapprocher les visions de Bercy, du ministère de la recherche et des laboratoires. Il serait bon que le rapport de l'Office y contribue.

Pour M. René TRÉGOUËT, Sénateur, rapporteur, si cette notion est intéressante, il faut toutefois se garder de conclusions prématurées. Au reste, la tarification n'est pas automatiquement synonyme de débours réels et peut être envisagée au travers de systèmes d'unités de compte. Au préalable, il faut assurément avoir une vision claire des très grands équipements, une notion qui, pour le moment, semble résulter d'un processus de sédimentation historique. En tout état de cause, ne faut-il pas analyser les grands équipements au moyen d'autres approches ?

M. Pierre POINTU, membre du groupe de travail, a noté que la notion de TGE est apparue en raison de la nécessité de prendre des décisions avec des critères distincts de ceux utilisés d'ordinaire. A cet égard, il faut noter qu'une entreprise est impérativement dotée d'une comptabilité générale, mais aussi d'une comptabilité analytique et d'un contrôle de gestion, ce qui la conduit à avoir une représentation des budgets différente de celle de l'administration de l'Etat. Pour autant, il semble bien apparaître que la représentation actuelle des TGE est insuffisante. Est-il à jamais exclu d'enrichir la comptabilité publique avec les méthodes de représentation de la comptabilité privée ?

Mme Nathalie GODET a indiqué que le CNRS évalue, laboratoire par laboratoire, les retombées des crédits TGE, ce qui permet d'identifier, par exemple, l'impact d'un grand instrument comme le LURE.

Pour M. Robert COMÈS, les trois caractéristiques essentielles des TGE sont leurs coûts, leur durée de construction et de fonctionnement et leur caractère insécable. Faut-il élargir cette notion ? Certes, une structure commune gérant un réseau, par exemple de bouées océanographiques, pourrait entrer dans cette catégorie. Il convient toutefois de ne pas aller trop loin.

M. René TRÉGOUËT, Sénateur, rapporteur, a toutefois remarqué que deux arguments militent en faveur d'une réponse positive pour un tel équipement, d'une part l'insécabilité fonctionnelle et d'autre part l'unité de commandement.

M. Vincent MIKOL, membre du groupe de travail, a ensuite abordé la question essentielle de l'arrêt d'un très grand équipement en cas d'insuffisance de son impact sur la recherche en termes de résultats. Quel est le bilan des études réalisées en Europe sur ce sujet ?

M. Vincent COURTILLOT, Directeur de la Recherche, a remarqué que le CEA, pour sa part, a apporté une réponse à cette question. Cette question pertinente a incontestablement une dimension politique, en particulier sur le plan de l'aménagement du territoire.

Au reste, comme il semble bien qu'aucun très grand équipement n'ait été improductif de par le passé, il paraît approprié de formuler la question autrement. Quel est l'apport en valeur ajoutée des très grands équipements, comparé à ceux des autres investissements dont ils ont pris la place ? Telle semble être la véritable question.

Un point qui semble acquis, c'est celui de l'optimisation de la localisation. Il existe aujourd'hui des grands instruments " mal localisés ", dont les dividendes auraient été supérieurs sur un meilleur site. M. Roger-Gérard SCHWARTZENBERG, ministre de la recherche, a indiqué à plusieurs reprises que, dans la localisation d'un TGE, les critères d'aménagement du territoire ne sauraient l'emporter sur tous les autres. Selon M. Vincent COURTILLOT, " on mettra de moins en moins un grand instrument au milieu de la campagne ". Il existe une dizaine de grandes métropoles de recherche en France. Tout nouveau TGE devrait désormais être installé dans l'une de ces métropoles, ce dont s'est réjoui M. Robert COMÈS.

Mme Geneviève BERGER, a ajouté que les TGE non seulement ont un impact social et économique comme la recherche dans son ensemble mais qu'ils structurent également la communauté scientifique et participent à l'orientation de la recherche.

M. Laurent GALZY, est revenu ensuite sur l'approche comptable et économique des TGE.

Il y a un intérêt majeur à disposer de données claires dans le domaine des TGE. C'est la société civile qui est la structure juridique qui apporte le plus à cet égard. Au demeurant, la comptabilité des organismes de recherche a progressé et présente des éléments d'amortissement. Concrètement, si l'équilibre financier d'un TGE est assuré par une subvention, on amortit à la fois l'équipement et la subvention. Toutefois, cet amortissement ne génère pas de ressources.

Sur un plan économique, on ne peut nier que le taux de rentabilité d'un TGE ne soit difficile à calculer. Les critères à utiliser sont en tout état de cause plus différenciés et plus nombreux que le seul critère financier appliqué dans les entreprises.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé qu'un TGE doit en tout état de cause dégager une valeur ajoutée. Il faut donc introduire une vision dynamique qui permettent en particulier de déterminer l'impact de l'équipement sur le développement économique. La diversification des financements des TGE à l'étranger mériterait à cet égard, d'être mieux connue. La description du rôle moteur des Lander en Allemagne est à approfondir. Par ailleurs, on voit bien comment les Etats-Unis incitent d'autres pays à participer à certains de leurs investissements dans les grands instruments scientifiques dont les retombées sont lointaines. Au contraire, dans des domaines comme les sciences de la vie et des sciences et techniques de l'information et de la communication, les Etats-Unis n'invitent pas d'autres pays à coopérer, car ces programmes ont un fort retour à court terme pour l'économie américaine.

S'agissant du coût des TGE, M. Philippe BRAIDY, Directeur financier du CEA, a indiqué que cet organisme connaît leur montant, qu'il pratique l'amortissement et provisionne les coûts de démantèlement.

La véritable difficulté concernant la planification des dépenses, c'est celle du caractère public de la source de financement. Tant qu'un TGE se trouve dans le cadre d'une structure juridique financée par des partenaires publics, on ne peut échapper aux aléas de l'annualité budgétaire, un inconvénient qui serait atténué par une meilleure association des entreprises à la construction et à la vie des TGE.

M. Jochen SCHNEIDER, membre du groupe de travail, a, pour sa part, abordé la question de la fermeture éventuelle d'un très grand équipement, une opération toujours difficile.

Une façon d'y parvenir, c'est non seulement de remplacer la machine en fonctionnement par un équipement de la nouvelle génération mais également, et surtout, d'affecter systématiquement, pendant toute la durée de vie de l'installation, une part de son budget annuel de fonctionnement au financement de l'opération future de renouvellement. En tout état de cause, c'est la politique suivie par le Deutsche Elektronen-Synchrotron (DESY) à Hambourg.

M. Vincent COURTILLOT, Directeur de la Recherche, tout en indiquant qu'une telle approche n'entraînait pas d'opposition de sa part, a estimé qu'elle ne peut s'appliquer à tous les TGE. Ainsi, dans le cas du VLT et VLTI de l'ESO, la phase de définition du projet avait débouché sur la construction et l'implantation d'un télescope de nouvelle génération, le NTT (New Technology Telescope) à La Silla, avec l'objectif de fermer ultérieurement ces installations pour en construire d'autres plus performantes ailleurs. Un refus des petits pays partenaires tente de pérenniser les équipements intermédiaires, ce qui a occasionné une dérive budgétaire. Une garantie de pérennité peut donc entraîner une inertie dommageable et oblige, en tout état de cause, à trouver les moyens de rendre irrévocables les fermetures prévues dès l'origine.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est interrogé sur le point de savoir si le mode de décision actuel sur la construction et la fermeture des TGE est pertinent et sur le niveau auquel devraient intervenir les choix en la matière. Au vrai, le monde politique, qui n'est pas sans peser sur les choix relatifs aux TGE, notamment en ce qui concerne leur localisation, devrait également réfléchir sur le meilleur mode de décision à utiliser pour ce qui les concerne.

Pour M. Michel SPIRO, membre du groupe de travail, le processus optimal en matière de TGE, tant pour leur construction que pour leur fermeture, est le schéma " bottom-up ". Une discipline organisée est à même de réfléchir à la fermeture d'une machine dépassée et à la construction d'un équipement de remplacement. La preuve en a été donnée par la physique des particules avec la fermeture de Saturne et son remplacement par le GANIL à Caen. De même, il est prévu d'arrêter le LEP du CERN et de le remplacer par le LHC.

M. Vincent COURTILLOT, Directeur de la Recherche, s'étant interrogé sur l'indépendance des décideurs sur cette question, M. Michel SPIRO a précisé que les physiques étudiées respectivement au LEP et au LHC sont différentes et qu'il s'agira en conséquence de nouvelles équipes.

Au demeurant, M. Michel SPIRO a estimé que la dimension structurante des TGE génère des économies. La qualité de l'organisation du travail qui y règne nécessairement, permet en effet une utilisation optimale des compétences.

Mme Claudine LAURENT, membre du groupe de travail, a fait valoir que, non seulement la notion de TGE mais leur gestion varient d'une discipline à l'autre. Il est incontestable que certaines disciplines comme l'astronomie ne savent pas toujours fermer des installations obsolètes. Sur un autre front, certaines disciplines comme les sciences de la vie ne voient pas leurs grandes installations prises en compte dans la catégorie des très grands équipements alors qu'elles semblent en avoir toutes les caractéristiques. En définitive, pour avoir une appréciation correcte de cette question, il faut " être au-dessus des disciplines ".

Concluant cette réunion riche d'enseignements, M. René TRÉGOUËT, Sénateur, rapporteur, a remercié les participants pour la qualité de leurs interventions.

3. Sciences et technologies de l'information et de la communication - mercredi 31 mai 2000

INRIA

· M. Gilles KAHN, Directeur scientifique

BULL

· M. Gérard ROUCAIROL, Directeur de la recherche et du développement, Président du Conseil d'orientation du réseau national des technologies logicielles

CINES (Centre Informatique National de l'Enseignement Supérieur)

· M. Alain QUÉRÉ, Directeur

France TELECOM

· M. Francis JUTAND, Directeur scientifique de France Télécom R & D

· Mme Marie-Claude FÉRON, adjointe aux relations institutionnelles

MATRADATAVISION - SYNTEC

· M. Hugues ROUGIER, Président

RENATER

· M. Dany VANDROMME, Directeur

CEA

· M. Jean THERME, Directeur du LETI

· M. Alain HOFFMANN, Directeur de l'Informatique

· M. Bernard SALANON, Direction de la Stratégie

· M. Pierre TRÉFOURET, chef du service des Affaires publiques

CNRS

· M. Michel VOOS, chargé de mission auprès du Directeur général

· M. Jacques DUPONT-ROC, Directeur scientifique adjoint au département des sciences physiques et mathématiques

· M. Patrick LE QUÉRÉ, chargé de mission au département des sciences pour l'ingénieur

· M. Jean-Charles POMEROL, chargé de mission au département des sciences pour l'ingénieur

· M. Serge FAYOLLE, Directeur adjoint de l'IDRIS (Institut du Développement et des Ressources en Informatique Scientifique)

*

En ouverture à la réunion, M. Christian CUVILLIEZ, Député, Rapporteur, a rappelé aux participants que la présente partie du rapport de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST), porte sur " le rôle des très grands équipements dans la recherche publique et privée en France et en Europe " et constitue un prolongement et un élargissement de l'étude publiée dans le premier tome sur " les conditions d'implantation d'un nouveau synchrotron ". Aussi bien, ainsi qu'il résulte de l'entretien obtenu avec le ministre de la Recherche, la préparation de la seconde partie du rapport se fait dans un climat différent, ce dernier ayant exprimé sa volonté de rétablir ou de maintenir les savoirs et les compétences de la communauté scientifique nationale.

Quoi qu'il en soit, après la dissolution de Conseil des grands équipements, chaque communauté scientifique concernée par un très grand équipement (TGE) se trouve privée d'une participation à une réflexion collective et déconnectée du processus de décision et en particulier de la fixation des ordres de priorités.

Avec leur étude et sa méthode de préparation, les Rapporteurs de l'Office parlementaire souhaitent contribuer aux réflexions en cours dans différentes instances, en particulier au Conseil supérieur de la recherche et de la technologie (CSRT) dont la vice-présidente, Mme Claudine LAURENT, participe à leur groupe de travail.

Pour autant les Rapporteurs n'entendent pas se substituer aux comités scientifiques à recréer probablement en la matière et ne comptent pas non plus proposer des priorités et émettre des jugements de valeur.

Ils souhaitent au contraire donner un éclairage sur la situation actuelle des TGE dans notre pays et discuter de l'opportunité de donner une nouvelle définition de cette catégorie d'instruments scientifiques et notamment d'étendre leur liste aux réseaux.

De même, leur propos est de mettre en évidence les enjeux de la recherche actuelle auxquels seraient nécessairement attachés de nouveaux TGE.

La méthode de travail utilisée pour le tome I du rapport sur le synchrotron, est également appliquée au tome II, à savoir l'audition d'un grand nombre de chercheurs spécialistes des différents domaines, avec l'assistance d'un groupe de travail composé d'experts de haut niveau.

A ce stade des investigations, la question du financement des TGE dans ses modalités actuelles est posée et des voies nouvelles apparaissent nécessaires. Au lieu d'articles budgétaires globaux relatifs aux organismes de recherche gestionnaires, l'autonomisation du financement des TGE pourrait apparaître préférable, de même que de nouveaux systèmes de gestion et des techniques d'amortissement et de provision systématiques.

M. René TRÉGOUËT, Sénateur, rapporteur, a souligné que la démarche de l'OPECST est empreinte d'humilité et qu'en ce stade de la collecte d'informations et de points de vue, les conclusions du rapport ne sont bien entendu pas arrêtées. L'intérêt de cette démarche ne saurait être mésestimé non seulement pour cette raison mais aussi parce que l'Office procède du Parlement tout entier en tant que délégation commune de l'Assemblée nationale et du Sénat.

Depuis son origine, l'Office recherche le consensus et va devenir, de plus en plus, un lieu naturel pour des rencontres sans a priori entre scientifiques et politiques.

Un des souhaits des Rapporteurs de l'étude sur les TGE est de mettre en évidence l'importance de la durée dans la politique scientifique. Actuellement, les confrontations sont de plus en plus aiguës dans la compétition économique mondiale. A ce titre, s'il existe de nombreux horizons importants dans le domaine des TGE, deux axes apparaissent d'une importance primordiale à M. René TRÉGOUËT, à savoir les sciences et technologies de l'information et de la communication (STIC) et les sciences du vivant. En tout état de cause, si les disciplines les plus concernées par la problématique des TGE étaient dans le passé la physique et la chimie, les STIC et les sciences du vivant revêtent aujourd'hui une importance stratégique. Ceci ne veut d'ailleurs pas dire que les autres disciplines soient à sacrifier, puisque l'interdisciplinarité a de plus en plus d'importance, comme l'étude du synchrotron faite par l'Office l'a amplement montré.

En l'état actuel des investigations du présent groupe de travail, il semble nécessaire d'essayer de donner une nouvelle définition des très grands équipements. S'il s'est agi pendant longtemps de cathédrales technologiques et coûteuses, dont l'efficacité était au demeurant difficile à mesurer, sans doute faut-il aujourd'hui introduire une autre approche et notamment intégrer dans cette notion les grands réseaux.

Après avoir accueilli un nouveau membre du groupe de travail, Mme Phyllis LIVANOS, et annoncé la prochaine présence de M. Denis LE BIHAN, neurobiologiste et de M. Pierre TAMBOURIN, directeur général du génopole d'Evry, M. René TRÉGOUËT a appelé les participants à la réunion à se sentir libres de faire toutes propositions sur le thème en discussion, à savoir la problématique des TGE dans les sciences et les technologies de l'information.

Au sein de l'économie mondiale, ni la France ni l'Europe plus généralement n'occupent la place qui devrait être la leur dans la révolution de l'informatique, des télécommunications et de l'image. La question finalement est la suivante : " que devraient faire la France et en particulier l'Etat pour que nous reprenions une place significative à l'avenir ? ".

M. TRÉGOUËT a souligné que les orateurs ne se trouvent pas devant un organisme officiel, dispensateur de crédit ou promoteur d'une politique et qu'en conséquence, leur discours devait s'affranchir des précautions d'une " approche institutionnelle classique " pour énoncer avec clarté " ce que nous pouvons faire tous ensemble ", après avoir établi un constat sans fard de la situation.

La parole a ensuite été donnée à M. Gilles KAHN.

*

M. Gilles KAHN, Directeur scientifique de l'INRIA (Institut national de recherche en informatique et en automatique), a commencé par marquer son accord avec trois notions soulignées par les Rapporteurs comme particulièrement importantes, d'une part la programmation des investissements de la recherche dans la durée, d'autre part l'absence de cloisonnement entre disciplines et enfin la place des réseaux dans la catégorie des grands équipements. Il a poursuivi par une brève présentation de l'INRIA.

L'INRIA est un établissement public à caractère scientifique et technologique (EPST), qui comprend 750 fonctionnaires et est doté d'un budget annuel d'environ 550 millions de francs. Avec 160 thésards et les personnels sous contrat, la force de travail de l'INRIA atteint 2000 personnes réparties en 5 centres nationaux majeurs. Ainsi, l'INRIA est le plus grand des petits organismes de recherche, dans un paysage d'ensemble qui comporte un fossé entre les grands organismes et les autres.

L'INRIA se trouve en aval d'un secteur de recherche et développement qui représente environ 30 % de l'effort de R & D du pays, une situation qui lui occasionne une charge de travail considérable. Son domaine est bien entendu celui des sciences et technologies de l'information et de la communication (STIC), une dénomination au demeurant préférable à celle des nouvelles technologies de l'information et de la communication (NTIC) dans la mesure où elle stigmatise bien l'absence de frontière que l'on constate entre les idées fondamentales et les applications et entre la science et la technique dans ce champ de recherche.

La recherche sur les logiciels constitue l'essentiel de l'activité de l'INRIA et porte aussi bien sur les outils informatiques que sur les réseaux, en traitant de leurs applications au calcul scientifique, à la physique appliquée, à la CAO (conception assistée par ordinateur), aux télécommunications, aux réseaux, à la santé, au transport et à l'environnement.

L'INRIA dispose d'un plan stratégique afin d'optimiser sa réponse à la compétition très forte résultant de la vitalité extraordinaire des STIC au niveau mondial, une compétition qui n'est pas toujours comprise par les scientifiques des autres disciplines.

Mais en quoi l'INRIA est-il concerné par la notion de très grand équipement ?

Du fait du montant de son budget, l'INRIA ne peut évidemment être impliqué dans la construction d'équipements dont le coût dépasse le milliard de francs. Pour l'INRIA, un grand équipement correspond à des moyens de calcul en participation ou bien à un centre informatique comme celui de Nancy, d'un coût de 30 millions de francs, qui propose notamment une plate-forme de réalité virtuelle. Au reste, l'ordre de grandeur du coût d'un grand ordinateur pour l'INRIA est de 5 millions de francs.

Une autre notion de grand équipement dans le domaine des STIC est certainement celle des réseaux. Leur importance est croissante dans la vie quotidienne des chercheurs et dans la capacité à déployer des équipes de recherche sur l'ensemble du territoire national.

M. Gilles KAHN a d'ailleurs, depuis le début des années 1980 et avant le démarrage de RENATER, soutenu la constitution d'un réseau informatique pour la recherche.

En tout état de cause, si un réseau est un grand équipement indispensable, ce n'est pas seulement parce qu'il constitue un moyen de communication entre chercheurs. C'est aussi que ses fonctionnalités de communication sont transformées par l'imagination des chercheurs et des industriels.

Ainsi, Internet, au départ réseau pour l'échange à distance de courrier électronique, a donné naissance au World Wide Web, dont les acquis déjà considérables ont été obtenus en moins de 10 ans. A son tour, le protocole du Web devient dominant et permet l'échange d'objets multimédia. L'étape suivante de l'évolution est la possibilité de se servir d'Internet pour des usages distincts de la simple transmission de données, le réseau se transformant en réseau de communication pour la voix et l'image en temps réel. Il apparaît donc de nouveau des problèmes de modélisation, la nécessité apparaissant de repenser la communication multimédia. La perte de paquets au cours d'une transmission voix-image doit, par exemple, recevoir une solution différente des solutions actuelles, en raison de sa perception immédiate.

Il faut en conséquence un réseau de recherche, pour conduire des études sur une meilleure utilisation des réseaux pour la communication mais aussi pour des applications scientifiques.

A cet égard, l'utilisation à des fins de calcul scientifique des ordinateurs connectés au réseau apparaît comme un domaine d'étude essentiel.

Dans cette perspective, le réseau apparaîtrait sous une configuration nouvelle, celle d'une ressource de calcul dans laquelle il serait possible de puiser comme l'on fait pour le courant avec le réseau électrique. L'idée se forme actuellement que le réseau pourrait être le moyen d'obtenir une puissance de calcul considérable et non locale. Une conséquence évidente de cette nouvelle possibilité serait naturellement une charge supplémentaire pour le réseau, charge correspondant aux transferts de données. Il faut noter, à cet égard, que le réseau se caractérise par une économie particulière. Il s'agit d'une ressource partagée dont l'ensemble des acteurs et des utilisateurs développent la capacité en travaillant dans le même sens. La mutualisation des ressources est un gain pour tous, notamment parce que les besoins s'expriment à des moments différents.

Pour l'INRIA, le réseau est donc un très grand équipement clé. Des expérimentations sont en cours avec France Télécom pour augmenter les débits et diminuer les temps de latence, ce qui conduit à de nouvelles applications, notamment la connexion de plates-formes de réalité virtuelle.

Au delà d'être un outil d'usage quotidien, le réseau est le point focal des réflexions de l'INRIA, qui participe non seulement à RENATER mais aussi au projet VTHD (vraiment à très haut débit).

Un exemple d'exploitation des capacités de calcul du réseau peut être trouvé dans le domaine de la cryptographie. Dans le cadre d'un projet scientifique de vérification de la robustesse d'un procédé de cryptage, on peut imaginer de suppléer aux ressources limitées en puissance de calcul d'un établissement par la mobilisation des puissances de calcul personnelles d'un ensemble de chercheurs parties prenantes au projet. Plusieurs mois de calcul sur un super-ordinateur peuvent en effet équivaloir au temps inutilisé le week-end sur un ensemble d'ordinateurs personnels. Les procédés cryptographiques reposant sur la difficulté de certains calculs, il est indispensable d'en démontrer l'impossibilité par des tests en vraie grandeur.

Pour conclure, M. Gilles KAHN a pointé le fait qu'un réseau informatique représente un investissement faible par rapport à ceux de la plupart des très grands équipements. mais produit un effet d'entraînement très important sur notre recherche et notre industrie.

Après avoir demandé des compléments d'information sur la politique des autres pays en matière de réseaux informatiques, M. René TRÉGOUËT, Sénateur, rapporteur, a ensuite donné la parole à M. Gérard ROUCAIROL.

*

M. Gérard ROUCAIROL, Directeur de la recherche et du développement du Groupe BULL, a indiqué que BULL, avec 25 milliards de francs de chiffre d'affaires et une présence en Europe, en Amérique et en Asie, est aujourd'hui le seul constructeur européen indépendant d'ordinateurs depuis la prise de contrôle à 80 % d'ICL par Fujitsu, depuis l'alliance de ce dernier avec Siemens et la disparition d'Olivetti.

En réalité, contrairement à ce que l'on pense généralement, la maîtrise de la conception et de la fabrication des ordinateurs de puissance prend une importance encore plus forte que par le passé, car les informations de tout type sont en passe d'être numérisées dans tous les secteurs d'activité.

Au demeurant, deux facteurs complémentaires replacent les calculateurs de grande puissance au centre du jeu : il s'agit d'une part de la constitution de bases de données géantes et d'autre part de l'apparition de nouvelles applications pour Internet rendant nécessaires des hauts débits. Au total, les grands systèmes informatiques redeviennent des éléments stratégiques.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est demandé si BULL avait tiré les conséquences de la réticence de plus en plus forte des utilisateurs à mettre en oeuvre des systèmes propriétaires.

M. Gérard ROUCAIROL, Directeur de la R & D de BULL a précisé que le choix avait été fait de placer les logiciels ouverts au centre de l'offre de la compagnie. Au delà de cette évolution, les sciences et techniques de l'information et de la communication (STIC) jouent un rôle essentiel dans la compétitivité économique globale, ce qui fait de la recherche dans ce domaine un enjeu majeur.

L'utilisation des STIC par un pays est une clé de sa compétitivité économique. L'évolution des investissements informatiques ne démontre malheureusement pas que l'on en ait pris conscience en France et en Europe. Le retard des investissements informatiques y est en effet patent. Quel que soit le ratio utilisé, que ce soit par rapport au PIB ou par tête d'habitant, les investissements informatiques de la France et de l'Europe représentent 50 % du niveau pratiqué aux Etats-Unis, avec toutefois une situation moins défavorable en Europe du Nord.

L'analyse des sources d'un point supplémentaire de croissance du PIB aux Etats-Unis est éclairante. Ainsi, le passage d'un taux de croissance de 2,5 % à 3,5 % par an dans ce pays provient pour 50 % de l'usage des STIC, pour 25 % de l'industrie des STIC et pour les 25 % restant du progrès général des autres secteurs économiques. L'absence presque totale de chômage aux Etats-Unis est à l'évidence liée à ces éléments.

S'agissant de la recherche, une insuffisance de l'investissement de l'appareil de recherche dans les STIC et un déficit de recherche sur les STIC sont très probables en France et en Europe. Il en résulte un déficit dans les puissances de calcul disponibles ainsi que dans les moyens de communication. Pourtant, des moyens de calcul et de télécommunications adéquats représentent des moyens de logistique de base pour les scientifiques.

S'agissant de la recherche relative aux STIC, il faut souligner qu'elle requiert des outils de puissance pour une raison simple. Aucun modèle des sciences et technologies de l'information et de la communication ne permet de prédire les puissances de calcul nécessaires, les comportements n'étant pas linéaires dans ce domaine, ce qui fait que le passage à l'échelle pose de nouveaux problèmes. L'expérimentation est en conséquence indispensable.

" Le problème fondamental de la recherche dans le domaine des STIC est donc de pouvoir disposer des plates-formes permettant le passage à l'échelle qui, seul, pose le problème scientifique au bon niveau ".

En conséquence quels sont les besoins des STIC en grands ou très grands équipements ?

Les grandes plates-formes de réseau constituent le premier type d'équipements nécessaires.

Il s'agit de plates-formes d'expérimentation ouvertes sur les grandes infrastructures de réseaux à haut débit, comme le projet " Next Generation Internet " en dispose aux Etats-Unis, permettant de faire de la R & D sur les télécommunications et accessibles aux fournisseurs d'applications pour qu'ils puissent tester de nouveaux services.

La dépense correspondante s'élève à environ 1,5 à 2 milliards de francs par an pendant 5 ans.

Il ne s'agit pas que l'Etat prenne à sa charge la totalité de la dépenses. Des contributions de l'industrie et des laboratoires publics sont envisageables et en tout état de cause nécessaires. Mais une contribution de l'Etat, supérieure à ce qu'elle est actuellement, est indispensable. A cet égard, le réseau national de recherche en télécommunications (RNRT) a mis en place une aide pour la seule communauté de la recherche et développement en télécommunications mais n'a pas les moyens, dans l'état actuel des choses, d'_uvrer pour les autres disciplines.

Les grands ordinateurs représentent le deuxième type d'équipements essentiels, pour deux raisons principales.

La première correspond aux besoins de calcul et de traitement de l'information des réseaux. L'augmentation des débits dans les " tuyaux " nécessite en effet à leurs extrémités des ordinateurs de plus en plus puissants. La deuxième raison tient à la gestion de bases de données de plus en plus étendues et aux exigences du " data mining ". Si l'on prend le cas du génome, il faut des puissances de calcul exceptionnelles pour découvrir d'éventuelles corrélations entre une séquence d'ADN et un ou plusieurs gènes.

Les infrastructures pour composants logiciels représentent la troisième catégorie d'équipements indispensables.

Les STIC connaissent en effet actuellement une rupture technologique majeure, à savoir l'importance croissante et bientôt déterminante des composants logiciels, grâce auxquels une nouvelle application peut être forgée à partir de morceaux de programmes provenant de diverses origines. Cette révolution technologique est selon toute probabilité susceptible de s'accélérer. Après une phase de maturation culturelle et technologie de l'industrie des logiciels, on assiste en effet à un nivellement des barrières à l'entrée sur ce marché.

Pour autant, pour profiter de cette révolution technologique, il faut des plates-formes de mutualisation et de mise en place des composants logiciels.

En tout état de cause, sur le marché des progiciels, qu'il faut distinguer des logiciels à façon, le retard de la France est considérable. On estime que ce marché atteindra en France 100 milliards de francs en 2002-2003 et 600 milliards de francs pour l'Union européenne. Or la part de la France est actuellement de quelques dixièmes de pour-cent de ces marchés. Par ailleurs, il existe un mécanisme de déplacement de la valeur ajoutée vers le logiciel que l'on observe dans toutes les industries et en particulier pour les équipements électriques, un phénomène qui renforce encore l'importance de la maîtrise de leur production.

" Il faut donc profiter de la rupture technologique des composants logiciels pour reprendre pied sur le marché des progiciels ".

Après avoir remercié M. Gérard ROUCAIROL pour son intervention, M. René TRÉGOUËT, Sénateur, rapporteur, a donné la parole à M. Francis JUTAND de France Télécom R&D, en lui demandant notamment d'expliciter l'organisation de la recherche en vigueur chez l'opérateur national après les bouleversements introduits par la loi de 1996.

*

M. Francis JUTAND, Directeur scientifique de France Télécom R&D a rappelé que la loi de réglementation des télécommunications de 1996 a confié à l'Etat la recherche publique auparavant assurée par le CNET. Une partie de la recherche amont en optoélectronique et en microélectronique a été transférée au CNRS et au CEA (LETI) et la recherche appliquée à Alcatel (GIE Opto+) et STMicroelectronics. Le CNET s'appelle désormais France Télécom R&D.

Certains commentateurs ont cru pouvoir déduire du retrait de l'entreprise de la recherche sur les composants que France Télécom abandonnait toute activité de recherche. Mais la réalité est tout autre.

France Télécom, société anonyme depuis 1996, comprend 5 branches, dont trois sont opérationnelles et deux sont fonctionnelles. France Télécom R&D est rattaché à la Branche Développement.

France Télécom R&D emploie 3800 personnes, dont 3000 ingénieurs et techniciens, accueille en outre 150 thésards et dispose d'un budget global de 3,4 milliards de francs.

Les activités de recherche de France Télécom R&D représentent un budget de 450 millions de francs, 350 chercheurs et 150 thésards. Ses principaux domaines d'activité portent sur les réseaux, le génie logiciel, l'accès aux réseaux de mobiles, le support au réseau, les interactions homme-machine, les technologies d'accès intelligent à l'information et les usages en termes de comportement et d'acceptation des nouveaux produits par le public et les entreprises.

France Télécom R&D participe très activement au Réseau national de recherche en télécommunications (RNRT) et participe en outre à des recherches coopératives en Europe.

Au demeurant, France Télécom R&D participe également au financement de la recherche publique au travers de contrats de coopération d'un montant total de 60 millions de francs. Les universités et le CNRS sont ses partenaires principaux, à hauteur de 60 % du total. L'INRIA et les écoles des télécommunications correspondent à 40 %, à parts égales.

Au total, il existe en France un tissu de recherche compétitif issu d'une dizaine d'années d'efforts. Pour passer à un nouveau stade, il faudrait des ressources supplémentaires.

S'agissant des TGE dans le domaine des télécommunications, il convient de distinguer deux niveaux de réseaux, d'une part les réseaux à qualité de service et d'autre part les réseaux de recherche et d'expérimentation, pour lesquels des politiques profondément différentes sont à mettre en _uvre. Au demeurant, le rôle de France Télécom R&D est d'effectuer des recherches pour améliorer la compétitivité de l'opérateur national dans les réseaux à qualité de service, de participer aux recherches coopératives au niveau scientifique et applicatif pour les réseaux expérimentaux et de participer à leur mise en _uvre.

Les réseaux à qualité de service constituent un support pour la recherche en raccordant les chercheurs entre eux ou avec les entreprises et l'industrie. La qualité de service doit être un objectif prioritaire. RENATER et ses réseaux régionaux entrent dans cette catégorie. L'offre à la communauté de recherche est en tout état de cause soumise à concurrence.

Les réseaux de recherche et d'expérimentation préfigurent les réseaux à qualité de service de demain. La principale initiative en la matière est le réseau VTHD (vraiment à très haut débit). Le creuset de ce projet a été le RNRT dans le cadre d'un programme de préparation de l'Internet du futur. France Télécom R&D s'investit dans ce projet en partenariat avec l'INRIA et le GET (Groupement des écoles de télécommunications).

Les objectifs du projet VTHD et plus généralement des réseaux expérimentaux sont multiples : d'une part en comprendre l'économie, d'autre part effectuer des recherches sur les technologies du futur dont les paramètres essentiels sont le débit, la capillarité et l'interconnexion avec l'Europe et le monde, et, enfin de faire des recherches sur les services associés du futur. La démarche est en conséquence de bâtir des infrastructures mais aussi d'imaginer des produits et des services nouveaux pour les utilisateurs.

Le projet VTHD est assimilable à un TGE. Le financement par l'Etat y joue un rôle essentiel, notamment par l'intermédiaire des aides à la connexion des laboratoires, " la capillarité coûtant plus cher que le `backbone' ".

France Télécom R&D contribue au projet VTHD avec une recherche coopérative et en mettant à disposition à des coûts faibles des infrastructures de télécommunications expérimentales, dont les performances sont élevées mais pour lesquelles il n'y a pas de garantie commerciale de qualité de service.

Le réseau VTHD va s'ouvrir en 2000, mettant en relation Rennes, Paris, Grenoble, Sophia Antipolis, Rouen, Nancy, Toulouse, dans un premier temps. Cette première mouture, comparable en niveau de performances avec le réseau américain ABILENE, sera accessible, grâce notamment à l'aide de l'Etat, à des tarifs moins élevés.

Avec cette réalisation, la France aura rattrapé son retard, mais il est indispensable de ne pas s'arrêter là, car les réseaux sont à une période de leur développement où leurs performances s'améliorent très rapidement.

Il est difficile de chiffrer les coûts du réseau VTHD. Les coûts s'élèvent à 40 millions de francs pour les infrastructures de base dont 10 millions de francs pour les routeurs, à quoi s'ajoutent les coûts de la recherche et ceux de la mise à disposition de chercheurs et de matériels, ce qui multiplierait par 3 ou 4 le coût global.

Si les réseaux constituent une part importante des besoins de recherche des STIC, ils ne sauraient pour autant résumer les investissements indispensables. En effet, les plates-formes d'intégration représentent également un élément essentiel de la recherche, en favorisant la dynamisation des efforts, l'ouverture et la coopération avec l'industrie et le monde.

Par ailleurs, les réseaux de qualité de service et les réseaux de recherche et d'expérimentation ont beau représenter deux générations différentes de réalisation, l'aide de l'Etat pour leur construction et leur fonctionnement qui se traduit au demeurant par des modes de financement différents est d'une importance capitale. Elle se justifie essentiellement par le fait que les réseaux figurent les routes qu'emprunte la recherche pour sa plus grande efficacité.

Après cet exposé de M. Francis JUTAND, un débat s'est engagé d'abord sur la fuite des " cerveaux " dans la recherche en télécommunications puis sur le niveau des investissements de la France dans ce domaine.

*

S'agissant du " turn over " des chercheurs dans le domaine des STIC, M. René TRÉGOUËT, Sénateur, rapporteur, s'est interrogé sur le niveau et les causes des départs hors du secteur public et hors de France des ingénieurs en télécommunications. Ces départs sont-ils liés à un système de rémunération inapproprié face aux aberrations souvent rencontrées dans la nouvelle économie ou à un manque de visibilité de notre recherche ?

En tout état de cause, cette question est de la plus grande importance, car il ne servirait à rien de mettre en place de grandes plates-formes si l'on venait à manquer d'ingénieurs.

M. Gilles KAHN a indiqué que le " turn over " à l'INRIA est globalement de 8 %, les départs étant concentrés toutefois dans les activités de réseau. Pour lui, les départs procèdent d'un ensemble de raisons, dont celles évoquées par le Rapporteur. Le manque de flexibilité des rémunérations est certainement une des raisons primordiales. Mais il faut également invoquer le fait que le système est une " éponge " qui absorbe sans difficulté les chercheurs déçus par l'impossibilité de conduire une vraie réflexion du fait d'une charge de travail écrasante et qui, dès lors, ne voient pas d'inconvénient majeur à changer d'activité. En définitive, il semble nécessaire de favoriser un redéploiement des disciplines scientifiques, en matière d'effectifs et en particulier au niveau des personnels ITA (ingénieurs, techniciens et administratifs).

Selon M. Jean-Charles POMEROL, chargé de mission au département des sciences pour l'ingénieur, le CNRS éprouve également des difficultés à garder ses ingénieurs réseau. La raison principale en est, bien entendu, la concurrence mondiale en la matière qui crée une situation de pénurie. Mais il faut aussi y voir une conséquence de la concurrence des différentes administrations de l'Etat et des différentes fonctions, les primes des ingénieurs de gestion étant plus élevées que les primes de recherche, ce qui peut inciter certains ingénieurs à délaisser ce type d'activité.

Pour M. Francis JUTAND, la création de start-up avec son accompagnement de départ de personnels parmi les plus qualifiés, ne peut qu'aggraver la situation. Les besoins croissants des STIC en personnels est un problème critique qui exige que l'on prenne des mesures en amont. Le déclin des vocations scientifiques, même s'il est moins accentué que dans d'autres pays, constitue à cet égard une donnée de base à prendre en considération.

M. Hugues ROUGIER, Président-directeur général de MatraDatavision et administrateur du SYNTEC, a confirmé que le système éducatif ne fournit pas d'informaticiens en nombre suffisant. Deux solutions s'offrent dès lors aux entreprises du secteur de l'informatique pour combler ce déficit. La première solution est l'emploi d'informaticiens " off shore ". La deuxième serait d'ouvrir les frontières à des informaticiens étrangers.

Sur la question du déficit d'investissement dans la recherche, M. Gérard ROUCAIROL a rappelé qu'il redoutait que l'effort français d'investissement fût encore plus en retard que celui de l'industrie par rapport aux Etats-Unis. Les éléments fournis par les intervenants ont malheureusement corroboré cette impression.

Mme Phyllis LIVANOS, membre du groupe de travail, a quant à elle estimé qu'il convenait de comparer les Etats-Unis, non pas avec la France, mais avec l'Europe et que s'il fallait trouver des références pour notre pays, c'était avec l'Allemagne ou le Royaume Uni.

Pour Mme Sylvie JOUSSAUME, membre du groupe de travail, le retard d'investissement français dans les STIC varie selon les domaines. Les programmes de simulation militaire conduisent incontestablement à un renforcement des puissances de calcul dans notre pays. Dans le domaine de la climatologie, les niveaux sont pour le moment comparables entre la France et les Etats-Unis, le Japon, l'Allemagne ou la Grande-Bretagne. Mais les projets conçus actuellement aux Etats-Unis et au Japon submergeront la France par leur ambition et leurs moyens.

*

Un autre débat est alors intervenu sur les voies d'avenir pour les puissances de calcul les plus élevées.

Mme Sylvie JOUSSAUME a noté une difficulté particulière aux Etats-Unis, à savoir l'obligation pour des raisons de soutien à l'industrie nationale, d'acheter des super-calculateurs américains, qui sont pourtant dépassés par les machines japonaises.

M. Gilles KAHN a objecté que, pour le Japon, les super-calculateurs ne sont plus désormais une priorité, comme a pu le constater une récente mission de l'INRIA au Japon, dans le cadre d'une recherche en coopération avec NEC sur ce sujet. Pour quelle raison ce domaine n'est-il plus privilégié ? Parce que la demande de machines de ce type de la part de l'industrie a fortement décliné. Ni Fujitsu ni NEC n'en font leur priorité. De même, aux Etats-Unis, c'est le gouvernement fédéral qui pilote directement un spécialiste comme Cray, faute de débouchés industriels pour ce spécialiste des super-calculateurs. Au demeurant, s'il existe des applications nécessitant des grands calculateurs, comme par exemple la description des déformations subies par une macromolécule au cours d'une réaction, le marché économique solvable a disparu.

M. Michel SPIRO, membre du groupe de travail, a précisé que le CERN, après avoir joué la carte des super-calculateurs, parie désormais dans le cadre du LHC (Large Hadron Collider) sur les grilles de calcul, c'est-à-dire sur la mise en réseau des puissances de calcul de plusieurs instituts particuliers. Avec cette solution, ce sont tout à la fois les capacités de calcul et l'accessibilité à un grand nombre de chercheurs qui devraient être augmentés.

En réponse à une interrogation de M. René TRÉGOUËT, Sénateur, rapporteur, sur la possibilité d'égaler la puissance des super-calculateurs par la mise en réseau de machines de puissance inférieure, M. Gérard ROUCAIROL a précisé qu'il fallait prendre en compte plusieurs phénomènes pour répondre à une telle question.

Selon la nature des algorithmes, les calculs peuvent ou non se répartir aisément sur plusieurs machines. En réalité, le calcul massivement parallèle ne s'applique pas à tous les domaines.

Au surplus, pour être praticable, cette notion suppose de recourir à une main d'_uvre peu coûteuse. En effet, le calcul parallèle nécessite un investissement de l'utilisateur pour mettre au point les programmes additionnels qui permettront une répartition effective des calculs et la récupération de leurs résultats.

En définitive, comme la solution du calcul vectoriel développée aux Etats-Unis a été écrasée par la concurrence japonaise, la solution d'avenir semble être la mémoire partagée de multiprocesseurs spécialisés. En tout état de cause, on ne peut imaginer que les microprocesseurs des PC standards et les " open systems " puissent répondre à tous les besoins de calculs. On devrait donc assister à la spécialisation des futurs microprocesseurs, de plus en plus coûteux et dissipant de plus en plus de chaleur, dans le calcul de puissance au sein des super-ordinateurs.

Pour M. Francis JUTAND, les algorithmes nécessitant impérativement un super-calculateur ont vu leur nombre diminuer. Il en reste toutefois qui ne peuvent fonctionner que sur des machines de ce type, ce qui peut justifier que l'on considère les super-ordinateurs comme une technologie de souveraineté.

En prolongement à ce débat, la parole a ensuite été donnée à M. Alain QUÉRÉ.

*

M. Alain QUÉRÉ, Directeur du CINES (Centre informatique national de l'enseignement supérieur), situé à Montpellier, après avoir remarqué que les chercheurs ne demandent pas particulièrement des " gros ordinateurs " mais des " grands calculs " a présenté le centre d'informatique qu'il dirige.

Etablissement public à caractère administratif depuis 1999, rattaché à la direction de la recherche du ministère de la recherche, le CINES a reçu la mission de mettre à disposition de l'enseignement supérieur des moyens de calcul intensif, de gérer des bases de données d'information notamment celles des bibliothèques universitaires et de participer au développement de réseaux par son expertise et par la formation.

Dans le cadre de sa mission " calcul ", le CINES est accessible à tout chercheur du monde académique (universités et organismes de recherche). Les demandes de temps de calcul sont examinées par des comités thématiques nationaux. Le tri des projets se traduit par un taux de rejet faible en raison de l'autocensure des chercheurs : pour l'année 2000, le nombre d'heures accordées s'élève à 1,57 millions d'heures pour 2,04 millions d'heures demandées.

Le dispositif national de calcul pour la recherche est constitué de plusieurs échelons : les équipements de laboratoires, une dizaine de centres intermédiaires comprenant des équipements de " méso-informatique " comme le Centre Charles Hermitte (CCH) de Nancy, le CRIHAN de Rouen, les ressources nationales de l'IDRIS (CNRS) et du CINES, et enfin les équipements dédiés (CEA, Météorologie nationale, par exemple).

La demande de temps de calcul adressée au CINES augmente globalement très rapidement puisque depuis 3 ans, elle double ou presque tous les ans. Les augmentations les plus fortes sont, en 2000, le fait de la physique, de la mécanique des fluides et de la biologie. Le taux de charge des machines du centre atteint 70 %, ce qui correspond à une limite supérieure pour une utilisation satisfaisante du centre.

Le parc d'ordinateurs du CINES est composé de matériels IBM et SGI. La puissance totale de calcul a été multipliée par 10 en 2 ans.

Comme tout grand centre de calcul, le CINES n'existerait pas sans son raccordement à un réseau à haut débit.

Le CINES est donc un point de concentration régional pour le réseau de la recherche en Languedoc-Roussillon et un n_ud régional de distribution pour RENATER à 155 Mbits/s relié à Toulouse. Une application nouvelle est l'utilisation en direct de la capacité de calcul des ordinateurs, avec visualisation à distance.

Actuellement, la mission " bases de données " du CINES a pour axe principal le projet SUDOC (système universitaire de documentation) de catalogage global des bibliothèques universitaires. Au delà de ce système en cours de déploiement, le centre peut aussi proposer, grâce à l'évolution des réseaux, de nouveaux services concernant le stockage et la diffusion de contenus dans le cadre de l'enseignement supérieur et de la recherche. Il s'agit d'une révolution qualitative et quantitative, car le service rendu ne porte plus sur des références mais sur des objets complexes tels que des textes, des images, des sons ou de la vidéo. Dans cette perspective, le centre participe à trois expériences pratiques qui porte sur des thèses numérisées et des manuscrits médiévaux, en partenariat avec la sous-direction des bibliothèques, ainsi que sur la diffusion de vidéo, en partenariat avec la direction de la technologie.

En 1999, les dépenses de fonctionnement du CINES ont représenté 9,4 millions de francs, les amortissements 10,6 millions de francs et les dépenses d'équipement 23,5 millions de francs. Le CINES assure une continuité de service, 24 heures sur 24, 7 jours sur 7.

M. Alain QUÉRÉ a par ailleurs fait état de statistiques sur les puissances de calcul installées dans les grands pays industriels.

Avec comme base de référence les 100 plus grands centres mondiaux et la part de chaque pays dans ce palmarès, la France arrive au 5ème rang mondial avec une puissance installée de 2 Teraflops, contre 5 Teraflops pour la Grande-Bretagne, 7 pour l'Allemagne, 11 pour le Japon et 67 pour les Etats-Unis.

La somme des puissances des calculateurs européens figurant dans la liste des 100 premiers atteint 14,3 Teraflops.

La liste des grands centres français figurant dans la même statistique fait apparaître l'IDRIS (55ème place ; 0,52 Teraflop), le CEA (57ème place ; 0,45 Teraflop), le CINES (73ème place ; 0,35 Teraflop), France Télécom (80ème place ; 0,31 Teraflop), Météo-France (82ème place ; 0,30 Teraflop), le BRGE (89ème place ; 0,27 Teraflop) et Alcatel (98ème place ; 0,25 Teraflop).

M. René TRÉGOUËT, Sénateur, rapporteur, s'est interrogé sur l'éventualité d'un manque de volonté politique de la France de s'équiper en centres de calcul de grande taille.

M. Gilles KAHN a indiqué que, si l'Allemagne devance la France dans ce classement, plusieurs raisons sont à invoquer. Il est certain que l'Allemagne a fait à différents niveaux le choix de s'équiper en super-ordinateurs et en centres de calcul de grande taille, alors qu'un nombre non négligeable de grandes entreprises industrielles françaises, comme par exemple, Peugeot SA, ont préféré opter pour le schéma d'une puissance distribuée.

Toutefois, le retard quantitatif français paraît incontestable. Sans doute faut-il y voir la conséquence d'un manque relatif de sensibilité de différentes disciplines en France à certains types de recherches et d'applications mettant en _uvre des calculs complexes.

A l'issue de ce débat, la parole a été donnée à M. Hugues ROUGIER.

*

M. Hugues ROUGIER, Président-directeur général de MatraDatavision, administrateur du SYNTEC, a indiqué que le marché du logiciel représente en France 100 milliards de francs par an, avec une croissance de 17 % en 1999 et de 15 % en 2000. Pour autant, on ne saurait être " fier " de la situation française, comparée à celle des Etats-Unis.

Selon le Department of Commerce américain, le marché du logiciel y a atteint 130 milliards de dollars en 1998 et devrait connaître une croissance de 14 % par an, de sorte que d'ici 2003, il devrait doubler et atteindre 257 milliards de dollars à cette date.

De 1998 à 2003, le marché américain du logiciel devrait passer de 48 à 49 % du marché mondial, tandis que le marché européen devrait passer de 31 à 26 %. Or, les éditeurs nord-américains détiennent 90 % du marché mondial, contre une part de 7 % aux éditeurs européens.

Même si la notion de très grands équipements n'est pas naturelle dans l'industrie informatique, on peut se demander quels investissements et quels projets d'envergure seraient susceptibles de changer cette situation.

Il est incontestable qu'un réseau moderne représente une partie de ce qu'il est indispensable de lancer. Il faut à la France une infrastructure forte pour la circulation des données et des résultats de calculs. Ceci est d'autant plus vrai que l'évolution technique privilégie la puissance distribuée plutôt que les grandes cathédrales qui, au demeurant, deviennent obsolètes avant leur achèvement. Un réseau de grande capacité et de haute qualité est donc essentiel pour l'avenir. Au demeurant, dans ce secteur comme dans d'autres, les entreprises jugeront la France en fonction de la qualité de ses infrastructures et en particulier de celle de ses réseaux pour leurs choix d'implantation.

Un autre aspect essentiel est celui des ressources humaines. Il existe un déficit de formation en informatique. La pénurie d'informaticiens, déjà réelle, va croître dans les années à venir.

Le SYNTEC, en tant que syndicat professionnel, est partenaire des pouvoirs publics dans un projet de reconversion. Si la formation est le premier objectif, le deuxième objectif du SYNTEC est l'immigration de personnels qualifiés, indispensable si l'on ne veut pas affaiblir les entreprises françaises vis-à-vis de la concurrence. MatraDatavision recourt déjà aux services d'informaticiens installés à Nijni Novgorod ou à Minsk. Pour autant, l'emploi à distance d'informaticiens étrangers ne constitue pas la meilleure solution. Il ne faut pas en effet sous-estimer l'importance des pôles de développement et la nécessité de créer des " capitales de la recherche ", où grâce à un réseau industriel dense, les chercheurs et ingénieurs ont la possibilité de dialoguer avec leurs pairs. Un des meilleurs développeurs russes employés à distance par MatraDatavision a d'ailleurs fini par émigrer en Californie. La France doit donc offrir des perspectives identiques aux informaticiens étrangers.

M. René TRÉGOUËT, Sénateur, rapporteur, a souligné que l'immigration de travailleurs qualifiés représente un vrai problème pour l'équilibre économique de la planète, dans la mesure où les pays développés vont chercher des intelligences dans des pays qui précisément en ont besoin pour leur développement. Il faut être attentif à ce qu'il ne se crée pas deux catégories de pays, les pays " info-riches " et les pays " info-pauvres ".

M. Roger BALIAN, membre du groupe de travail, a alors estimé qu'un tel souci suppose qu'un véritable système mondial fonctionne. La France a donné une aide aux chercheurs russes organisée de façon à ne pas priver l'économie locale de ses ressources humaines. Mais les Etats-Unis n'ont pas eu ce scrupule et ont attiré sur leur sol les meilleurs scientifiques russes.

Pour autant, selon M. Hugues ROUGIER, des investissements massifs dans les réseaux, la formation voire l'immigration ne peuvent suffire à rétablir la position de la France et de l'Europe sur le marché des logiciels. Qu'est-ce qui pourrait faire reculer la domination américaine ?

L'examen des difficultés actuelles de Microsoft donne des indications à cet égard. On sait que le numéro un mondial des progiciels doit résoudre actuellement des problèmes nouveaux qui ont trois sources différentes.

La première difficulté provient de l'action antitrust du Département de la Justice américain qui entend réduire les positions anticoncurrentielles de Microsoft en procédant à son démantèlement.

La deuxième difficulté provient de la révolution d'Internet qui affaiblit la position stratégique acquise avec Windows.

La troisième menace est celle du logiciel libre scandinave Linux, inventé par Linus Torval, et qui, en tant que système d'exploitation, connaît un succès grandissant au point de dépasser désormais UNIX.

Or qu'est-ce qu'un logiciel libre ?

Un logiciel libre est certes gratuit mais cet aspect n'est pas le plus important. Contrairement au logiciel propriétaire, le logiciel libre permet en effet à l'utilisateur d'accéder librement au code source, de le comprendre, de le modifier et donc de le faire évoluer. Il s'agit là d'une révolution fondamentale qui met fin à la dépendance par rapport à l'éditeur, qui peut refuser de faire évoluer son produit contrairement aux demandes de ses clients. On connaît par ailleurs le danger de voir des objets industriels fabriqués par l'industrie nationale mais dépendant de systèmes propriétaires.

En outre, le logiciel libre donne naissance à une communauté d'utilisateurs publics et privés qui mettent en commun leurs avancées, d'où un " profit collectif " et un " enrichissement mutuel " qui résultent de l'idée démocratique du logiciel libre. Au reste, on constate que la puissance inventive de la communauté est susceptible de dépasser en résultats les budgets de R&D les plus importants comme celui de Microsoft. En tout état de cause, le modèle du logiciel libre a déjà prouvé sa validité, notamment dans le monde du Web où près de 50 % des sites fonctionnent sur des logiciels libres.

Au demeurant, le logiciel libre ne condamne pas les sociétés de services en informatique mais change leur métier. Leurs tâches se concentrent en effet sur l'industrialisation d'applications nouvelles, sur la documentation du logiciel, sur la mise au point de packages, sur le support client et la consultance.

L'accès au code source et la conjonction des forces autour du logiciel libre rassurent les utilisateurs sur sa capacité à devenir un standard, tant il est vrai qu'un standard informatique n'est pas édicté par un organisme mais qu'une norme est une norme de fait.

En l'absence d'une révolution fondamentale comme celle du logiciel libre, il n'y a aucune chance pour que la suprématie américaine s'atténue en quoi que ce soit, au contraire. Certes il existe en France des îlots de compétitivité, par exemple dans les jeux et la CAO (conception assistée par ordinateur).

En tout état de cause, le logiciel libre donne une réponse en permettant d'imposer un standard de fait. Le succès de Linux constitue une " opportunité énorme ". L'Union européenne s'intéresse à cette perspective, comme l'a fait récemment fait savoir le Commissaire européen à l'industrie. Une étude intitulée " Open Source Free Software " appelle la France et l'Europe à une initiative majeure dans le domaine de la recherche et suggère des actions aux pouvoirs publics.

Le logiciel libre permet par essence un travail coopératif de la recherche publique et de la recherche privée, alors que la collaboration entre le public et le privé pouvait achopper sur des questions de propriété intellectuelle. Pour la mise en _uvre de cette initiative majeure, la France et l'Europe pourront donc disposer sans entrave de l'atout que constitue la force de leur recherche publique, un gisement qui n'est pas encore utilisé " de manière pleine et entière ".

Quelles actions et quelles infrastructures sont-elles nécessaires pour commencer à réduire l'écart avec les Etats-Unis ?

La première urgence est une mesure défensive. Il s'agit de stopper les man_uvres américaines visant à imposer la brevetabilité des logiciels.

La deuxième urgence est de reprendre l'offensive en augmentant fortement les ressources logicielles libres à la disposition des informaticiens. Il existe en effet de nombreux codes développés par les entreprises et les laboratoires publics qui sont sous-utilisés et que ces derniers sont prêts à mettre sur le marché en accès libre. Il faut donc à la fois mettre en place une capacité d'hébergement de ces logiciels, assurer leur documentation, prendre en charge leur promotion et rendre aisée leur récupération.

Il s'agit au total d'un très grand enjeu. Pour inverser la tendance actuelle à la marginalisation de l'industrie européenne des progiciels, les investissements à engager n'atteignent pas le milliard de francs mais seront de plus en plus élevés à l'avenir.

En définitive, il apparaît indispensable de mettre en place une Agence du Logiciel Libre dont la mission sera de donner un élan à la généralisation des logiciels libres et qui aura pour tâches essentielles l'hébergement des logiciels libres, leur documentation et leur promotion, ainsi que le développement des coopérations entre entreprises et laboratoires publics.

M. René TRÉGOUËT, Sénateur, rapporteur, a informé les participants qu'il a déposé en septembre 1999, sur le Bureau du Sénat, avec le Sénateur Pierre LAFFITTE, une proposition de loi sur le logiciel libre qui comprend la création d'une telle agence du Logiciel libre.

Le Premier Vice-président de l'Office parlementaire, M. Jean-Yves LE DÉAUT, a fait une proposition voisine, déposée, elle, sur le Bureau de l'Assemblée nationale. Une initiative des pouvoirs publics en France, mais plus encore en Europe, rencontrerait certainement un large écho. Il faut toutefois bien préciser que dans la notion de logiciel libre, la mise en commun des sources est plus importante que la gratuité, tant la connotation de la gratuité peut être jugée dévalorisante par certains.

Les Rapporteurs ont ensuite donné la parole à M. Dany VANDROMME.

*

M. Dany VANDROMME, Directeur de RENATER, a exposé que le GIP RENATER, créé en 1992, a déjà été renouvelé deux fois pour 3 ans, le dernier renouvellement étant intervenu en janvier 1999 et le pérennisant jusqu'en 2002.

Les membres du GIP sont l'Etat, représenté par la direction de la Recherche du ministère de la Recherche, qui s'implique fortement et assure la moitié du financement public, le CNRS (36 % du financement), le CEA, le CNES et l'INRIA qui prennent à leur charge chacun de 4 à 6 % du financement, avec des contributions inférieures du CIRAD et de l'INRA. Les apports des membres du GIP ne représentent toutefois que 75 % des ressources de RENATER, le complément correspondant à des recettes " commerciales " perçues en réalité auprès d'autres institutions non-membres, comme la DGA, l'INSERM ou Sup'Elec.

Pour l'année 2000, le budget total de RENATER atteint 180 millions de francs.

L'activité de RENATER reflète la caractéristique essentielle du monde des télécommunications qui est d'être un monde de services. RENATER ne prend pas en effet à sa charge le travail de l'opérateur. Le GIP est au contraire le maître d'ouvrage, fait des propositions d'infrastructures partagées, tire les offres de l'opérateur vers le haut. Le coût de location du réseau représente la quasi-totalité du budget, les dépenses de personnel correspondant aux 20 personnes de l'équipe ne dépassant pas 4 % du budget total.

Le travail du GIP RENATER a commencé par la réorganisation des liaisons spécialisées des laboratoires et des universités entre eux et avec le CIRCE. Les infrastructures existantes, comme la liaison de l'INRIA avec les Etats-Unis, à partir de Sophia Antipolis, ont servi de base de départ au réseau. C'est la reprise de ces installations particulières, ajoutée au changement de standard et à la mutualisation des ressources et des coûts qui ont conduit à RENATER. En outre, RENATER a fait _uvre de pédagogie auprès des régions en s'efforçant de les convaincre de s'équiper en réseaux régionaux. Au total, l'Etat apparaît comme chargé de connecter les réseaux régionaux entre eux. RENATER est donc bien un réseau national d'interconnexion.

Si les réseaux régionaux sont directement confiés à France Télécom, le " backbone " d'interconnexion nationale fait, lui, l'objet d'une convention de service entre le GIP et France Télécom. Le dernier renouvellement de cette convention est intervenu en 1996 pour 4 ans et comprenait une clause d'augmentation des débits, avec une bonne anticipation de la croissance du trafic, ce qui permet de disposer à l'heure actuelle d'un réseau national qui n'est pas " congestionné ".

Les réseaux régionaux ne se sont malheureusement pas améliorés aussi vite que le " backbone " national, dans la mesure où les avenants signés à la fin 1997 et au début 1998 avec France Télécom n'ont pas fixé d'objectifs assez ambitieux. Une étape importante s'est produite en 1998 avec l'ouverture à la concurrence, suivie de la mise en place de nouveaux réseaux tant pour RENATER que pour les réseaux nationaux.

Par ailleurs, en juin 1999, une convention signée avec France Télécom a jeté les bases de RENATER 2, qui traduira à la fois un changement technologique et une nouvelle approche dissociant en deux lots distincts les infrastructures et les services. Dans cette nouvelle approche, France Télécom fournit les circuits et la société Communications et Systèmes (anciennement la Compagnie des Signaux) les services, dont la mise en place du protocole intégrateur ATM et du protocole Internet IP. Les N_uds Régionaux Distribués (NRD) ne sont plus localisés dans les locaux de l'opérateur mais dans des sites publics, par exemple le GANIL à Caen ou le laboratoire de l'IN2P3 à Lyon, de façon à être accessibles à tout opérateur désigné par le GIP. Afin de bénéficier de la baisse régulière du coût des infrastructures, le marché correspondant n'est passé que pour une année. En revanche, la durée du marché pour les services est plus longue.

Dans le cadre de RENATER 2, ce sont à la fois une modification des implantations géographiques et une augmentation des capacités et qui sont visées. S'agissant de l'architecture du réseau national, l'un des objectifs est de limiter les accès en cascade, notamment dans le sud-est de la France. S'agissant des capacités, il faut noter que le cahier des charges élaboré en 1998 prévoyait un passage à 622 Mbits/s en 2000, alors que la meilleure offre a finalement plafonné à 155 Mbits/s. En réalité, si le réseau n'est pas au plus haut, ce n'est pas en raison de limitations financières mais en raison d'un manque de compétitivité du secteur.

Au reste, le principal problème est celui des réseaux régionaux qui sont encore pour la plupart dans leur configuration de 1992 et de leur insuffisance de performances par rapport au réseau national. A titre d'exemple, le raccordement de la plupart des universités se fait avec un débit de 2 Mbits/s, alors qu'en Allemagne et en Grande-Bretagne, il est de 155 Mbits/s. Ceci résulte d'un hiatus dans le financement de l'ensemble des infrastructures. L'Etat finance en effet l'infrastructure nationale d'interconnexion ainsi que les réseaux à l'intérieur des universités, mais ne prend pas à sa charge la connexion des universités aux n_uds régionaux distribués dont l'Etat espérait que les régions les financeraient. Mais il est clair que le réseau de collecte est insuffisamment performant et qu'il s'agit d'un problème qui concerne la collectivité nationale tout entière.

*

Une discussion a alors commencé sur les questions de financement de RENATER.

M. Gilles KAHN a indiqué que les dépenses liées aux réseaux, du fait de leur caractère récurrent, ne sont pas considérées comme des investissements par les régions et donc ne peuvent leur échoir, ce qui explique, faute de financement, la faible capacité des lignes reliant les universités aux n_uds régionaux distribués.

M. Jean-Charles POMEROL a souligné que la distinction entre les dépenses d'investissement et les dépenses de fonctionnement crée une difficulté particulière dans le cas des réseaux.

M. René TRÉGOUËT, Sénateur, rapporteur, a confirmé que les régions ne sont compétentes, dans ce domaine, que pour les investissements et que l'absence de pratique d'amortissement dans les comptes de l'Etat et dans ceux des régions pose un problème supplémentaire. Sans doute eut-il mieux valu que la responsabilité des réseaux incombe par ailleurs aux départements.

M. Dany VANDROMME ayant indiqué que les universités voient leur accès à RENATER pris en charge directement par le ministère, M. René TRÉGOUËT, Sénateur, rapporteur, a estimé que la gratuité d'un service ne déclenche pas obligatoirement une dynamique de progrès. En conséquence, il conviendrait sans doute d'optimiser la consommation de ressources rares comme le temps d'accès aux lignes de lumière d'un synchrotron ou la connexion à un réseau à haut débit. Une solution pourrait être l'attribution de points de consommation afin que chaque chercheur connaisse ses dépenses. Deux autres arguments plaident en faveur d'une telle disposition : d'une part " l'économie réelle s'engage partout " et impose ses références ; d'autre part, le renouvellement des grands équipements est subordonné à une prise de conscience de leur coût.

M. Alain QUÉRÉ a alors précisé qu'en ce qui concerne les temps de calcul, il existe bien un mécanisme de régulation de la demande. En effet les utilisateurs se voient attribuer chaque année des heures processeurs. Lorsque leur quota est dépassé, soit leur compte est fermé, soit leurs projets doivent être à nouveau examinés par les comités thématiques pour une éventuelle attribution complémentaire, dans le cas où le dépassement est explicable et apparaît justifié. En tout état de cause le potentiel d'un centre de calcul est limité par le nombre de processeurs que multiplie le nombre annuel d'heures de disponibilité de ces derniers.

En ce qui concerne les réseaux, il n'existe pas de mécanisme de cette nature. Les tarifs des opérateurs sont au forfait et croissent avec les débits maximaux autorisés. La seule limite pour l'utilisateur est donc l'agacement et le découragement lorsqu'il ne peut obtenir, à cause d'un débit trop faible, le service qu'il attend du réseau. On peut estimer que le principe de facturation " au débit " devrait être revu au profit d'autres mécanismes comme la facturation de la quantité d'information transmise ou la facturation sur services rendus si la qualité de service est effective.

Au sujet de l'importance des réseaux pour les chercheurs, M. Gilles KAHN a confirmé que les scientifiques de l'INRIA en ont pleinement conscience et qu'ils seraient prêts à donner une priorité absolue aux dépenses correspondantes par rapport à tout autre frais de fonctionnement. Au reste, le budget de 180 millions de francs par an de RENATER, rapporté à la population de chercheurs-utilisateurs français, ne représente qu'un coût très faible.

M. Dany VANDROMME a ensuite présenté les développements en cours pour RENATER 2. Le GIP a pour mission d'assurer un service avancé à la communauté des utilisateurs. Le service de base assuré par les opérateurs, tant pour les téléphones mobiles que pour le transport de données, correspond généralement à la notion de " best effort ", c'est-à-dire à un engagement de performances sans toutefois de garantie. C'est pourquoi le GIP RENATER assure non seulement un service IP (Internet Protocol) mais également un service en " mode circuit ". C'est ainsi que toutes les administrations du CNRS figurent sur un même réseau logique qui constitue un réseau privé virtuel. Par ailleurs le GIP d'une part assure, à la demande, la supervision des connexions, notamment pour la détection de virus, et, d'autre part fournit des prestations de maîtrise d'ouvrage, notamment pour les liaisons avec l'Europe, les Etats-Unis et l'Internet commercial.

Le GIP RENATER fournit ainsi une liaison avec les Etats-Unis qui est passée de 155 à 300 Mbps au début juin 2000. Il est prévu un passage à 622 Mbits/s à la rentrée 2000, puis une croissance continue supérieure à 10 % par mois pour atteindre 2,5 Gbits/s à la fin de 2001. Par ailleurs, RENATER dispose également d'une liaison dédiée avec le n_ud d'échange STAR-TAP à Chicago, sur lequel se fait l'échange des trafics avec Internet 2. (ABILENE, vBNS) et NGI (ESnet, DREN, NREN, etc.) ainsi qu'avec les autres réseaux de recherche (APAN pour la zone Asie-Pacifique, Singarnet pour Singapour, Canarie pour le Canada, etc.)

Par ailleurs, RENATER est partie prenante du réseau européen TEN 155 dont la capacité va être portée à 622 Mbits/s avant la fin 2000. Il en est de même pour le réseau GEANT à 2,5 Gigabits/s qui reliera les pays membres de l'Union européenne et les 10 pays éligibles au 5ème PCRD, réseau qui passera ensuite à 10 Gigabits/s puis à 40 Gigabits/s, soit l'équivalent de son modèle américain ABILENE.

La parole a ensuite été donnée à M. Jean THERME.

*

M. Jean THERME, Directeur du CEA-LETI (Laboratoire d'électronique, de technologie et d'instrumentation du CEA), a indiqué que ce laboratoire s'inscrit pleinement dans les nouvelles orientations du CEA qui, au delà de son c_ur de métier traditionnel, se repositionne sur les nouvelles technologies pour l'énergie, sur les nouvelles technologies de l'information et les biotechnologies.

La vocation initiale du CEA-LETI était axée sur l'étude et la fabrication de composants électroniques résistant aux rayonnements, et possédant une fiabilité et une sûreté élevée pour des applications dans le domaine du nucléaire civil et militaire. Les travaux du CEA-LETI ont rapidement débouché sur des applications civiles et des technologies génériques applicables aux semi-conducteurs, aux composants et aux systèmes électroniques de toute nature.

Le CEA-LETI, qui rassemble 1100 personnes, dont 750 salariés, est implanté à Grenoble, pour 80% de ses effectifs et à Saclay pour les 20 % restants. Son budget annuel est d'un milliard de francs. Il dispose de moyens technologiques très importants. Son activité est centrée sur la recherche appliquée, en liaison étroite avec les réalités industrielles. Les chercheurs y sont jugés sur les débouchés industriels de leurs travaux et non pas seulement sur leurs publications scientifiques.

Afin de relever les défis qui s'accumulent sur la recherche et l'industrie microélectronique, le CEA-LETI est aujourd'hui le pilote d'un grand projet, celui de la constitution d'un pôle d'innovation en micro et nanotechnologies à Grenoble.

La microélectronique connaît une révolution permanente qui se traduit par des coûts en croissance exponentielle et donc une concentration inexorable des moyens industriels mais également des moyens de recherche. Un des objectifs du CEA-LETI est donc désormais la mise en place de plates-formes technologiques ouvertes en amont aux chercheurs de différentes disciplines et en aval aux industriels.

Un autre objectif est de systématiser son approche pluridisciplinaire. En effet, la miniaturisation des composants électroniques trouve des applications dans d'autres domaines que l'électronique, comme par exemple les biopuces, point de rencontre de la microélectronique et de la biologie. De même, les composants électroniques sont des systèmes complexes combinant des fonctionnalités matérielles et logicielles. L'innovation est de plus en plus à la frontière des différentes disciplines scientifiques. Le CEA de par son caractère pluridisciplinaire constitue un creuset particulièrement adapté à ce type de démarche et apporte au CEA-LETI des avantages déterminants.

Le CEA-LETI entend par ailleurs promouvoir des systèmes applicatifs où la technologie s'efface derrière les usages. Ainsi, une voiture moderne comme la 607 comprend 57 processeurs, soit autant qu'un Airbus du début des années 1980, sans que l'automobiliste le soupçonne. C'est maintenant la fonction qui intéresse l'usager, quelle que soit la technologie sous-jacente. Mais en contrepartie, il saurait y avoir de fonction et d'usage sans technologie.

Deux autres paramètres essentiels de l'activité du CEA-LETI sont la réactivité et la rapidité d'action. Les cycles de développement raccourcissent et les produits pénètrent de plus en plus vite sur les marchés : ainsi la télévision noir et blanc a mis plus de 20 ans à s'installer dans les foyers, le téléphone portable plus de 4 ans alors que les lecteurs de DVD devraient s'implanter en un à deux ans. La durée de l'ensemble du processus depuis l'idée jusqu'à la mise sur le marché tend à se réduire et en particulier le volet recherche.

En tout état de cause, il faut associer les disciplines dans le développement des produits. En effet, " nous avons raté dans les années 1990 l'accrochage de la recherche appliquée sur les semi-conducteurs avec la recherche amont, dont la constante de temps est de 10 à 15 ans. Le balancier est parti trop en aval, de sorte qu'il s'est produit, durant cette période, un trou de plusieurs années. Il faut donc réagir ". L'enjeu fondamental est d'associer sur un même site la recherche appliquée et la recherche amont, dont la coupure est aujourd'hui trop prononcée dans de nombreux domaines.

Enfin, l'enseignement supérieur ne forme pas assez d'ingénieurs pour répondre aux besoins de sciences et techniques de l'information et de la communication (STIC) et en particulier de ceux de la microélectronique du futur. Cette situation n'est pas propre à la France puisqu'on l'observe aussi aux Etats-Unis et dans d'autres pays européens. L'attractivité d'un site est donc devenue essentielle pour les étudiants qui se désintéressent de plus en plus des sciences pour l'ingénieur. En effet la concurrence entre les différents sites universitaires s'accroît face à une certaine pénurie de candidats.

Le CEA-LETI et l'industrie grenobloise, avec en particulier un établissement de STMicroelectronics, s'ils ont été performants, doivent aujourd'hui " recomposer le dispositif ".

Conformément à l'analyse exposée plus haut, les trois axes de la démarche du CEA-LETI sont d'une part la concentration sur un même lieu d'un ensemble de moyens intellectuels et matériels, d'autre part l'accent mis sur l'innovation industrielle depuis l'idée jusqu'à la mise sur le marché des produits et enfin un projet de recherche au c_ur duquel se trouve l'association recherche appliquée - recherche amont.

Ce dernier point est particulièrement important : il s'agit de repartir à l'envers par rapport à la démarche précédente des microtechnologies consistant à accroître la finesse des technologies de gravure d'objets microscopiques et de fabrication de circuits complexes. Les frontières de la matière seront en effet très prochainement atteintes de même que les limites physiques des procédés actuels. Il s'agit donc à l'avenir de partir d'objets de petite taille - les atomes et les molécules - pour fabriquer des objets microscopiques grâce à la maîtrise de la croissance atomique ou moléculaire. Ces techniques, les nanotechnologies, devront être opérationnelles en 2010-2015. Il s'agit de s'y préparer dès maintenant.

L'objectif du Pôle d'innovation en micro et nanotechnologies est de constituer le premier pôle européen dans ce domaine. La stratégie mise en _uvre repose sur trois volets : d'une part l'enseignement, d'autre part la recherche et enfin la valorisation industrielle.

Le premier volet est celui de l'enseignement. Il s'agit de dynamiser et d'impliquer les deux écoles d'ingénieurs de l'INPG de Grenoble et de lancer un centre de formation permanente permettant de lisser les variations fortes en terme d'emploi et de compétences qui surviennent dans le domaine des microtechnologies.

Le deuxième volet concerne la recherche, avec les trois aspects technologie, composants et systèmes. Les installations du LETI, de l'INPG (Institut national polytechnique de Grenoble), du CNRS, de l'université Joseph Fourier et d'autres à venir seront fédérées sur le pôle.

Le troisième volet est celui de la valorisation industrielle. Le CEA-LETI a toujours été familier de la création de " start-up ", avant même la loi sur l'innovation. Une difficulté existe toutefois dans le domaine de la technologie, lorsque l'entreprise accueillie initialement au sein d'un laboratoire commence à grossir, à développer ses processus de fabrication et augmenter sa production. Des limitations liées à la disponibilité de surfaces existent également pour accueillir les industriels et pour monter des laboratoires communs. L'objectif est donc de construire des bâtiments flexibles et modulables aptes à accueillir les développements en aval de la recherche. Par ailleurs, la coordination, l'animation du Pôle et son rayonnement vers l'extérieur seront assurés par une " maison de vie " appelée la Maison des micro et nanotechnologies, qui favorisera également l'interdisciplinarité et la créativité.

D'autres services devront être fournis aux chercheurs et aux entrepreneurs, notamment un support marketing, des moyens de soutien financier aux start-up, une assistance juridique dans le domaine de la propriété industrielle ainsi qu'une veille technologique capable de capter des " signaux faibles " émis dans n'importe quelle partie du monde, de les amplifier puis éventuellement de les exploiter en fonction de leur intérêt potentiel.

Les effectifs du Pôle devraient atteindre à terme le chiffre de 3000 personnes, dont 1000 étudiants, 400 enseignants-chercheurs, 1000 chercheurs et plus de 600 industriels.

Le Pôle d'innovation en micro et nanotechnologies représente un investissement lourd dont le montant initial est de l'ordre de 800 millions de francs. Comment financer l'outil au delà de sa création ?

Il existe dans un tel projet d'une part des coûts fixes récurrents liés aux recherches génériques, qui sont du domaine des financements publics et, d'autre part, des coûts variables associés aux programmes applicatifs qui doivent être financées par les industriels. Pour l'accès aux moyens technologiques par la recherche amont, il convient d'abaisser la barrière financière pour rester compatible avec les capacités de financement des laboratoires académiques.

Les applications des technologies qui y seront mises au point concernent toutes les disciplines et tous les secteurs industriels, parmi lesquels on peut citer les microcomposants pour l'énergie, la biologie avec les biopuces, les matériels et les logiciels informatiques, les objets communicants comme les mobiles, les véhicules, les " tags intelligents ", et les cartes à puce, voire les vêtements et l'électroménager.

Parmi les différents domaines d'application, l'accent sera mis dans un premier temps d'une part sur les liens entre l'électronique et la biologie, d'autre part sur les interfaces des composants et des logiciels, et, enfin, sur les sciences humaines, les interactions homme-machine et l'acceptabilité des concepts nouveaux.

La place est à prendre pour un Medialab européen. Ce défi est par essence multidisciplinaire. Le CEA, grâce à ses capacités pluridisciplinaires, a tous les atouts pour être le moteur du projet et le fédérateur des initiatives. Après la création du réseau national des micro et nanotechnologies, la zone de Grenoble a été promue centre national de recherche dans ce domaine. Des contacts internationaux ont été lancés avec les Focus Center aux Etats-Unis et les réseaux équivalents en Belgique, en Irlande et en Allemagne.

Par sa concentration de moyens, le projet de Pôle d'innovation en micro et nanotechnologies peut s'apparenter à un très grand équipement mais il en diffère par le fait qu'il rassemble les trois composantes enseignement, recherche et valorisation industrielle, par le fait qu'il constitue un rassemblement de multiples plates-formes technologiques axées sur des thématiques et des applications voisines mais différentes et enfin par le fait que ce sont les programmes de recherche et non les moyens qui sont le véritable objectif du Pôle. Le Pôle fonctionnera, bien entendu, au sein d'un réseau maillé avec d'autres grands laboratoires, tant au niveau national qu'au niveau européen.

La parole a ensuite été donnée à M. Alain HOFFMANN, directeur informatique du CEA.

*

M. Alain HOFFMANN, Directeur informatique du CEA, a estimé qu'en matière de super-calculateurs, le rôle des gouvernements reste essentiel tant aux Etats-Unis qu'au Japon. Dans le domaine de leurs applications, il faut signaler l'existence du grand projet de centre de simulation pour les sciences de la Terre au Japon, dont le budget atteint 600 millions de dollars.

Le centre de calcul du CEA, pour sa part, est doté d'un budget de 45 millions de francs, dont la moitié correspond à des investissements et 95 % à des crédits CEA, le solde provenant de partenaires industriels ou de la Recherche. Les deux principales technologies de calcul sont représentées, avec le calcul vectoriel opéré sur de machines japonaises et le calcul massivement parallèle sur des machines américaines. Il faut noter que l'exploitation du centre du CEA est externalisée.

S'agissant de RENATER, l'expérience montre qu'on devrait lui confier un rôle directeur sur l'ensemble du pays, c'est-à-dire non seulement pour le " backbone " national mais également pour les réseaux régionaux.

S'agissant des logiciels, deux orientations seraient souhaitables. Il conviendrait, d'une part, de considérer l'achat de logiciels comme un investissement et donc de rendre possible son amortissement. D'autre part, la question du logiciel libre devrait faire l'objet d'un grand projet, disposant de la même priorité et des mêmes ressources qu'un très grand équipement au sens classique du terme.

Les représentants du CNRS ont ensuite été invités à donner leur point de vue sur la problématique des TGE dans le domaine des sciences et technologies de l'information et de la communication.

*

M. Jean-Charles POMEROL, chargé de mission au département des sciences pour l'ingénieur, a indiqué que la recherche dans le domaine des sciences et technologies de l'information représente au CNRS un budget d'un milliard de francs et un effectif de 800 personnes à temps plein. En comptant les liens avec les universités et les unités communes, ce sont près de 3000 à 4000 personnes qui participent à cet effort de recherche, à quoi il faut aussi ajouter un total d'environ 2500 thésards.

L'éventail de recherche couvert par le CNRS dans le domaine des STIC est considérable. Le CNRS couvre en effet les terrains de l'informatique classique, de la microélectronique et des nanotechnologies en coopération avec le LETI à Grenoble et l'ensemble de laboratoires de Besançon. Il prend également en compte les recherches communes à l'informatique, à la physique et aux mathématiques, les applications de l'informatique à la biologie ainsi qu'aux sciences humaines et sociales.

Une autre spécificité de l'activité du CNRS dans le domaine des sciences de l'information est son approche pluridisciplinaire.

Au demeurant, quels peuvent être les très grands équipements dans le domaine des STIC ?

Les réseaux représentent un échelon essentiel et pourraient être assimilés à des TGE. Pour autant, les investissements les concernant sont composés de matériels, d'intelligence et de services. Comme tels, les régions et la comptabilité publique ne savent les prendre en compte correctement sur le plan financier.

Les TGE ne sauraient toutefois occulter la question des équipements moyens, correspondant à des coûts inférieurs 100 millions de francs, amortissements compris. Le CNRS est le maître d'_uvre du centre de calcul IDRIS (Institut du Développement et des Ressources en Informatique Scientifique), utilisé par différentes disciplines. Il est clair, à ce sujet, que les investissements des centres de calcul et en centres de calcul nouveaux sont à soutenir, en particulier parce qu'ils sont pluridisciplinaires.

Un autre aspect essentiel est celui des ressources humaines et des recrutements à pratiquer pour répondre aux besoins des chercheurs. La question des ITA (ingénieurs, techniciens et administratifs) est particulièrement importante en informatique. Aucun projet d'équipement en plates-formes et de pré- développement dans le domaine des STIC ne saurait réussir sans une amélioration de la situation. La présence de personnels ITA dans les laboratoires informatiques est en effet insuffisante et les STIC ne bénéficient pas d'investissements à ce sujet.

Par ailleurs, les plates-formes, si elles correspondent à des investissements inférieurs à 100 millions de francs, amortissement compris, sont d'une importance capitale.

L'exemple du LETI à Grenoble montre qu'il faut à la fois des ressources humaines, des démonstrateurs et les moyens de transférer les technologies. Un point d'application particulièrement important, dans ce domaine, est celui des plates-formes de réalité virtuelle ou d'interface homme-machine par la parole.

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, sur la valorisation de la recherche et de l'essaimage au CNRS, M. Jean-Charles POMEROL a précisé que les liens de ce dernier avec l'industrie des STIC sont désormais très forts. Un exemple peut être donné avec le réseau de connaissances sur le traitement du signal formé avec des industriels, composé de laboratoires communs, d'équipes mixtes avec l'industrie et dont les principaux centres d'activité sont Toulouse et Lyon, avec Matra et Thomson.

M. Jacques DUPONT-ROC, Directeur scientifique adjoint au département des sciences physiques et mathématiques, a par ailleurs indiqué que les liens du CNRS avec l'industrie sont particulièrement actifs pour le projet national d'optoélectronique.

M. Serge FAYOLLE, Directeur adjoint de l'IDRIS (Institut du Développement et des Ressources en Informatique Scientifique) a indiqué que l'investissement dans un centre de calcul tel que celui qu'il dirige et dont les performances sont voisines de celles du CINES, est de l'ordre de quelques dizaines de millions de francs par an. Il s'agit donc d'un équipement qui diffère des TGE classiques par son coût mais aussi par la nécessité de le renouveler tous les 4 à 5 ans, en raison des progrès très rapides de l'informatique. A cet égard, le choix de machines vectorielles ou de calculateurs massivement parallèles ne saurait être qu'une question d'opportunité, compte tenu de la durée de vie très limitée des technologies informatiques. Au demeurant, le mode de gestion et d'utilisation d'un centre de calcul présente des points communs avec ceux d'un TGE.

Recourant aux technologies du parallélisme et du calcul réparti, l'IDRIS est membre d'EUROGRID, grille de calcul européenne, grâce à laquelle le chercheur ne soucie pas de savoir où se trouve le centre de calcul qui prend en charge ses demandes.

Un point capital est celui du personnel et du recrutement. Il faut en effet souligner que les grands centres de calcul ne comprennent pas seulement des moyens matériels mais aussi des compétences essentielles pour la diffusion des technologies. Il faut en conséquence un financement régulier plutôt que des opérations " coup de poing ".

L'accès à l'IDRIS dépend bien évidemment des réseaux régionaux, ce qui confère une grande importance à une bonne capillarité de ceux-ci.

M. Michel VOOS, chargé de mission auprès du Directeur général du CNRS, réitérant l'existence de nombreux laboratoires du CNRS travaillant sur les STIC et les liens organiques des recherches sur ces domaines avec les sciences de la vie ou de l'ingénieur, avec la physique et les mathématiques, a précisé en outre qu'il existe au CNRS le projet de création d'un Institut des sciences et techniques de l'information et de la communication.

Au demeurant, les liens étroits du CNRS avec l'industrie des STIC découlent du fait que, dans ce domaine, les composants matériels répondent pour 20 % d'une application et les logiciels pour 80 %. A cet égard, le domaine de l'optoélectronique voit le CNRS s'engager résolument dans ce qui est une opportunité d'une importance exceptionnelle pour l'avenir.

A la suite du GIE Opto+ créé par Alcatel et France Télécom, le CNRS participe au développement des compétences en composants optoélectroniques. Après le désengagement de France Télécom de son site de Bagneux, l'implication concrète du CNRS se traduit par l'embauche d'agents de l'opérateur national, chercheurs et ITA, soit 38 postes au total. Sur le centre de Marcoussis, l'apport du CNRS sera au total de 100 postes, le GIE Opto+ en apportant quant à lui 140. Ce que l'on désigne comme l'" Optics Valley " comprendra un laboratoire du CNRS et un site industriel en GIE à proximité immédiate l'un de l'autre, ce qui constituera un pôle unique en Europe, son seul équivalent dans le monde se trouvant à Tsukuba au Japon.

Le couplage d'une recherche à court terme conduite par Alcatel et d'une recherche à long terme, soit 5 à 10 ans, sera donc réalisé, permettant d'ailleurs une formation au contact de l'industrie.

Le budget total d'investissement de l'opération comprend 100 millions de francs pour l'installation d'un laboratoire du CNRS dans un bâtiment d'Alcatel et la construction d'un troisième bâtiment pour ce dernier et 40 millions de francs pour renouvellement des équipements de haute technologie du centre de Bagneux. Le budget de fonctionnement est de 25 millions de francs par an et la masse salariale annuelle de 35 millions de francs.

Les délais de réalisation, soit 4 ans, de cette opération auront été réduits au maximum. Pour autant, ils sont encore trop longs, les initiatives de ce type apparaissant encore bridées.

La parole a ensuite été donnée à M. Jean JERPHAGNON.

*

M. Jean JERPHAGNON, conseiller du Directeur technique d'Alcatel, président d'Optics Valley 2, et membre du groupe de travail de MM. CUVILLIEZ et TREGOUET, a indiqué que dans le domaine des STIC, il existe à la fois des grands et des très grands équipements.

Parmi les grands équipements, on peut compter les réseaux et les plates-formes qui permettent le transfert de données et de connaissances. Le RNRT (Réseau national de recherche en télécommunications) doit pouvoir disposer des moyens de réaliser l'intégration et le test de solutions ainsi que l'expérimentation de leurs finalités en terme d'usages. Dans ces processus, le passage à l'échelle est très important. Il existe à l'heure actuelle des éléments de plates-formes que l'on cherche à utiliser mais il faut davantage de cohérence pour les structurer. Il convient en outre que les plates-formes nationales soient promues en vue d'être parfaitement connues.

A cet égard, il convient de souligner qu'au niveau européen, le 5ème PCRD a marqué une rupture avec le programme précédent, en ce qu'il exclut la poursuite des recherches et des réalisations en photonique.

Un très grand équipement correspond, dans le domaine des STIC, à une filière technologique. Ceci inclut les logiciels mais aussi la microélectronique non seulement avec le silicium mais aussi avec d'autres supports comme l'arséniure de gallium (AsGa) dont le développement nécessiterait des investissements importants, d'un total supérieur ou égal au milliard de francs.

Il convient également d'inclure l'optique, dont les applications se diversifient et revêtent une importance économique croissante. Au vrai, on estime qu'au 21ème siècle, l'importance de l'optoélectronique sera essentielle. Son évolution est d'ailleurs parallèle à celle de la microélectronique, avec un décalage de 20 ans. En tout état de cause, l'optoélectronique est une technologie structurante, notamment par son intervention dans les réseaux à haut débit. Elle exige des investissements importants, qui se chiffrent en centaines de millions de francs pour la seule recherche.

Au demeurant, le développement de l'optoélectronique doit se faire en veillant à ce qu'il n'y ait aucun hiatus entre les différentes étapes, et en particulier entre la recherche amont et la recherche aval. Il faut en particulier, comme c'est le cas au sein de l'Optics Valley, que l'industrie soit au voisinage immédiat de la recherche, ce qui permet d'anticiper les ruptures technologiques.

*

M. René TRÉGOUËT, Sénateur, rapporteur, après avoir remercié les participants pour leur contribution à l'information de l'Office sur un secteur très large et capital pour l'avenir de la recherche et de l'économie française, leur a demandé de bien vouloir concrétiser sur le papier les propositions qu'ils souhaitent faire dans le domaine des très grands équipements pour les sciences et les technologies de l'information et de la communication.

M. Christian CUVILLIEZ, Député, rapporteur, s'associant à ces remerciements, a estimé qu'il faut peut-être, sous réserve d'un examen plus approfondi, passer de la notion de très grand équipement à celle de très grand projet. En tout état de cause, " il faut que la France retrouve la notion de grand projet ".

Après avoir demandé aux participants de bien vouloir participer avant la fin de l'année à une deuxième réunion sur les STIC, afin d'approfondir les notions abordées au cours de ce tour d'horizon, les Rapporteurs ont levé la séance.

4. Sciences du vivant - mercredi 7 juin 2000

Programme national de Génomique:

· Professeur Pierre CHAMBON, Président du conseil scientifique

Institut de génétique et de biologie moléculaire cellulaire

· Professeur Dino MORAS

Génopoles :

· M. Pierre TAMBOURIN, Directeur général

EMBL :

· Dr. Fotis C. KAFATOS, Directeur général

· Dr. Christian BOULIN, Coordinator of Scientific facilities

Institut Pasteur :

· Professeur Henri KORN, Directeur du Laboratoire de biologie cellulaire et moléculaire du neurone

CEA :

· M. Michel VAN DER REST, Directeur de l'IBS, Grenoble

· Dr. Denis LE BIHAN, Directeur de recherche, Laboratoire d'imagerie neurologique anatomique et fonctionnelle, Service hospitalier Frédéric Joliot

· M. Pierre TRÉFOURET, chef du service des Affaires publiques

CNRS : 

· Mme Geneviève ROUGON, Directeur scientifique adjoint au Département des sciences du vivant

· M. Jean-Claude THIERRY, chargé de mission au département des sciences du vivant

INSERM :

· Professeur Patrice DEBRÉ, Directeur scientifique auprès du Directeur général

M. René TRÉGOUËT, Sénateur, rapporteur, a ouvert la réunion sur " la problématique des très grands équipements dans le domaine des sciences du vivant " en remerciant les nombreux participants pour leur présence au sein de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECST) qui rassemble, comme on sait, députés et sénateurs.

La méthode constante de l'Office est d'essayer de trouver un consensus entre l'Assemblée nationale et le Sénat sur les grands problèmes scientifiques.

En l'occurrence, la mission de l'Office, après avoir porté sur les conditions d'implantation d'un nouveau synchrotron, a été élargie à l'étude des besoins de la France en très grands équipements (TGE) dans les prochaines années.

En accord avec le ministère de la recherche, il a été jugé nécessaire d'élargir les investigations au-delà de la définition actuelle des TGE. En conséquence, les travaux de l'Office vont au delà des grandes réalisations unitaires que l'on pourrait qualifier de " cathédrales " technologiques onéreuses, en incluant un autre type d'équipements, à savoir les équipements en réseau. A ce stade des réflexions du groupe de travail, il apparaît selon toute probabilité nécessaire d'introduire en France une nouvelle approche des TGE pour faire face à la compétition âpre qui oppose la France et l'Europe aux autres " plaques " du monde, en particulier aux Etats-Unis et au Japon.

Dans le cadre de la préparation du présent rapport, une attention prioritaire a été donnée à deux grandes disciplines, les sciences et technologies de l'information et de la communication (STIC) et les sciences du vivant, qui n'ont pas bénéficié d'une attention suffisante dans le passé, en particulier dans le domaine des très grands équipements. Ceci ne veut pas dire que les besoins des autres disciplines - chimie, physique, astronomie, océanographie, etc. - ne seront pas examinés en détail dans les prochaines semaines. L'audition de ce jour, qui manifeste l'attention de l'OPECST pour les sciences du vivant, devrait permettre un tour d'horizon fructueux qui sera suivi d'une deuxième séance pour l'étude approfondie des propositions qui pourraient être faites en matière de TGE pour cette discipline.

Après avoir présenté les différents participants, M. René TRÉGOUËT, Sénateur, rapporteur, a cité quelques-unes des questions qui pourraient être abordées par les orateurs, à savoir les méthodes d'analyse fine de la matière - rayonnement synchrotron, sources de neutrons, RMN - utilisée en biologie, l'imagerie médicale pour les neurosciences, les calculateurs nécessaires pour la génomique, les banques de données sur le génome, les laboratoires de haute sécurité, les animaleries, les pôles de recherche scientifique.

La parole a ensuite été donnée au Professeur Pierre CHAMBON.

*

Le Professeur Pierre CHAMBON, Professeur au Collège de France, Directeur de l'IGBMC (Institut de génétique et de biologie moléculaire et cellulaire) de Strasbourg, Président du Conseil scientifique du Programme national de génomique, s'est déclaré heureux de participer à la réflexion de l'Office sur les TGE dans les sciences du vivant, après que la Commission européenne a, par la voix du Commissaire européen à la recherche, M. Philippe BUSQUIN, estimé important que l'Union revoie ses objectifs pour la biologie en réexaminant les notions de centres d'excellence et d'infrastructure. Il ne saurait être dit que la Commission européenne a négligé ces aspects par le passé puisque l'Union européenne n'a pas voulu financer des infrastructures, ce qui a eu des conséquences néfastes pour la recherche. Dans cette conjoncture, la réflexion de l'Office pourrait voir son importance renforcée du fait de l'exercice par la France de la présidence de l'Union européenne pour le deuxième semestre 2000.

Mais en quoi les études sur le génome peuvent-elle nécessiter des grands équipements ?

Les études sur le génome, c'est-à-dire le support de l'hérédité, comprennent la découverte des gènes et la caractérisation de leur activité. Il s'agit de recherches très développées, auxquelles la France a participé, grâce à la création de ce que l'on peut considérer comme des grands équipements. Cette dernière notion est d'ailleurs à redéfinir.

Au demeurant la biologie est une science jeune, en plein développement conceptuel et expérimental, et qui fait un appel croissant à de grands instruments.

Parmi ceux dont la France s'est récemment dotée, il faut citer le Centre National de Séquençage, dont l'objectif est de permettre l'identification des gènes et de dire " là où ils sont " et " ce qu'ils sont " dans la structure de l'ADN, sans pour autant délivrer leurs caractéristiques fonctionnelles.

Le Centre National de Génotypage a, lui, pour mission d'établir le génotype des individus et la relation entre les gènes et l'état physiologique ou physiopathologique de ceux-ci. Dans ce cas également, ce sont essentiellement les aspects structuraux qui sont étudiés, même si l'on se préoccupe également des aspects fonctionnels.

La première étape de la génomique est celle du séquençage d'un nombre de gènes qui devrait être compris chez les mammifères, dont l'homme, entre 30 000 et 140 000 selon les estimations actuelles. A lui seul, il s'agit d'un problème " gigantesque " par son ampleur. Mais ce n'est pas le " début de la fin ". Au contraire, c'est la " fin du début ".

Le " vrai problème " est celui de la fonction des gènes, qu'il s'agisse du génome humain et des autres mammifères mais aussi des génomes des vertébrés dans leur ensemble, des autres animaux, des végétaux et des micro-organismes. Chez les mammifères, on ignore la fonction de la plupart des gènes, bien que l'on sache qu'ils jouent un rôle déterminant dans " l'économie " de l'individu.

Quelles sont les approches possibles pour étudier les fonctions des gènes et ainsi pénétrer dans l'ère de la génomique fonctionnelle ?

Pour simplifier, il en existe trois : l'approche structurale, l'approche génétique et l'approche biochimique. Ces trois approches sont complémentaires et de fait indissociables.

L'approche structurale consiste à se servir de la propriété des gènes de coder les protéines, macromolécules actives qui font " marcher " la machine biologique. La détermination de la structure tridimensionnelle des protéines revêt dès lors un grand intérêt. En effet, leur analyse structurale donne non seulement des informations sur la relation structure-fonction mais elle a également des prolongements avec le " drug design ", c'est-à-dire le dessin de petites molécules qui, associées aux protéines, peuvent en modifier l'activité.

L'un des outils d'étude des aspects structuraux des protéines est le rayonnement synchrotron, qui a connu des améliorations considérables et qui en connaîtra d'autres , de façon à permettre l'étude de cristaux de protéines de petites dimensions.

L'approche structurale systématique des protéines rencontre l'intérêt des chercheurs de la biologie fondamentale et de l'industrie pharmaceutique. Les Etats-Unis, le Japon et le Royaume Uni ont lancé des études à grande échelle dans ce domaine. La France est pour l'instant largement absente de cette démarche.

Aussi convient-il d'engager des efforts importants en amont des études structurales des protéines, c'est-à-dire en cristallogénèse, sauf à voir les ressources françaises en rayonnement synchrotron être utilisées par des chercheurs étrangers.

Dans le domaine de la cristallogénèse et de l'étude de la structure tridimensionnelle des protéines, la France possède quelques bonnes équipes mais leur nombre est trop réduit.

Cette situation provient d'orientations prises dans les quarante dernières années, où l'accent n'a pas été mis sur ces disciplines, même si le CNRS a conduit quelques actions dans ce domaine. Au plan quantitatif, la France est donc loin d'être au premier rang. Au reste, il n'y a pas en France de création de " start-up " de biologie structurale, contrairement au Japon, aux Etats-Unis et au Royaume Uni, l'Allemagne étant également en avance par rapport à notre pays.

Les équipements nécessaires à la préparation à grande échelle de cristaux des protéines, ainsi que les technologies informatiques nécessaires pour résoudre en aval les observations obtenues avec le rayonnement synchrotron, constituent à elles seules un très grand équipement qui vient s'ajouter au TGE que constitue le synchrotron lui-même.

Le passage à grande échelle est donc un défi essentiel, dont on se préoccupe au niveau des génopoles, avec toutefois des moyens actuellement insuffisants.

S'agissant des ressources humaines indispensables pour rattraper le retard déjà pris, il faut faire émerger des équipes et attirer des chercheurs étrangers.

Si l'on considère l'ensemble des machines à mettre en _uvre, les investissements à effectuer pour automatiser les processus et développer la bioinformatique, ainsi que les nombreux personnels indispensables - chercheurs, ingénieurs et techniciens -, la masse financière des TGE est atteinte.

Il convient en outre de prendre en considération les besoins en aval des études structurales. Le " drug design " suppose en effet le criblage de composés chimiques, soit en virtuel grâce à l'informatique, soit en réel avec des systèmes " rapporteurs " et la pharmacologie. Une fois les molécules choisies, il faut les tester sur l'animal, déterminer s'il y a eu stimulation ou inhibition de l'activité des protéines étudiées, en inférer le rôle du gène considéré et mettre au point d'éventuelles thérapies.

Là également, la somme des dépenses d'équipements, de fonctionnement et des salaires des chercheurs et techniciens indispensables est bien à l'échelle de celle des TGE.

Pour étudier les fonctions des gènes, une autre possibilité existe, en réalité complémentaire de la biologie structurale, c'est l'approche génétique.

Le principe de cette méthode est de modifier ou de muter un gène donné et d'en examiner les conséquences chez l'animal. Il s'agit de génétique physiologique ou de génétique physiopathologique. Cette méthode permet de déterminer la fonction des gènes au sein de l'animal, aussi bien dans des conditions normales que pathologiques.

Le cumul des investissements relatifs à la voie génétique conduit à des montants qui sont également du ressort des TGE, en raison des technologies et des équipements indispensables.

Il faut en effet disposer d'animaleries, en particulier pour la souris, système modèle privilégié. Celle-ci présente des avantages considérables pour l'expérimentation, en termes de taille et de vitesse de reproduction, mais aussi de possibilité de mutation " à volonté " de ses gènes, quels qu'ils soient, qu'ils appartiennent à la lignée germinale ou à des cellules somatiques.

Deux types d'investissements sont donc à réaliser.

Le premier type correspond à des animaleries de grandes dimensions pour l'élevage de milliers de souris et le stockage des mutants. On atteint ainsi 4000 m2 pour le bâtiment qui est en cours de construction à Strasbourg dans le cadre des génopoles. Mais ceci ne suffit évidemment pas.

Le deuxième type d'investissement est relatif aux matériels nécessaires pour réaliser l'analyse physiologique des effets des mutations au niveau des systèmes respiratoire, cardio-vasculaire, osseux, visuel, auditif, immunitaire, etc. Le coût global de cet appareillage est supérieur à celui du bâtiment proprement dit.

De surcroît, des dizaines de spécialistes de ces domaines sont à rassembler pour effectuer et analyser ces explorations fonctionnelles et ainsi établir le rôle des gènes dans les modifications physiologiques et physiopathologiques constatées.

L'approche génétique nécessite donc des investissements matériels du niveau de ceux des TGE classiques, et exige aussi des crédits de fonctionnement et un personnel nombreux et qualifié.

La troisième approche est l'approche biochimique. Son principe est de descendre au niveau des protéines et d'examiner avec quelles autres molécules elles interagissent. Ces interactions et leurs modifications nous éclairent sur la fonction biochimique des protéines. L'approche biochimique comporte notamment l'étude du transcriptome, c'est-à-dire de l'ensemble des ARN messagers produits par une cellule ou un tissu donné, et sur celle du protéome, son équivalent au niveau des protéines.

Au final, il apparaît bien que, quelle que soit l'approche utilisée - structurale, génétique ou biochimique -, la génomique fonctionnelle nécessite des dépenses du niveau de celles d'un TGE : investissements en instruments, frais de fonctionnement et constitution d'une masse critique réunissant les nombreux groupes de chercheurs, ingénieurs et techniciens réalisant les investigations.

Pour faire face aux enjeux considérables du post-génome, que fait actuellement la France ?

Dans le cadre du Programme national de génomique, la France dispose du Centre national de séquençage (CNS) et du Centre national de génotypage (CNG), auxquels il faut ajouter le programme GenHomme, le réseau de recherche technologique Génoplante, le programme INFOBIOGEN et les Génopoles. Il faut aussi noter d'autres actions incitatives en biologie du développement et en physiologie.

L'enjeu majeur pour la France est aujourd'hui d'accentuer ses efforts pour l'étude des aspects structuraux et physiologiques du génome. Il convient donc que le Programme national de génomique, qui combine des efforts publics et privés, traite aussi bien des problèmes structuraux (génotypage, structure des protéines, etc.) que fonctionnels.

Un autre domaine devrait faire l'objet d'efforts particuliers, à savoir la bioinformatique, car il s'agit d'une discipline critique pour toute la biologie. Le programme INFOBIOGEN semble insuffisant.

Les Génopoles ont été créés par M. Claude ALLÈGRE avec l'idée de réaliser, avec la masse critique nécessaire, des plateaux techniques de grande ampleur permettant de passer à une biologie à grande échelle. Il convient que ces génopoles créent l'environnement nécessaire pour les études de génomique structurale et fonctionnelle, qu'elles soient fondamentales ou appliquées.

Les travaux à conduire en génomique fonctionnelle s'étaleront sur au moins 20 ans. La résolution de la fonction des gènes est en effet un problème beaucoup plus ardu que le séquençage. Pour avancer sur cette voie, il est indispensable d'avoir une approche multidisciplinaire, d'où l'intérêt de réunir sur un campus tout l'éventail des techniques nécessaires et de travailler en réseau.

Le réseau de Génopoles est financé par le Fonds National de la Science (FNS) dans le cadre d'un programme limité dans le temps. L'interrompre après 3 ou 4 ans, comme on peut actuellement le craindre, reviendrait à gaspiller la totalité de l'investissement déjà réalisé.

Le XXIe siècle sera celui des sciences et des technologies de l'information et de la communication (STIC) ainsi que celui des sciences du vivant.

Les Etats-Unis on mis en place une stratégie de conquête pour dominer ce dernier secteur au niveau mondial, stratégie qui s'exprime notamment par un doublement du budget du NIH d'ici à 2003.

L'Europe, et notamment la France, apparaissent jusqu'à maintenant " singulièrement absentes ". Un effort considérable doit donc être engagé.

*

Un débat s'est ensuite engagé sur les situations respectives de l'Europe et des Etats-Unis, pour les " start-up " dans le domaine de la biologie structurale.

M. Vincent MIKOL, Directeur de recherche chez Aventis, membre du groupe de travail, a estimé qu'avec les entreprises Structural Genomics et Astecs, l'Europe n'est pas en retard sur les Etats-Unis.

Le Professeur Dino MORAS, cristallographe et spécialiste de la structure des protéines, d'une opinion opposée, a estimé qu'il fallait prendre en compte non pas le nombre d'entreprises mais leurs forces respectives. Les Etats-Unis et le Japon ont engagé des efforts massifs, de sorte que les entreprises européennes ont comparativement des moyens insuffisants. Au reste, si les Wellcome Trust a une stratégie offensive, " ce n'est pas anodin ".

S'agissant des moyens actuels en rayonnement synchrotron, l'Europe connaît également un retard. Contrairement à ce que M. Robert COMÈS a exprimé sur le premier rang mondial du synchrotron ESRF de Grenoble, le Professeur Dino MORAS a indiqué que certains enregistrements ne peuvent être faits qu'à Argonne aux Etats-Unis.

Le Professeur Pierre CHAMBON a souligné en tout état de cause la force des groupes de cristallographes qui soutiennent les " start-up " américaines.

M. Pierre TAMBOURIN, Directeur général des Génopoles a indiqué que, s'il peut y avoir controverse sur la seule biologie structurale, en revanche le retard de l'Europe sur les Etats-Unis pour l'ensemble des biotechnologies est incontestable.

*

En réponse à une question de M. Vincent MIKOL, sur la présence éventuelle dans les Génopoles de moyens de criblage de molécules cibles, le Professeur Pierre CHAMBON a précisé que, s'il ne sera pas possible d'y cribler des chimiothèques de centaines de milliers de molécules, le criblage ciblé de quelques milliers de molécules sera toutefois possible.

Au reste, il faut sortir d'une conception unitaire du très grand équipement. Si l'on prend un par un les équipements de la génomique, aucun d'entre eux n'atteint la taille d'un TGE. Au contraire, l'ensemble d'un génopole constitue un TGE, de même que pourrait l'être un réseau de bioinformatique.

Il faut aussi noter que, si pris isolément, chacun des éléments d'un Génopole est à la portée d'un grand organisme de recherche comme l'INSERM ou le CNRS, leur réalisation dans leur ensemble " ne se fait pas " au niveau de ces organismes. Or les techniques évoluent et un seul projet, comme l'établissement des transcriptomes, demande des moyens de plus en plus importants. Au vrai, il n'existe pas en France une structure comparable au NIH aux Etats-Unis qui permette de lancer de grands programmes technologiques.

Les génopoles répondent précisément à l'objectif d'une finalisation des recherches et du passage en aval des découvertes, " ce qui, jusqu'à présent, n'est pas dans la vocation des grands organismes de recherche ".

*

Les causes du retard de la France en biologie structurale ont ensuite été analysées par plusieurs orateurs, à la demande de M. René TRÉGOUËT, Sénateur, rapporteur.

Le Professeur Dino MORAS a indiqué qu'après les premières grandes découvertes faites à Cambridge dans ce domaine, les Etats-Unis ont investi massivement dans la biologie structurale, alors que la France, à la suite d'un choix scientifique fait au début des années 1970, a décidé que cet axe de recherche n'était pas important. Ce choix a été fait par des instances scientifiques mal conseillées, au motif que la génétique était davantage prometteuse.

Le Professeur Pierre CHAMBON a fait toutefois remarquer que l'intérêt de la biologie structurale, peu clair au départ, s'est accru ensuite avec la perspective de l'élucidation de la structure des protéines.

M. Pierre TAMBOURIN ayant remarqué que la France est familière d'erreurs de ce type, le Professeur Pierre CHAMBON a signalé un autre exemple de fourvoiement. La biologie moléculaire a reçu en effet des encouragements très importants, dont la physiologie a malheureusement fait les frais. Or, aujourd'hui, la génomique fonctionnelle a besoin des acquis de la physiologie, notamment pour l'analyse du modèle intégré que représente l'animal.

M. Roger BALIAN a rappelé que l'opinion selon laquelle la biologie structurale serait de peu d'intérêt, est largement répandue, ainsi que l'ont montré les propos de M. Pierre-Gilles DE GENNES lors de l'audition publique sur le synchrotron organisée par l'Office parlementaire.

M. Roger BALIAN s'est ensuite enquis de savoir s'il est possible de reconnaître dans le cours d'un séquençage si l'on est en présence d'un gène ou bien d'informations non signifiantes.

Le Professeur Pierre CHAMBON a répondu sur un plan général par la négative. Toutefois, la connaissance et la comparaison de génomes de mammifères et de poissons permettent souvent d'établir la présence d'un gène dans une région donnée du génome.

Par ailleurs, concernant le nombre de gènes dont on connaît la protéine associée, autre question de M. Roger BALIAN, le Professeur Pierre CHAMBON a précisé que le nombre de structures élucidées est de l'ordre de 5000 et le nombre de fonctions identifiées de quelques milliers.

*

M. Roger BALIAN a, par ailleurs, fait une remarque générale sur les TGE.

Le Conseil des grands équipements avait en son temps insisté sur l'importance de l'accompagnement en moyens humains et matériels d'un très grand équipement. Cette idée avait été mise en avant sans toutefois qu'on la retrouve au plan budgétaire. A titre d'exemple, dans le domaine de la biologie structurale, l'investissement dans un synchrotron doit être complété par des mesures d'accompagnement en amont pour la préparation des cristaux et en aval pour l'informatique servant à l'analyse des informations expérimentales, de même qu'en aval d'un accélérateur il faut des outils d'analyse des particules.

Ainsi, toute réflexion sur un TGE doit inclure l'accompagnement nécessaire en amont comme en aval, le budget du projet incluant les crédits d'investissement et de fonctionnement.

En définitive, l'enveloppe budgétaire du très grand équipement, en incluant l'accompagnement, ne peut résulter de la seule communauté scientifique qui souhaite en disposer, et doit être au contraire abondée par d'autres ressources.

Prolongeant ces propos, le Professeur Dino MORAS a estimé que, pour atteindre la compétitivité, il faut investir non seulement dans des moyens matériels mais également dans des ressources humaines. De surcroît, il faut rassembler des compétences variées et les faire travailler ensemble.

D'une manière générale, dans les disciplines clé, il faut aller de l'avant, même s'il n'existe pas de spécialistes déjà formés, comme c'est d'ailleurs le cas dans le domaine de la bioinformatique. Au reste, la somme d'équipements de taille moyenne constitue bien un TGE. Une démarche offensive exige une approche globale, sans aucune lacune.

M. René TRÉGOUËT, Sénateur, rapporteur, a demandé aux participants de bien vouloir préparer une étude comparative sur les moyens à la disposition des sciences du vivant, en France, en Europe et aux Etats-Unis, tant pour la recherche publique que pour la recherche privée, ainsi que sur l'efficacité respective de ces deux types de recherche dans notre pays et outre-Atlantique.

S'il faut une stratégie dans notre pays, il faut aussi des moyens. En complément à ce document comparatif, M. René TRÉGOUËT a de surcroît appelé les participants à faire connaître à l'Office parlementaire les mesures qu'ils préconisent en matière de TGE pour permettre à la France de passer en tête de la recherche sur les sciences du vivant.

*

Un échange a suivi sur la notion de très grand équipement.

M. Christian CUVILLIEZ, Député, rapporteur, a estimé que l'on doit rechercher une définition systémique des très grands équipements mais également une définition qui ait une signification budgétaire, de façon à pouvoir analyser l'évolution de leurs crédits.

M. René TRÉGOUËT, Sénateur, rapporteur, a noté qu'il convient de reformuler la notion autour du but poursuivi afin de pouvoir y inclure l'ensemble des équipements qui concourent à la réalisation de cet objectif. Au demeurant, l'approche systémique proposée par M. CUVILLIEZ est fondamentale. En effet, il existe dans la recherche des équipements " isolés " dont l'absence éventuelle ne saurait dérégler tout un système de recherche. A l'opposé, il existe des grands équipements dont il faut impérativement disposer car ils sont utilisés par différentes disciplines, en coordination ou non.

Mme Claudine LAURENT, membre du groupe de travail, a demandé que les futures recommandations des participants à la présente réunion portent également sur les équipements de taille moyenne indispensables, dont il faudrait également faire le recensement.

Le Dr. Denis LE BIHAN, Directeur de recherche au CEA, a souligné qu'un catalogue des instruments nécessaires aux sciences du vivant ne devait pas omettre l'imagerie médicale, pour laquelle la France connaît un retard important.

*

Une discussion s'est ensuite engagée sur le sujet de l'échelle nationale ou européenne des TGE.

Le Professeur Henri KORN, Directeur du laboratoire de biologie cellulaire et moléculaire du neurone à l'Institut Pasteur, a estimé que la dimension européenne est trop souvent invoquée lorsque notre pays rencontre un problème scientifique majeur. Or la France fait face aujourd'hui à deux problèmes graves, d'une part la politique de recrutement des chercheurs et d'autre part des choix scientifiques importants à faire. Il convient donc de ne pas reporter ces deux questions sur l'Europe mais au contraire de les aborder avec courage.

Pour M. René TRÉGOUËT, Sénateur, rapporteur, une évolution européenne se produit actuellement dans la bonne direction pour les TGE. Pour le Professeur Henri KORN, il n'en est rien.

Au delà de la situation actuelle, il existe en tout état de cause pour M. René TRÉGOUËT, Sénateur, rapporteur, une fenêtre d'opportunité que la France doit s'efforcer d'ouvrir grâce à sa présidence de l'Union européenne au deuxième semestre 2000. Ceci ne saurait toutefois signifier que notre pays ne doit pas mobiliser ses propres énergies.

Pour le Professeur Pierre CHAMBON, les Génopoles répondent au niveau national à différents objectifs. Il s'agit de couvrir l'ensemble des recherches allant de la fonction des gènes à la définition de médicaments. Pour ce faire, il faut rassembler des compétences. L'idée est d'approfondir l'expertise des différents centres, avec une amorce de spécialisation de chacun d'entre eux et un travail en réseau de l'ensemble. Une fois cet effort réalisé au plan national, après " avoir balayé devant sa porte ", il sera alors possible de nouer des coopérations avec d'autres pays.

En tout état de cause, la France ne s'en remet pas à l'Union européenne mais au contraire doit avoir son propre dispositif.

La parole a ensuite été donnée à M. Pierre TAMBOURIN.

*

M. Pierre TAMBOURIN, Directeur général des génopoles, a indiqué que la France se caractérise dans le domaine des sciences du vivant par l'absence de TGE.

Au contraire d'autres pays comme les Etats-Unis ou les Pays-Bas, la France ne disposait d'aucune infrastructure pour stocker des cellules souches de souris et les reproduire, avant le projet d'animalerie de Strasbourg dont il a déjà été fait état. L'absence de serres de grande taille est, elle aussi, incompatible avec le développement considérable de la génomique agronomique. Il faut également relever une carence en centre de ressources biologiques assurant le stockage de cellules et de matières biologiques indispensables pour les biotechnologies. A cet égard, la France avait réussi à prendre à sa charge la coordination du réseau européen correspondant sans posséder d'infrastructure propre, au motif que l'INSERM disposait d'une base de données.

D'autres domaines ont longtemps souffert de retards du même type, notamment l'observation de la Terre ou en souffrent encore, ainsi pour l'observation des écosystèmes, alors qu'avec la Guyane, la France détient des milliers de km2 précieux pour étudier la biodiversité, sans qu'aucun organisme de recherche n'ait été capable d'investir dans cette direction.

Au demeurant, la biologie structurale a bénéficié d'une initiative, le projet IMABIO. La création de l'Institut de Biologie Structurale de Grenoble a par ailleurs eu pour but de constituer une structure d'accueil. On ne peut toutefois nier qu'au niveau du CNRS, des besoins existaient en biologie structurale, auxquels cet organisme n'a pas répondu.

En tout état de cause, la France doit aujourd'hui faire face à un problème de compétitivité. Si l'on veut une politique européenne ambitieuse où la France joue un rôle, il faut investir.

L'effort considérable engagé par les Etats-Unis dans les sciences du vivant fixe les enjeux à cet égard. L'augmentation de 14 % du budget du NIH (National Institute of Health) pour l'année fiscale 1999-2000 correspond en volume, à elle seule, au cumul du bilan et du budget annuel de l'Institut Pasteur.

Avec une diminution progressive de la Dépense Nationale de Recherche et Développement (DNRD), passée de 2,45 % du PIB en 1993 à environ 2,1 % en 1999, le contexte est défavorable et a pour conséquence un accroissement du retard par rapport aux Etats-Unis.

En réalité, depuis le début des années 1970, la France n'a connu que deux périodes où l'effort national de R&D a baissé, d'une part de 1971 à 1973 sous la présidence de Georges POMPIDOU et d'autre part, depuis 1993 jusqu'à nos jours. Pour autant, l'évolution actuelle se produit sans raison économique ou budgétaire.

En tout état de cause, la création des génopoles, décidée en Comité Interministériel de la Recherche Scientifique et Technologique (CIRST), répond à la nécessité d'une nouvelle approche en biologie, à savoir une approche à grande échelle. Seule cette méthode permettra de savoir comment plusieurs milliers de gènes agissent dans une cellule.

Grâce aux progrès faits en automatisation, en robotisation et en informatique, le séquençage du génome débouchera sur une première version en 2000 et sur la version définitive en 2002, alors qu'avec une approche classique il aurait fallu attendre 2015 pour obtenir ces résultats. Un autre progrès méthodologique s'est révélé particulièrement efficace, c'est la pluridisciplinarité des recherches obtenue par un rapprochement des compétences. Les génopoles systématisent le rapprochement culturel avec des disciplines éloignées de la biologie, comme la physique, la chimie et les mathématiques.

Le génopole d'Evry a reçu les investissements lourds que sont le Centre national de séquençage et le Centre national de génotypage. Le Centre national de séquençage avait été conçu en 1996 pour prendre le 3ème rang mondial. En réalité, il est aujourd'hui à la 8ème place, alors même que sa productivité a été multipliée par 10, ce qui donne une indication de la compétition mondiale dans ce domaine.

Ces deux centres nationaux, dont le financement est garanti pendant 10 ans, ont pour mission de répondre à l'ensemble de la communauté scientifique nationale. Il faut y ajouter le Centre national informatique d'Evry, qui fait partie du réseau européen des centres de bioinformatique et donc est relié au Sanger Centre du Wellcome Trust.

Le génopole d'Evry et les génopoles créés dans les régions assurent, grâce aux investissements effectués et à une approche multidisciplinaire, la mise en _uvre d'une biologie à grande échelle. Toutefois, un nouvel enjeu existe désormais, celui du post-génome.

A cet égard, le réseau de génopoles couvrira l'ensemble du champ allant de la connaissance des gènes à leur application, en incluant la biologie structurale et l'imagerie des animaux, avec une répartition des spécialisations dans les différents centres.

Le réseau a également la mission de fournir une base de départ pour les " start-up " spécialisées dans les biotechnologies. A cet égard, on peut noter avec satisfaction une véritable mobilisation du milieu de la recherche, qui se traduit par la mise au point de nombreux projets. Si beaucoup d'entre eux sont voués à disparaître, en revanche les projets viables permettront peut-être de rattraper notre retard.

Au vrai, le retard de l'Europe sur les Etats-Unis est considérable dans les sciences du vivant, et celui de la France encore plus important sur le Royaume Uni comme sur les Etats-Unis. Les effectifs comparés de chercheurs de haut niveau employés dans ce secteur l'illustrent clairement. Toute chose égale par ailleurs, en 1997-1998, le déficit d'emplois atteignait en Europe 30 000 personnes, soit le total des postes relatifs aux sciences du vivant dans la recherche publique française.

La biologie a longtemps souffert en France d'une absence de débouchés, de sorte que les jeunes diplômés de cette discipline étaient conduits à s'expatrier, notamment aux Etats-Unis. Le réseau de génopoles a aussi pour ambition de compenser en trois ans le retard accumulé.

Le réseau de génopoles nécessite un effort budgétaire de plusieurs années et des ressources humaines pérennes. Or, selon certaines sources, cette aide pourrait disparaître dans trois ans.

Dans ce contexte, les premiers chiffres relatifs au budget de la recherche pour 2001, à savoir une diminution de 2 % de ses crédits, sont alarmants. En tout état de cause, il ne faut pas renoncer à la recherche fondamentale, qui conditionne en particulier la création de " start-up " dans les dix prochaines années.

Par ailleurs, si l'on n'y prend pas garde, la question du recrutement de jeunes chercheurs va devenir, dans quatre à cinq ans, d'une acuité majeure avec l'accélération des départs en retraite de chercheurs actuellement en fonction.

Le déclin relatif des filières scientifiques est un autre motif d'inquiétude à cet égard. Au reste, l'affichage actuel d'une baisse projetée du budget de la recherche pour 2001 est non seulement grave mais semble également en contradiction avec les propos du Premier ministre en 1997 de rétablir la dépense nationale de recherche à 2,5 % du PIB.

*

Une discussion s'est ensuite engagée sur l'effort consenti en France à l'égard de la recherche.

M. Christian CUVILLIEZ, Député, rapporteur, a rappelé qu'en tant que Rapporteur spécial de la Commission des Finances pour la Recherche, il a régulièrement désapprouvé et voté contre les budgets présentés par le Gouvernement depuis 1997 et qu'il ne lui est pas interdit de s'exprimer sur ce sujet dans un autre cadre que celui de l'Office parlementaire d'évaluation des choix scientifiques et technologiques. L'inquiétude suscitée par les premiers chiffres du budget de la recherche pour 2001 est largement partagée. Toutefois, les décisions définitives ne seront prises qu'à la fin juin.

M. Pierre TAMBOURIN a estimé qu'il fallait une intervention rapide et au niveau le plus élevé en faveur de la recherche, sauf à aboutir à une issue déplorable. La base de départ de la négociation, à savoir une diminution de 2 % est en elle-même mauvaise, puisque l'on sait bien que dans une négociation budgétaire, une augmentation de 5 % au début des discussions se traduit le plus souvent au final par une simple stabilité des crédits ou une augmentation de 1 % au plus.

Le Professeur Pierre CHAMBON a pour sa part souligné que le renforcement de l'industrie pharmaceutique française passe par celui de la biologie. Au reste, l'investissement public dans la recherche biologique est faible parce que l'investissement privé dans ce domaine est minime. La recherche conduite par l'industrie pharmaceutique française est en effet réalisée à 80 % aux Etats-Unis. Le poids politique de la biologie et de l'industrie pharmaceutique est donc faible. La réduction des crédits des sciences du vivant au CNRS en francs constants est d'ailleurs patente depuis plusieurs années. De surcroît, selon toutes probabilités, le budget de la recherche biologique restera " mauvais " même si l'on parvient à passer d'une diminution projetée des crédits, à leur stabilisation.

Pourtant, si l'on veut relever l'industrie biologique en prenant appui sur les " start-up ", il est impératif de placer la recherche fondamentale dans des conditions favorables et ceci pendant plusieurs années, car un tel redressement prend du temps. La France possède les intelligences et les capacités techniques pour jouer les premiers rôles en biologie. Mais sans une prise de conscience des enjeux - qui n'a pas encore eu lieu dans notre pays - et sans un " effort particulier " pour la biologie, il n'y a aucun espoir que la France se rétablisse à l'égal des premiers.

M. René TRÉGOUËT, Sénateur, rapporteur, a remercié les orateurs pour leurs contributions au débat, particulièrement intéressantes pour les Rapporteurs spéciaux des Commissions des Finances que M. CUVILLIEZ et lui-même sont respectivement à l'Assemblée nationale et au Sénat.

Au reste, l'on peut se demander si les problématiques nouvelles de la recherche ne pourraient pas s'accompagner de solutions nouvelles. Pour préparer l'avenir, sans doute de nouvelles méthodes seraient-elles à inventer, comme par exemple l'allocation à des investissements de recherche d'une partie des recettes tirées de l'attribution des licences UMTS.

Quoi qu'il en soit, si de nouvelles solutions de financement étaient mises au point, il serait encore plus important pour l'Office parlementaire de pouvoir présenter au Gouvernement des projets pertinents et classés par ordre de priorité, tant en ce qui concerne les équipements que les ressources humaines.

A cet égard, s'agissant des sciences et technologies de l'information et de la communication (STIC) ainsi que des sciences du vivant, il faut se garder de tout a priori et sans doute lancer un débat national. Mais il appartient à la communauté scientifique de présenter des propositions pertinentes.

M. Christian CUVILLIEZ, Député, rapporteur, a remarqué que si la communauté scientifique exprimait ses craintes avec vigueur sur les perspectives budgétaires actuelles, le résultat des arbitrages n'en pourrait être que meilleur. En tout état de cause, il convient que chacun, en dehors de cette enceinte, prenne ses responsabilités.

M. Pierre TAMBOURIN a ajouté qu'au titre de ses anciennes fonctions de directeur des sciences du vivant au CNRS, il avait constaté que l'absence de décision du CNRS en faveur de la construction de TGE en biologie tenait non pas à des raisons scientifiques mais à des contraintes budgétaires. L'absence d'augmentation des crédits, une situation qui oblige à résoudre la quadrature du cercle, a effectivement conduit le CNRS à opter pour la préservation de ses acquis notamment en physique, quitte à ne pas pratiquer d'investissements en biologie.

Le Professeur Henri KORN, Directeur de recherche à l'Institut Pasteur, après avoir souligné la difficulté de la mission de l'Office sur les TGE, a remarqué que des équipements d'imagerie cérébrale ou d'informatique ne font pas partie de la catégorie des très grands équipements mais qu'ils le sont dans la réalité pour de nombreux laboratoires. Il convient donc de rectifier la définition actuelle, qui, si elle est claire pour les grands appareils de la physique, l'est beaucoup moins pour la biologie.

Il reste que l'on ne peut parler de très grands équipements sans évoquer l'importance des personnels techniques et scientifiques indispensables à leur pleine exploitation. A cet égard, on peut se demander si l'éclatement des pouvoirs décisionnels entre l'Etat et la région, même dans le cadre de contrats de Plan, n'est pas dans une certaine mesure dommageable. Il existe en effet des décisions d'achats de matériels prises par les régions qui, pour avantageux qu'elles soient pour la ou les disciplines bénéficiaires, ne sont pas toujours pesées en fonction des besoins des autres disciplines.

A l'issue de cet échange, la parole a été donnée au Dr. Fotis C. KAFATOS.

*

Le Dr. Fotis C. KAFATOS, Directeur général de l'EMBL (European Molecular Biology Laboratory), a indiqué que l'EMBL, un TGE européen modelé sur l'exemple du CERN, rassemble 16 pays : Allemagne, Autriche, Belgique, Danemark, Espagne, Finlande, France, Grèce, Israël, Italie, Pays-Bas, Norvège, Portugal, Royaume Uni, Suède, Suisse. L'EMBL fondé en 1974, résulte d'une convention internationale intergouvernementale.

L'EMBL possède 5 implantations. La première, décidée en 1974, est opérationnelle à Heidelberg depuis 1978.

En 1975, la décision a été prise de créer une antenne de l'EMBL à Hambourg, dans l'enceinte de DESY (Deutsche Elektronen Synchrotron).

En 1976, la construction est décidée d'une autre antenne à proximité de l'ILL (Institut Laue Langevin) à Grenoble, ce qui débouchera sur la mise au point coopérative du premier diffractomètre neutronique.

En 1993, la bibliothèque de données de l'EMBL, la première au monde à rassembler systématiquement des séquences de nucléotides, est transférée d'Allemagne à Cambridge où elle deviendra en 1997 l'EBI (European Bioinformatics Institute) sur le campus du génome du Wellcome Trust.

Enfin, un nouveau programme de génétique de la souris est lancé en 1999 à Monterotondo, à proximité de Rome.

Ces installations certes très différentes de celles de la physique sont-elles des très grands équipements ? Assurément, dans la mesure où elles sont absolument nécessaires pour toute recherche en biologie moléculaire.

La biologie moderne requiert de fait de nombreux instruments mais aussi d'autres investissements, comme par exemple des équipements de bioinformatique, en particulier, des bases données globales, complexes et interopérables. Si l'on cumule tous ces matériels et logiciels, l'on atteint l'échelle des TGE classiques, à quoi il faut bien entendu rajouter les chercheurs et les ingénieurs qui les construisent, les exploitent et assurent leur développement.

Mais pour traiter de la question des TGE nécessaires à l'avenir en biologie, il convient d'examiner l'avenir de cette discipline. En tout état de cause, il serait inconséquent de ne se préoccuper que de biologie appliquée et de laisser dans l'ombre la biologie fondamentale. L'exemple des Etats-Unis mérite d'être cité à ce sujet, où les chercheurs américains ont convaincu le Congrès de doubler le budget du National Institute of Health en 5 ans.

Au demeurant, si elle est désormais au centre de la biologie, la génomique est non pas une invention moderne mais bien plutôt une évolution de la question centrale et ancienne qui est la relation des gènes et de leurs fonctions.

Quoi qu'il en soit, le XXIe siècle sera celui de la génomique fonctionnelle.

Le séquençage du gène est certes une réalisation " passionnante " mais ce n'est qu'un " commencement ".

Sur un plan méthodologique, il convient de mettre au point une approche méthodologique pour déterminer comment le génome assure une multitude de fonctions. Or la biologie est une discipline éminemment complexe. Plusieurs niveaux successifs doivent être étudiés : le niveau moléculaire sur les plans chimiques et structuraux, les associations de molécules, le niveau sub-cellulaire, la cellule et l'organisme. En conséquence, il s'agit d'analyser comment le gène fonctionne à tous ces niveaux mais aussi de comprendre les interactions entre ces différents niveaux.

Une approche multidisciplinaire mise en _uvre par des spécialistes de chacun des niveaux indiqués est donc obligatoire.

Les compétences indispensables sont nombreuses en génomique fonctionnelle. Ce sont en réalité l'ensemble des disciplines qu'il faut rassembler, avec un rôle particulier joué par la bioinformatique. En outre, le séquençage du génome humain ne saurait suffire. Il doit être complété par le séquençage des génomes de la souris, d'autres animaux et des plantes, afin de permettre des études comparatives. En effet, l'évolution des organismes vivants depuis 4 milliards d'années donne des instruments utiles pour comprendre le génome humain.

En définitive, la biologie a besoin de centres d'excellence ayant une masse critique, dotés de très grands équipements et recourant systématiquement à la multidisciplinarité. On peut se demander à cet égard si une telle démarche peut intervenir dans un cadre national.

Au demeurant, la question centrale est simple. L'Europe dispose d'une fenêtre d'opportunité de 2 à 3 ans pour rattraper son retard et prendre place dans la compétition mondiale en tant qu'acteur de premier rang doté d'une puissance suffisante. Faute de relever ce défi en temps utile, l'on assistera dans le domaine de la biologie à la formation d'un monopole scientifique et industriel des Etats-Unis voire à celle d'un duopole Etats-Unis - Japon.

Dans cette compétition, l'Europe n'est pas démunie d'atouts, bien au contraire, avec une capacité d'innovation très importante. Ainsi, la première base de données de grande ampleur sur les séquences de nucléotides a été créée par l'EMBL, un an avant le NIH américain. Au surplus, le démarrage de la base américaine a été très lent. Mais, désormais, son budget est trois fois et demi supérieur à celui du projet de l'EMBL.

En dernière analyse, la question financière est donc d'une importance critique. Comment, dans ces conditions, ne pas relever que les efforts en faveur de la biologie sont très inférieurs à ceux bénéficiant aux autres disciplines ? La contribution de la France au budget de l'EMBL s'élève annuellement à 46 millions de francs, alors qu'elle est de 616 millions de francs pour le CERN. Globalement, les dépenses consenties pour ce que l'on pourrait appeler les TGE biologiques, représentent environ 1 % du total de 4,580 milliards de francs consacrés à l'ensemble des TGE.

Quelles ambitions donner dans ce contexte à l'EMBL pour les 5 prochaines années ?

Au plan global, des efforts importants sont aujourd'hui engagés tant en France, qu'en Allemagne, en Suisse et bien sûr au Royaume Uni, ce qui démontre une prise de conscience du caractère stratégique et même vital de la biologie pour le XXIe siècle. Pourtant, deux motifs d'inquiétude doivent être mentionnés.

En premier lieu, les niveaux d'investissement ne doivent pas être fixés par référence au passé mais en fonction des enjeux.

En second lieu, il existe malheureusement pour le moment un défaut de conceptualisation en biologie qui apparaît dans certains projets. Ceci constitue sans nul doute un frein à l'augmentation pourtant nécessaire des efforts.

Une des difficultés de la situation actuelle est qu'en réalité, il est difficile de " forcer " la recherche en biologie, c'est-à-dire d'en accélérer le rythme. Plus encore peut-être que pour les autres disciplines, la qualité des recherches y dépend en effet étroitement de celle des individus et de leur liberté d'action.

*

Dans la discussion qui s'est engagée après cette présentation, M. Gilles COHEN-TANNOUDJI, membre du groupe de travail, a remarqué que le concept de centre d'excellence apparaît régulièrement dans les propos tenus lors des auditions. Le Directeur de la recherche a clairement indiqué que les futurs TGE ne pourraient plus à l'avenir être implantés " n'importe où ". Le responsable du LETI a également souligné l'importance d'une concentration de moyens sur un même site. Ces considérations sont de nature à changer la réflexion en cours sur les TGE, puisque aussi bien les TGE pourraient bien n'être à l'avenir qu'un élément constitutif parmi d'autres d'un grand centre d'excellence.

Le Professeur Henri KORN a souligné l'importance de cette remarque qui met en évidence une difficulté souvent rencontrée dans le dialogue entre les scientifiques et les politiques. Si la communauté scientifique est capable de se penser en terme d'excellence, ce discours, pourtant nécessaire, n'est pas toujours recevable et reçu par les politiques.

M. Pierre TAMBOURIN a confirmé que le monde politique accorde dans le domaine des investissements de recherche un poids important aux exigences de l'aménagement du territoire. Aujourd'hui, il convient au contraire de ne pas dissocier l'implantation des TGE de l'impératif de constitution de centres d'excellence.

A propos des critères de localisation d'un TGE, M. René TRÉGOUËT, Sénateur, rapporteur, a rappelé que l'Office parlementaire, s'il n'a pas préconisé de site particulier pour le nouveau synchrotron national, a toutefois énoncé des critères de choix qui lui ont semblé essentiels pour une utilisation optimale du synchrotron tant en termes d'accessibilité que de synergie avec la recherche et l'enseignement. Pour autant, il appartient au Gouvernement, et à lui seul, de trancher.

S'agissant du nouveau problème à résoudre par l'Office, il importe sans doute de repenser la définition des TGE de façon à rendre compte de deux réalités nouvelles et fondamentales, d'une part les TGE en réseau et d'autre part les pôles d'excellence. Au reste, il est loisible de se demander si un pôle d'excellence peut être constitué d'entités travaillant en réseau ou bien au contraire s'il est indissociable d'une concentration de ressources humaines.

Mme Claudine LAURENT, membre du groupe de travail, a remarqué que si l'on commence à évoquer la notion de TGE pour la biologie, c'est en raison d'un phénomène déjà observé dans d'autres disciplines, à savoir le rôle croissant qu'y joue la technologie.

Le Dr. Fotis C. KAFATOS a approuvé cette remarque. Depuis deux générations, les chercheurs en biologie mobilisent des moyens techniques croissants. Quant à l'EMBL, dès sa création, 40 % de son budget d'investissement ont été consacrés à la mise en place de réseaux et à l'acquisition de moyens techniques de pointe. Dans ce domaine, il n'existe pas de grand équipement unique et centralisé structurant la recherche mais au contraire des technologies multiples à rassembler, dont la plupart sont à base d'électronique. La constitution de centres d'excellence est à tous égards indispensable.

Le Professeur Dino MORAS a estimé que des grands instruments " de taille moyenne " sont certes nécessaires aux progrès de la biologie mais que les investissements vitaux pour la biologie sont au premier chef les investissements en ressources humaines multidisciplinaires qu'il faut impérativement rassembler autour des plateaux techniques. Une certaine diversification peut se faire selon les centres mais chacun d'entre eux doit être construit autour d'un projet fédérateur.

Le Professeur Pierre CHAMBON a pour sa part averti que la communication électronique entre biologistes grâce aux réseaux informatiques ne saurait pallier leur éloignement les uns des autres.

Les grands centres de recherche disposent de plateaux techniques qui ne peuvent être éclatés. Sur un même site, doivent être rassemblés les ingénieurs et techniciens qui ont usage quotidien des équipements et les spécialistes qui développent ces mêmes outils. Au demeurant, les échanges directs entre chercheurs sont irremplaçables. Un grand centre d'excellence ne peut trouver son équivalent dans plusieurs centres en réseaux.

Au reste, ce qui fait progresser la science, c'est la technologie, au-delà des " coups de génie ". La biologie bénéficie certes d'une évolution technologique, mais les grandes avancées ne datent que de 25 ans. Pour l'ensemble de ces raisons, on ne peut extrapoler l'évolution des autres sciences pour prévoir les besoins de la biologie.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé qu'il ne saurait toutefois suffire pour les biologistes de revendiquer des budgets en forte croissance sans détailler leurs besoins et sans les inclure dans un programme d'ensemble.

De toute évidence, il est nécessaire de changer d'échelle pour les investissements relatifs à cette discipline qui seuls pourraient permettre de rattraper le retard européen, à l'image de l'effort exceptionnel consenti dans le spatial par les Etats-Unis pour combler leur retard sur l'Union soviétique à l'époque des spoutniks.

On doit toutefois convenir que les biologistes américains ont su quant à eux convaincre le Congrès de l'importance de leurs projets. La cohésion de la communauté scientifique joue certainement un rôle dans ce succès.

Le Professeur Henri KORN a noté que " le consensus est rare chez les scientifiques ". S'agissant des sciences du vivant, si l'on a parlé avec raison de la génomique et de ses besoins en très grands équipements, il existe un autre pôle de recherche, les neurosciences, dont la génétique et la biologie moléculaire ne devraient pas livrer la clé du fonctionnement.

Le retard de la France dans le domaine des neurosciences est considérable. La situation est identique pour la physiologie, pourtant si importante pour le post-génome.

Ce sont le manque de moyens et une organisation trop étroite de la recherche qui sont la cause du retard des neurosciences dans notre pays. Le retard de la discipline elle-même n'est que marginal. En revanche, le déficit en nombre de chercheurs, les carences en équipements et l'insuffisance des coopérations avec les autres disciplines sont incontestables.

Le précédent ministre de la Recherche, M. Claude ALLÈGRE, avait confié au Professeur Henri KORN une mission de recensement des besoins de la recherche française en imagerie cérébrale, la technique fondamentale pour l'étude du fonctionnement du cerveau. La conclusion de cette étude tient en trois points. Pour l'imagerie cérébrale de l'homme, la situation de notre pays n'est pas trop mauvaise. L'imagerie des primates est quant à elle un domaine en souffrance. Quant aux moyens d'imagerie du petit animal, ils sont inexistants. Ces conclusions et leurs considérants sont en droite ligne des conceptions du Dr. Denis LE BIHAN.

La parole a ensuite été donnée à ce dernier.

*

Le Dr. Denis LE BIHAN, Directeur de recherche au Laboratoire de neuro-imagerie anatomique et fonctionnelle du Service hospitalier Frédéric Joliot à Orsay (CEA), a exposé que, si l'intérêt de l'imagerie dans les sciences cognitives justifie un éventuel projet national, il convient au préalable de faire un état de lieux puis de définir les moyens nécessaires.

Quels sont les enjeux de la recherche dans le domaine des neurosciences ?

Le premier enjeu est celui de la santé, avec la mise au point de traitements des maladies neurologiques, le développement de la neurochirurgie et les progrès de la psychiatrie. Un autre enjeu considérable également est la lutte contre le vieillissement cérébral et le développement des techniques de rééducation. La recherche en neurosciences peut également contribuer à améliorer la connaissance du développement de l'enfant, le lien entre la génétique et les sciences cognitives étant au demeurant à approfondir. Les applications en sont nombreuses, allant de l'apprentissage des langues étrangères à l'analyse des modes de communication entre individus, en passant par celle des interfaces homme-machine. Outre ces enjeux pratiques d'une importance considérable, les neurosciences participent bien évidemment du défi cognitif général de l'humanité. Il est à noter, à cet égard, que la communauté scientifique américaine a su convaincre le Congrès des Etats-Unis qu'il s'agit là d'un enjeu national, à l'instar de la génomique, dans le cadre du programme " The Decade of the Brain " puis du programme actuel " The Human Brain Project ".

En quoi l'imagerie cérébrale est-elle une technique incontournable pour les neurosciences et quels sont ses différents domaines ?

L'imagerie est une technique irremplaçable pour deux raisons.

La première résulte du fait qu'il existe une relation entre la localisation anatomique et la fonction des aires corticales.

La deuxième raison est qu'il s'agit d'un moyen non invasif qui permet l'étude non seulement de patients mais aussi de sujets normaux, voire d'enfants.

De surcroît, l'imagerie appliquée aux animaux, en particulier aux primates, permet de faire le lien entre les données électrophysiologiques enregistrées au niveau de quelques neurones et celles plus globales obtenues par l'imagerie chez l'homme.

L'imagerie contribue également à l'étude de l'expression des gènes chez l'animal, en particulier sur les souris transgéniques.

Au reste, l'imagerie cérébrale des animaux est de plus en plus utilisée pour développer des médicaments, car elle permet le suivi dans le temps de leurs effets sur un nombre restreint d'animaux.

C'est pour l'ensemble de ces raisons que 12 centres d'imagerie cérébrale appliquée aux petits animaux dotés de plusieurs types d'équipements ont été créés récemment aux Etats-Unis, le total devant atteindre la vingtaine dans les prochaines années.

La France, quant à elle, dispose de quelques instruments isolés, souvent anciens, mais ne possède encore aucun centre regroupant l'ensemble de ces instruments, à part celui du CEA à Orsay dont le parc, qui comprend déjà des caméras à positons, et deux IRM à 1,5T et 3 T, demande toutefois à être complété. L'Allemagne et le Royaume Uni pour leurs parts, possèdent quelques centres et ont des projets ambitieux.

De quels moyens la France dispose-t-elle déjà et quels sont les moyens supplémentaires dont elle devrait se doter ? Deux types sont à distinguer, aussi indispensables l'un que l'autre, les " imageurs " et les ressources humaines.

En matière " d'imageurs ", on distingue classiquement les équipements lourds des moyens mi-lourds.

Les caméras à positons qui permettent de mettre en évidence les phénomènes de neurotransmission ainsi que l'expression génétique représentent la première catégorie d'équipements lourds. D'un coût d'environ 10 millions de francs, les caméras à positons supposent la production sur place d'isotopes, l'utilisation d'un cyclotron et la présence d'un laboratoire de radiochimie. Il en existe en France quatre utilisées en recherche, ce qui semble satisfaisant pour la recherche en neurosciences mais est insuffisant pour les protocoles cliniques.

La deuxième catégorie est constituée par les machines de magnéto-encéphalographie, qui donnent des informations fines sur les localisations. Les machines actuelles valent environ 12 millions de francs. Le coût des machines de nouvelle génération qui comportent un grand nombre de capteurs, devrait doubler pour atteindre 24 millions de francs.

La troisième catégorie, celle de l'imagerie et de la spectroscopie par RMN (résonance magnétique nucléaire), comprend trois familles d'équipements.

Les " imageurs " à 1,5 Tesla dont le coût est de 12 millions de francs sont des machines destinées en priorité aux examens cliniques. Faute de moyens suffisants, les mêmes imageurs sont aussi utilisés en France pour la recherche, ce qui pose des problèmes pour l'expérimentation.

Les " imageurs " à 3-4 Tesla d'un coût de 24 à 25 millions de francs sont considérés comme des équipements de pointe en France pour l'étude du fonctionnement cérébral, alors qu'ils se banalisent aux Etats-Unis pour les applications cliniques. Les machines à très hauts champs, c'est-à-dire à 7-10 Tesla, d'un prix de 60 millions de francs, commencent à être installées aux Etats-Unis, alors qu'il n'en est pas encore question dans notre pays.

La troisième famille est celle des imageurs pour les petits animaux et les primates qui mettent en oeuvre des champs de 4 à 17 Tesla, pour des coûts allant de 10 à 25 millions de francs.

A tous ces équipements lourds et complémentaires, il faut ajouter les matériels d'informatique et de télécommunications indispensables. Un examen IRM à 1,5 ou 3 Tesla peut produire 10 à 20 000 images par heure. Il faut donc des lignes de transfert à haut débit, des puissances de calcul et des dispositifs d'archivage très importants. Une alternative à l'équipement autonome de chaque centre serait de disposer d'un ou deux centres de calcul nationaux auxquels les centres d'imagerie seraient connectés.

A ces différents équipements lourds, il faut ajouter les " imageurs " mi-lourds au nombre desquels on compte les équipements d'imagerie gamma ou infrarouge.

Si l'ensemble de ces équipements lourds et mi-lourds sont indispensables, il faut aussi des compétences multidisciplinaires pour en tirer parti. Les problèmes d'acquisition et de traitement du signal, par exemple, nécessitent l'intervention de physiciens. Ainsi, l'étude des processus cognitifs fins qui se caractérisent par des signaux d'amplitude très faible, comparable au bruit, constitue un problème qui est du domaine du traitement du signal, comme en ont l'habitude les astrophysiciens, mais ne trouve pas de solution aisée faute d'une coopération interdisciplinaire bien établie. De même le dialogue entre méthodologistes et cliniciens s'avère parfois difficile, y compris au sein d'un même laboratoire.

L'expérience montre qu'il faut une unité de lieu pour les instruments d'imagerie pour atteindre la masse critique nécessaire et favoriser les interactions entre développeurs et utilisateurs. Ces sites doivent être à proximité des équipes de neurosciences et du milieu hospitalier.

D'une manière générale, la France manque cruellement de personnels d'interfaces, spécialistes des équipements scientifiques, _uvrant à leur développement et transférant les connaissances aux utilisateurs.

Sur la base des techniques disponibles et des besoins afférents en personnel, quels pourraient être les contours d'un projet national ambitieux en imagerie cérébrale ?

L'un des objectifs technologiques de ce programme devrait être la mise au point dans les 10 ans à venir au plus, de nouveaux systèmes d'imagerie permettant l'étude l'activité de quelques dizaines de neurones avec une résolution temporelle passant de 1000 à 100, voire 10 millisecondes, afin de mieux comprendre le cerveau humain.

La France, qui possède des spécialistes très performants en physique et en traitement d'image est capable de mener à bien un tel projet.

S'agissant des instruments, l'état des lieux pour l'imagerie cérébrale auquel il a été procédé dans les derniers mois montre qu'on ne part pas de zéro. La France possède déjà deux pôles techniques où l'on trouve des moyens lourds, l'Ile-de-France avec Orsay (CEA) et l'hôpital de la Salpêtrière, et, Rhône-Alpes avec l'ensemble constitué par Lyon et Grenoble. Ces deux pôles, dont les masses critiques sont insuffisantes, constituent toutefois des bases de départ incontournables.

Ces deux pôles nationaux sont complétés par des centres régionaux, qui ne disposent pas chacun de tous les instruments mais détiennent des plateaux techniques respectables. Ainsi l'Est de la France est doté en instruments de magnéto-encéphalographie, en caméra à positons et en IRM, de même que Marseille, l'ensemble Toulouse-Bordeaux, l'Ouest avec l'ensemble Rennes-Caen.

Un plan national devrait comporter deux axes, le premier concernant la mise à niveau du parc existant en terme de compétitivité et le deuxième visant à prendre de l'avance en anticipant les évolutions technologiques.

S'agissant de l'augmentation de compétitivité du parc existant, la mise à jour des équipements anciens représente une enveloppe budgétaire de 100 millions de francs environ.

Un autre effort est à consentir pour les dépenses de fonctionnement, qui représentent annuellement de 5 à 10 % de l'investissement.

Les personnels desservant ou utilisant ces machines doivent eux aussi être renforcés. L'on constate trop souvent en effet que les financements, notamment ceux des collectivités locales, ne prévoient rien au delà de l'achat des matériels. Il faut donc une politique de ressources humaines coordonnée non seulement dans le cadre des contrats de Plan Etat-régions mais aussi entre les organismes de recherche. Au-delà, une coordination nationale est indispensable, en incluant dans les prévisions des budgets de fonctionnement et de personnel suffisants.

S'agissant de l'innovation technologique, la création d'un Centre national ou européen d'imagerie cérébrale est envisageable. L'investissement correspondant représente 150 millions de francs par an sur au moins 5 années.

Il s'agit en l'occurrence d'investir pour innover, avec, en particulier, la mise au point d'IRM à très haut champ, c'est-à-dire 10 Tesla pour l'homme et 14 à 17 Tesla pour l'animal.

Un tel investissement représenterait-il une dépense exceptionnelle ?

A titre d'exemple, la seule université de Harvard a récemment décidé la création d'un institut comprenant 2 " imageurs " de 3 Tesla, une machine de 7 Tesla et deux machines de 14 Tesla pour la souris. D'autres institutions ont une démarche similaire, en particulier le NIH à Bethesda, San Diego et à l'université du Minnesota. Par ailleurs, un pôle du même type a été financé à Londres par le Wellcome Trust.

D'autres domaines d'innovation sont ceux de l'utilisation de l'imagerie à des fins thérapeutiques et le développement d'autres instruments correspondant à des techniques émergentes. L'importance des équipes de chercheurs et d'ingénieurs et techniciens assurant le fonctionnement du Centre national ne doit pas être sous-estimée.

A l'issue de cette présentation, le Professeur Pierre CHAMBON, a fait le constat que les différentes équipes potentiellement concernées par un tel plan dépendent d'organismes différents qui ne savent pas travailler ensemble. Il a estimé en conséquence que la pérennisation de l'organisation actuelle conduirait à un échec.

Au reste, les neurosciences ressortissent de la génomique fonctionnelle, de même que le fonctionnement d'un organe comme le foie. Les instruments que les neurosciences mettent en _uvre sont certes d'une technicité plus élevée que pour les autres disciplines et l'interprétation des relevés expérimentaux plus complexe. Mais il faudrait que le Centre national d'imagerie soit implanté sur un site actif dans la génomique fonctionnelle, de façon que l'ensemble atteigne une masse critique. La question des ingénieurs et techniciens capables d'exploiter et de développer les instruments est évidemment capitale.

Le Dr. Denis LE BIHAN a ajouté qu'il ne s'agit pas d'un manque de coordination entre organismes, des réflexions concertées existant entre les directions de ces organismes. Il s'agit plutôt d'un manque de coordination entre les collectivités locales qui investissent dans des instruments en fonction de critères régionaux ou locaux sans lien avec les structures nationales qui doivent mettre à disposition le personnel nécessaire et assurer le fonctionnement.

D'autre part, s'il est vrai que toute la biologie peut être ramenée à la génomique, il reste que l'imagerie biomédicale a des spécificités propres, qui méritent d'être identifiées et reconnues. Le regroupement local ou en réseau de ressources d'imagerie représente des investissements, des coûts et des ressources humaines qui entrent dans le cadre des Grands Instruments en Biologie.

La parole a ensuite été donnée à Mme Geneviève ROUGON.

*

Mme Geneviève ROUGON, Directeur scientifique adjoint au Département des sciences du vivant du CNRS, a indiqué qu'elle souscrivait aux propos de MM. CHAMBON et TAMBOURIN. Il faut bien constater que le Département des sciences du vivant qui reconnaît pourtant l'importance de la génomique fonctionnelle, fait preuve d'une certaine impuissance à agir rapidement. La même communauté de vue avec MM. CHAMBON et TAMBOURIN existe également pour les très grands équipements.

Par exemple, un équipement actuel du CNRS qui pourra, après sa montée en puissance, entrer dans la catégorie des grands équipements des sciences du vivant est le centre d'Orléans pour la transgenèse et la conservation de lignées de souris mutantes.

S'agissant des plateaux techniques comprenant des animaleries et des moyens d'analyse de la fonction des gènes ainsi que des moyens techniques de découverte et d'analyse de molécules actives dans le cadre du " drug design ", le CNRS considère qu'ils recouvrent ce que l'on désigne sous le nom de génopoles. Cependant, le CNRS souligne qu'il possède en particulier des laboratoires performants dans les sciences du vivant et la génomique fonctionnelle qui n'appartiennent pas aux génopoles.

Les recherches sur la diversité et les écosystèmes ne sauraient être oubliées par le CNRS, y compris la réalisation d'un " écotron ".

En matière d'imagerie, le projet exposé par le Dr. LE BIHAN rencontre l'adhésion du CNRS qui souhaite aussi concentrer ses forces dans ce domaine. Pour autant, il ne faudrait pas " brouiller le paysage ". Le développement des neurosciences s'inscrit naturellement dans le programme de génomique fonctionnelle. A cet égard, la position du CNRS est que la connaissance des gènes permettra d'avancer dans la connaissance du cerveau.

La nécessité de projets est incontestable, de même que la constitution de réseaux.

Au demeurant, le CNRS considère indispensable de considérer les très grands équipements sous tous leurs aspects. Les dépenses doivent de toute évidence comprendre l'investissement, le fonctionnement mais également, et c'est sans doute le plus important, les rémunérations des personnels compétents de toutes les disciplines qu'il faut rassembler autour des TGE.

Le CNRS a parfaitement conscience que la concertation et la coopération entre grands organismes de recherche doivent s'accroître, y compris au niveau européen et participe activement aux réflexions avec les autres organismes dans le cadre des réunions RIO.

M. Jean-Claude THIERRY, chargé de mission au département des sciences du vivant, a approuvé la description faite par M. Pierre TAMBOURIN de la problématique des TGE au CNRS. Les sciences du vivant ont connu depuis 30 ans une explosion technique qui constitue aujourd'hui à la fois une opportunité et un défi.

Parmi les points critiques actuels, la bioinformatique constitue un enjeu d'une importance particulière en ce qu'elle touche toutes les sous-disciplines de la biologie, d'où la nécessité de mettre en place des outils de puissance et de bien en distribuer les accès.

S'il est nécessaire de cibler les défis tant ils sont importants et nombreux, il convient en premier lieu d'insister sur la pluridisciplinarité, car la biologie avec sa complexité extraordinaire s'étend à des champs de plus en plus étendus. Au demeurant, l'intégration fonctionnelle des gènes et leurs dépendances mutuelles ajoutent encore à la difficulté de l'analyse. La constitution de pôles d'excellence est dans ces conditions impérative.

Le CNRS est tout à fait conscient de ces enjeux. Malgré les difficultés, il souhaite " bien faire " et s'y engage totalement. En tout état de cause, le CNRS a déjà commencé à avancer, notamment dans le domaine de la bioinformatique.

La parole a ensuite été donnée au Professeur Patrice DEBRÉ.

*

Le Professeur Patrice DEBRÉ, directeur scientifique auprès du Directeur général de l'INSERM, a déclaré que cet organisme rejoint globalement les conclusions énoncées sur l'urgence de l'effort à engager sur les sciences du vivant, même si ses spécificités le conduisent à des positions particulières sur certains points.

En tout état de cause, s'il est question d'une politique nationale pour les très grands équipements, l'INSERM doit participer à leur conception ainsi qu'aux décisions relatives à leur répartition. A cet égard, il doit tenir toute sa place au sein de la coordination des directeurs généraux des grands organismes souvent dénommée RIO par référence à leurs réunions. La participation à la réflexion inter-organismes représente le premier engagement de l'INSERM à la mise en _uvre d'une politique de TGE. L'action est ici d'ordre stratégique.

Le deuxième volet de l'action de l'INSERM dans ce domaine concerne l'accroissement de l'usage des TGE par ses personnels. Les chercheurs de l'INSERM sont de tradition moins formés à l'utilisation des TGE que ceux du CNRS. Plus proches des préoccupations cliniques, il s'agit désormais de réduire le fossé qui sépare ces chercheurs de terrain d'une utilisation fréquente des technologies d'avant-garde en les mettant en relation étroite avec les ingénieurs et techniciens en charge de ces équipements. L'action est ici dans le domaine de l'information et de la formation.

Pour l'INSERM, il s'agit non seulement d'identifier en son sein les chercheurs volontaires pour travailler sur les TGE mais aussi de les mettre en réseau. Il convient également de trouver des partenariats (hôpital, université, autres EPST, fondations caritatives) sur des sujets de recherche ayant trait à des pathologies pouvant tirer bénéfice des moyens expérimentaux apportés par les TGE, ces deux actions relevant du domaine de l'animation.

La quatrième préoccupation de l'INSERM en matière de TGE est d'être partie prenante des processus de décision concernant leur localisation. L'INSERM devant être plus volontiers implanté au contact des malades et donc sur des sites hospitaliers ou à proximité, il convient en premier lieu d'_uvrer pour que cette contrainte soit prise en considération lors du choix des sites de TGE. Ainsi, il est nécessaire que les centres d'imagerie dont le développement pourrait être décidé, soient effectivement à proximité d'établissements hospitaliers dotés de services ad hoc tels ceux dédiés au traitement des maladies neurologiques pour l'imagerie cérébrale.

Réciproquement, l'INSERM devrait tenir compte de la localisation des TGE pour l'implantation de ses laboratoires de recherche sur les différentes pathologies.

A l'issue de cette présentation, la parole a été donnée à M. Michel VAN DER REST.

*

M. Michel VAN DER REST, Directeur de l'IBS (Institut de Biologie Structurale) de Grenoble, représentant le Professeur André SYROTA, Directeur du Département des sciences du vivant du CEA, a estimé que la spécificité d'un très grand équipement (TGE) est de mettre en _uvre d'une manière concertée et coopérative un ensemble de moyens techniques au service d'une communauté large d'utilisateurs.

Le Département des sciences du vivant du CEA compte 600 chercheurs, ce qui est naturellement peu de choses par rapport aux forces du seul CNRS. Toutefois, la force de ce département est supérieure à ce que pourraient laisser supposer ses effectifs, grâce à un nouveau ciblage de ses travaux.

Par ailleurs, la capacité du CEA à se redéployer rapidement est illustrée par la publication récente dans Science d'une étude sur les enzymes de réparation cellulaire par une équipe dont ce n'était pas la spécialité deux ans auparavant.

En tout état de cause, les axes de recherche fondamentaux du Département des Sciences du vivant du CEA sont aujourd'hui le marquage isotopique - une des spécialités de la médecine nucléaire traditionnelle au CEA -, la biologie structurale, l'ingéniérie des protéines, ainsi que la radiobiologie et la toxicologie nucléaire, domaines indispensables pour permettre une " cohabitation " du nucléaire et du vivant.

Le CEA participe à RIO, un lieu de concertation dont il convient toutefois de noter qu'il est récent. Il participe également aux génopoles, notamment pour les travaux de protéomique et les recherches sur le transcriptome. Ce qui résulte de l'évolution récente de la recherche, c'est évidemment qu'il faut définir les TGE de manière collective.

Les applications croisées de la microélectronique et de la biologie avec les biopuces fournit un bon exemple de l'interdisciplinarité croissante entre les disciplines de pointe. Deux approches seraient possibles en la matière, l'une privilégiant la fabrication des biopuces, l'autre s'efforçant d'aller au-delà de cette application en vue de réaliser des hybridations à haut débit et de réaliser de véritables " labopuces ", ce qui suppose l'utilisation des technologies issues non seulement de la biologie, de la microélectronique mais aussi de la microfluidique utilisée dans le nucléaire.

En tout état de cause, le Pôle d'innovation en micro et nanotechnologies de Grenoble devrait être considéré comme un TGE.

Un aspect essentiel d'une politique de TGE devrait être par ailleurs la prise en considération des besoins d'amont. Ainsi, en ce qui concerne le synchrotron, il est indispensable de renforcer les structures de production des protéines. Dans cette perspective, le CEA a repris près de 50 membres du personnel de CisBio, une société du groupe CEA Industries vendue à Schering, afin de monter une structure de production de protéines, notamment pour ses travaux d'expression de protéines impliquées en toxicologie nucléaire.

Au vrai, il existe un besoin urgent non seulement pour la production de macromolécules mais aussi pour l'analyse des structures, ces besoins portant non seulement sur les infrastructures matérielles mais également et surtout sur les personnels.

On reconnaît généralement au CEA la capacité de prendre des décisions fortes en matière de ses activités. Le CEA fournit en outre un exemple d'organisation intéressant, dans la mesure où il reste à la Direction des sciences du vivant pour son fonctionnement et ses investissements une part très significative de son budget après le paiement des charges salariales, contre moins de 20 % au CNRS.

Cette capacité particulière de décision du CEA serait d'autant mieux utilisée que son budget ne ferait pas peser sur lui une contrainte trop forte.

Un débat s'est ensuite engagé sur la coordination des activités des grands organismes de recherche.

Le Professeur Patrice DEBRÉ, après avoir estimé que la coordination dans les sciences du vivant est plus facile à dire qu'à réaliser, s'est félicité de son existence.

Mme Geneviève ROUGON a indiqué que l'on dispose des informations rassemblées par ce groupe au sujet des animaleries, de l'imagerie cérébrale, des biopuces et de la génomique fonctionnelle.

M. René TRÉGOUËT, Sénateur, rapporteur, en a demandé communication.

Mme Claudine LAURENT a rappelé qu'il existe également au niveau européen des réunions de coordination des directeurs des grands organismes de recherche.

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, sur l'existence éventuelle d'une coordination aux Etats-Unis, le Dr. Denis LE BIHAN a précisé que les deux grands organismes fédéraux dispensateurs de crédits dans le domaine des sciences de la vie sont le NIH (National Institute of Health) et la NSF (National Science Foundation), à quoi il faut ajouter des ministères comme le Department of Energy. Pour autant, il n'existe pas de coordination entre les agences gouvernementales, la recherche universitaire et la recherche privée. Les laboratoires sollicitent l'ensemble des sources de financement sur la base des projets qu'ils mettent au point.

M. Robert COMÈS a souligné l'importance du rôle des armées dans le financement de la recherche aux Etats-Unis.

Le Professeur Henri KORN a par ailleurs précisé que 95 % de la recherche sur la défense est réalisée aux Etats-Unis par des laboratoires universitaires ou publics.

M. Michel VAN DER REST a estimé que s'agissant de la situation française, une meilleure coordination serait possible avec une agence de moyens dotée de ressources fortes. Sur la question des réseaux de recherche, il a indiqué que le Canada développe des centres d'excellence en créant des réseaux de laboratoires et en dégageant des moyens nationaux pour des projets communs.

A l'issue de cette présentation, une discussion est intervenue sur la notion de centre d'excellence.

*

M. Jean GALLOT, membre du groupe de travail, a considéré que la question des liens entre centres d'excellence et aménagement du territoire devait être traitée en profondeur. Les critères évoqués pour le choix de leur localisation sont nombreux. L'Office les a énoncés dans son rapport sur le synchrotron. Deux autres aspects ont été énoncés au cours de l'audition, la proximité des sites hospitaliers d'une part et le contact avec un tissu de jeunes entreprises.

Il ne faudrait pas toutefois que la notion de centre d'excellence soit par trop rattachée à la situation existante. En réalité, on constate une dynamique dans la vie des centres d'excellence : certains disparaissent, d'autres partent de rien pour monter rapidement et s'imposer au niveau national. Les liens entre la constitution de centres d'excellence et l'aménagement du territoire doivent donc examinés plus en détail que n'y oblige la simple lecture d'une situation à une date donnée.

Au demeurant, les scientifiques doivent d'eux-mêmes aborder le problème de la diversification des implantations et de l'aménagement du territoire. Seuls certains équipements requièrent en effet une accumulation de moyens sur un même site.

En tout état de cause, dans une situation où les crédits budgétaires sont insuffisants, les ressources financières vont naturellement aux équipements existants et, parmi ceux-ci, à ceux dont la taille est la plus importante. Cette automaticité doit être remise en cause dans le cadre d'une réflexion sur l'aménagement du territoire lié à la politique des centres d'excellence. L'exemple de Grenoble démontre avec éclat que la science peut progresser ailleurs que dans ses implantations traditionnelles.

M. Roger BALIAN, membre du groupe de travail, a, pour sa part, estimé qu'il faut concentrer les moyens dans un petit nombre de centres. Le développement de la physique au CEA le démontre. Cette discipline s'est développée rapidement car les équipes ont été rassemblées sur deux sites, Saclay et Grenoble. D'une manière générale, c'est la concentration de moyens intellectuels qui est essentielle.

M. Jean GALLOT a précisé que, selon lui, il ne peut y avoir d'automaticité entre centres d'excellence existants et centres d'excellence futurs.

M. Roger BALIAN a souligné que les scientifiques français ne sont pas assez nombreux pour être répartis sur tout le territoire et que la liste des grands centres scientifiques d'excellence, c'est-à-dire ceux qui sont compétitifs à l'échelle mondiale dans plusieurs disciplines, s'arrête à l'Ile-de-France, à Grenoble, à Toulouse et à Strasbourg, une concentration au demeurant comparable à ce qui existe à l'étranger.

Par ailleurs, une lourde erreur a été commise avec la création d'universités de plein exercice sur tout le territoire, alors qu'il aurait fallu se limiter à la création d'antennes. Ceci a eu pour conséquence de créer des laboratoires sans moyens réels, matériels ou humains. En tout état de cause, la concentration est nécessaire à moyens constants mais aussi lorsque ceux-ci s'accroissent.

M. René TRÉGOUËT, Sénateur, rapporteur, a remarqué que la France connaît un nouveau fonctionnement de l'Etat, à la suite de la décentralisation.

M. Roger BALIAN a estimé que celle-ci est une " catastrophe " en ce qui concerne la recherche fondamentale.

M. René TRÉGOUËT, Sénateur, rapporteur, a mis au contraire en avant les financements nouveaux apportés par les régions, soulignant que le futur synchrotron national se fera grâce à l'apport des régions.

Sur ce dernier point, le Professeur Pierre CHAMBON a estimé qu'un investissement de 2 milliards répartis sur 8 ans correspondant à la construction d'un synchrotron est, somme toute, peu important et que le débat médiatique qui a entouré l'examen de ce projet n'était ni sensé ni opportun.

Pour M. René TRÉGOUËT, Sénateur, rapporteur, la régionalisation existe et il s'agit de trouver des synergies entre les actions de l'Etat et celle des régions.

Au reste, dans le domaine scientifique, c'est aujourd'hui la notion d'interfécondation qui est fondamentale. L'étude de l'Office sur le synchrotron l'a clairement mis en évidence. Si les disciplines ont été longtemps verticales et compartimentées, ce qui est nouveau et fondamental dans les sciences du vivant comme dans les sciences et technologies de l'information et de la communication, c'est la fécondation croisée. Cette nouvelle approche doit sous-tendre une nouvelle politique des TGE.

M. Roger BALIAN a noté que cette nouvelle réalité est une raison supplémentaire en faveur de la concentration des moyens.

Le Professeur Pierre CHAMBON a souligné que les Génopoles regroupent sur un même site les équipes travaillant sur un problème donné. La sélection des projets des Génopoles est faite par des experts français et étrangers, sans tenir compte du ou des laboratoires d'appartenance. L'évaluation est également conduite, dans le cadre des Génopoles, par des experts indépendants.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé par ailleurs que du fait d'une définition inadéquate des TGE, il ne faudrait pas retomber sur une image statique de ceux-ci. Si un TGE se trouve sur un site donné, on ne saurait accepter comme un fait acquis sa pérennité sur le même site pour plusieurs générations. An contraire, il est nécessaire de pouvoir se redéployer en permanence, y compris au plan géographique, même si la fixité géographique pose un vrai problème dans notre pays.

M. Gilles COHEN-TANNOUDJI, membre du groupe de travail, s'est ensuite fait l'écho d'un projet de grand équipement formulé à Lyon et destiné à l'hadron-thérapie. Seul le Japon dispose pour le moment d'une machine de ce type. Les traitements consistent en l'utilisation d'ions carbone dirigés pour détruire les tumeurs. Le projet de recherche a pour but le traitement d'un grand nombre de malades afin de déterminer l'efficacité du traitement sur des bases statistiques suffisantes.

Mme Claudine LAURENT, membre du groupe de travail, a précisé que la partie technique de ce projet nécessite d'être complétée par la création d'un service hospitalier dont on peut se demander s'il revient au budget de la recherche d'en supporter le coût.

M. Roger BALIAN est ensuite revenu sur la question de la fédération des efforts de recherche. Ce qui fédère les énergies, c'est non pas une technique, y compris l'informatique, mais au contraire un but ou un projet. La géographie peut également fédérer les travaux des chercheurs, comme le montre l'exemple de Grenoble.

*

La discussion a ensuite porté sur le sujet des " post docs ".

M. Roger BALIAN a jugé nécessaire que le problème des " post docs " ne soit pas traité d'une manière uniforme, quelles que soient les disciplines. Il faudrait au contraire avoir le courage de décider qu'il convient en priorité de créer des postes de " post docs " longs pour la biologie, compte tenu du fait que les autres disciplines n'ont pas le même besoin.

M. Robert COMÈS a noté que la vraie difficulté relative aux " post docs " en France, c'est qu'il n'existe pas de postes de ce type ailleurs qu'au CEA.

Le Professeur Pierre CHAMBON a pour sa part indiqué au contraire que les génopoles proposent des contrats à durée déterminée de 18 mois attribués à des titulaires de doctorats.

Le Professeur Patrice DEBRÉ a confirmé l'exception que constitue à cet égard le secteur de la santé puisque l'ANRS (Agence nationale de recherches contre le Sida) le fait également.

*

En conclusion à la réunion, M. René TRÉGOUËT, Sénateur, rapporteur, a remercié les participants pour leur participation à ce tour d'horizon enrichissant et a de nouveau appelé à l'établissement d'un plan d'ensemble explicite pour les sciences du vivant dans le domaine des TGE.

Il faut que la communauté des biologistes définisse un plan d'investissement global traitant explicitement de la question des TGE pour les sciences du vivant.

Pour le Professeur Pierre CHAMBON, il paraît nécessaire de fragmenter les projets, un projet global paraissant difficile à mettre au point. Le Génopole d'Evry constitue à lui seul un très grand équipement. Mais il convient aussi de traiter des différentes composantes de l'imagerie, de la génomique fonctionnelle, de la bioinformatique et de la biologie structurale en France. Sans doute faut-il aussi sortir la recherche française hors des frontières de l'hexagone.

M. Robert COMÈS a noté qu'un plan couvrant tous les besoins du secteur reviendrait à réinventer un grand organisme de recherche.

Le Professeur Pierre CHAMBON a évoqué la solution consistant à créer un Haut Commissariat à la Biologie et aux Biotechnologies, qui, parmi ses avantages, présenterait celui de pouvoir être périodiquement remis en question.

M. René TRÉGOUËT, Sénateur, rapporteur, a souligné qu'il serait intéressant de présenter des projets de TGE pour les axes d'avenir. En tout état de cause, il faut des projets pour convaincre, ainsi que le montre l'exemple américain.

Pour M. Christian CUVILLIEZ, Député, rapporteur, il faut que le rapport de l'Office propose une définition systémique et dynamique des TGE.

Le Professeur Pierre CHAMBON a posé la question de l'étendue de la concertation nécessaire pour élaborer un programme d'équipement, une concertation élargie pouvant conduire à une dispersion trop grande dans les propositions.

En tout état de cause, pour M. René TRÉGOUËT, Sénateur, rapporteur, la France et l'Europe n'ont plus que quelques années pour relever le défi des sciences du vivant. Il est capital que la communauté des biologistes fournisse des arguments et propose " une démarche réaliste et unitaire ". Il s'agit, pour être compris, de fixer des objectifs et de montrer en quoi le programme proposé permet d'atteindre avec efficacité les buts proposés.

5. Les sources de neutrons, le magnétisme à hauts champs et la RMN - mercredi 21 juin 2000

CEA :

· M. René PELLAT, Haut Commissaire à l'énergie atomique

· M. François GOUNAND, Directeur des sciences de la matière

· Mme Françoise FABRE, Adjointe au directeur des sciences de la matière

· M. Bernard SALANON, direction de la stratégie

· M. Pierre TRÉFOURET, Chef du service des affaires publiques

CNRS :

· M. Alain FONTAINE, directeur scientifique adjoint, Département des Sciences physiques et mathématiques

· M. Dominique GIVORD, directeur du service des champs magnétiques pulsés, Toulouse

· M. José TEIXEIRA, directeur-adjoint du Laboratoire Léon Brillouin

· Mme Dominique VIOLLET, Chargée des relations avec les élus

Institut LAUE-LANGEVIN :

· M. Christian VETTIER, directeur adjoint

GHMFL (Grenoble High Magnetic Field Laboratory) / LCMI (Laboratoire des Champs Magnétiques Intenses) :

· M. Peter WYDER, Directeur

· M. Gérard MARTINEZ, Directeur-adjoint (CNRS)

· M. Claude BERTHIER, responsable des programmes RMN (CNRS)

M. Christian CUVILLIEZ, Député, rapporteur, a remercié les participants à la présente audition sur " les sources de neutrons, le magnétisme à hauts champs, la RMN et l'imagerie cérébrale ", audition qui s'inscrit dans le cadre de la préparation du rapport de l'Office sur les très grands équipements.

Ce rapport, qui sera publié au début 2001, prolonge l'étude précédente sur les conditions d'implantation d'un nouveau synchrotron qui a contribué, comme on sait, à infléchir la position du Gouvernement sur le projet SOLEIL.

M. René TRÉGOUËT, Sénateur, rapporteur, a ensuite demandé qu'en préalable aux interventions des représentants des différents organismes, un point soit effectué sur l'intérêt particulier des sources de neutrons comparé à celui du rayonnement synchrotron.

*

Il ressort des indications données par M. François GOUNAND, Directeur des sciences de la matière du CEA, par M. Michel SPIRO, membre du groupe de travail, par M. Alain FONTAINE, directeur scientifique adjoint au Département des Sciences physiques et mathématiques du CNRS, par M. Christian VETTIER, Directeur-adjoint de l'Institut Laue-Langevin (ILL) et par M. Dominique GIVORD, directeur du service des champs magnétiques pulsés du CNRS à Toulouse, que les sources de neutrons sont davantage complémentaires que substituables au rayonnement synchrotron, du fait des propriétés particulières des neutrons.

Les propriétés du rayonnement électromagnétique que constitue le rayonnement synchrotron résultent des interactions entre les photons et le cortège électronique des atomes.

Au contraire, les neutrons interagissent avec les noyaux des atomes. La masse et la vitesse des neutrons utilisés en font une sonde unique pour l'étude des structures de la matière, à des échelles qui vont de l'atome au micron. Simultanément, les neutrons donnent accès à la dynamique de ces structures.

Par ailleurs, les neutrons sont neutres, ce qui a pour conséquence que l'interaction avec la matière n'est pas corrélée avec le numéro atomique. En conséquence, les neutrons sont sensibles aux éléments légers, ces derniers n'étant pas masqués par les atomes lourds. On peut utiliser la substitution isotopique, où les atomes d'hydrogène sont remplacés par les atomes de deutérium. Enfin, comme l'interaction avec la matière est faible, il est possible d'analyser des échantillons très massifs.

En tant que particules dotées d'un moment magnétique, les neutrons sont également une excellente sonde magnétique.

Les applications des sources de neutrons sont en conséquence multiples.

Les sources de neutrons sont utilisées pour des applications industrielles non seulement pour des traitements mais également pour des études en volume, notamment pour sonder au c_ur des échantillons. Les sources de neutrons sont également des outils d'une grande importance pour les études de la matière molle, pour les études de magnétisme et de microélectronique, dont on sait le rôle majeur dans les sciences et technologies de l'information et de la communication (STIC).

Au demeurant, étant donné l'absence de " mini-sources " de neutrons propriétaires, c'est-à-dire à la portée d'un seul laboratoire, les expériences réalisées sur les sources de neutrons ne peuvent pas être préparées en amont avec autant de précision que celles réalisées sur les synchrotrons, qui font souvent l'objet de pré-manipulations avec des tubes à rayons X. Cet aspect s'ajoute à un flux des faisceaux de neutrons inférieur à celui des rayons X d'un synchrotron, pour porter à une journée au minimum le temps d'exposition d'un échantillon à une source de neutrons, alors que cette durée peut être de quelques dizaines de minutes pour les synchrotrons de 3ème génération.

Dans le domaine de la biologie, si le rayonnement synchrotron est particulièrement performant pour l'étude des macromolécules cristallisées et en particulier des protéines, en revanche les sources de neutrons sont bien placées pour l'étude des protéines en solution ainsi que pour l'étude de parties de molécules réalisée avec des procédés de marquage.

A cet égard, la Fondation européenne de la science (ESF) a publié en 1998 un rapport remarqué sur les besoins de la biologie européenne en termes de rayonnement synchrotron. Dans ce même rapport, il était reconnu que les sources de neutrons ont un rôle important à jouer. Au reste, les limites rencontrées actuellement dans l'utilisation de ces grands instruments en biologie, tient essentiellement à l'insuffisance des temps d'accès que finissent par décourager les biologistes d'y recourir.

Après ces éléments introductifs, la parole a été donnée à M. François GOUNAND.

*

M. François GOUNAND, Directeur des sciences de la matière du CEA, a indiqué qu'après l'arrêt en décembre 1997 du réacteur SILOE de 35 MW, sont opérationnelles sur le sol français les sources de neutrons du Laboratoire Léon Brillouin (réacteur Orphée de 14 MW) et de l'Institut Laue-Langevin (réacteur de 57 MW).

La procédure de démantèlement de SILOE est une procédure longue, complexe et coûteuse. La réflexion sur l'opportunité d'arrêter cette machine a commencé en 1994. Soumise à la procédure de déclassement des INB (Installations nucléaires de base), cette procédure comprend plusieurs étapes, la première étape comprenant la mise à l'arrêt définitif et aboutissant à la fermeture sous surveillance (niveau 1).

Le coût total du démantèlement est estimé à 350 millions de francs, la Direction des sciences de la matière en prenant une partie à sa charge.

Le personnel à reclasser a été redéployé en partie à Grenoble, principalement à l'Institut Laue-Langevin. Les instruments les plus performants ont été transférés sur cette machine, soit directement soit après une remise au niveau des meilleures performances actuelles. Les expérimentations auparavant prises en charge par SILOE sont désormais réalisées à l'ILL, en ce qui concerne la diffusion des neutrons.

La parole a ensuite été donnée à M. Christian VETTIER.

*

M. Christian VETTIER, Directeur-adjoint de l'Institut Laue-Langevin (ILL) a indiqué que cet institut de recherche international a été créé en 1967 sous la forme d'une société de droit civil français, par deux membres fondateurs associés, la France et l'Allemagne, rejoints par le Royaume Uni en 1973, après la mise en exploitation du réacteur en 1972. Depuis lors, différents pays ont adhéré : l'Espagne (1987), la Suisse (1988), l'Autriche (1990), la Russie (1996), l'Italie (1997) et la République tchèque (1999), l'adhésion donnant droit à un temps de faisceau supérieur.

Situé dans le polygone scientifique de Grenoble, à proximité de l'ESRF, l'ILL a reçu trois missions : d'une part servir les besoins scientifiques des pays membres en accès à des faisceaux de neutrons, en accueillant les utilisateurs et en favorisant les échanges, d'autre part développer les techniques de la neutronique et, enfin, assurer la formation des scientifiques utilisateurs.

Le budget de l'ILL pour 2000 est de 355 millions de francs, la contribution française s'élevant à 104 millions de francs. Les dépenses de personnel représentent 57 % du total, le fonctionnement 19 %, l'investissement 11 %, le cycle de l'élément combustible 13 %.

Ainsi que l'a précisé M. François GOUNAND, Directeur des sciences de la matière au CEA, l'ILL est une machine dédiée à la production de faisceaux. Le réacteur Orphée produit certes des faisceaux mis à la disposition du Laboratoire Léon Brillouin pour la recherche fondamentale mais a, de plus, une activité industrielle au service de la microélectronique, de la neutronographie et de l'irradiation d'échantillon en vue de leur analyse par activation.

En tout état de cause, en 1999, l'ILL a assuré 208 jours de fonctionnement réacteur sur ses 25 instruments et sur les 8 instruments CRG (Collaborative Research Group).

Ceci correspond à 4500 jours-instruments accordés. Le nombre d'expériences correspondant est de 750, le nombre de chercheurs visiteurs atteignant annuellement 1200. Ces derniers proviennent de 300 laboratoires disséminés dans toute la France et en Europe. Comme on peut s'y attendre, ce sont la France, l'Allemagne et le Royaume Uni qui bénéficient des quotas d'heures les plus importants.

Au reste, les installations de l'ILL sont loin de satisfaire la demande, puisque celle-ci s'établit à 8200 jours-instruments pour 1000 expériences.

Les installations de l'ILL sont ouvertes 24 h sur 24. Les temps d'expérimentation se répartissent en trois grandes catégories. La première correspond aux expériences exécutées en une journée. La deuxième correspond aux expériences plus longues mais d'une durée inférieure à une semaine, pour certains types d'application comme la diffusion inélastique qui nécessite des temps d'exposition de plusieurs dizaines d'heures ou le test de séries d'échantillons. La troisième catégorie est celle des expositions de plusieurs mois pour la recherche fondamentale, par exemple en physique des particules. La demande s'exerce principalement sur des durées moyennes de 6 jours.

Deux facteurs limitent la durée des expériences acceptées à l'ILL.

Comme l'a indiqué M. José TEIXEIRA, Directeur-adjoint du Laboratoire Léon Brillouin (LLB), le premier est une contrainte technique, à savoir le rapport signal / bruit, qui dépend lui-même de facteurs technologiques. En conséquence, la prolongation d'une expérience au-delà d'une certaine limite n'apporte pas d'information supplémentaire.

M. Christian VETTIER a par ailleurs précisé la nature du deuxième facteur de limitation des durées d'expérimentation, à savoir la pression de la demande qui oblige à octroyer le temps minimum aux projets sélectionnés pour en augmenter le nombre d'accès aux installations.

Les chercheurs désireux d'accéder aux faisceaux de neutrons de l'ILL soumettent leurs projets de recherche au comité scientifique qui se réunit deux fois par an. A cet égard, il n'existe pas de concertation autre qu'informelle entre l'ILL et l'ESRF.

Les applications des neutrons à l'ILL concernent la physique pour 28 % du total, la chimie pour 20 %, la matière molle pour 14 %, les sciences des matériaux pour 12 %, la biologie pour 12 %, les liquides et les verres pour 8 % et la physique des particules pour 6 %. Une réserve doit toutefois être faite sur l'exactitude de ces statistiques, en raison du mode d'imputation des projets qui comporte des marges d'erreur.

Quelle est l'évolution de la répartition des applications ? S'il n'existe pas de données homogènes sur une durée de 5 ans, on peut néanmoins constater qualitativement une diminution de la part de la physique, une stabilité des projets de chimie et de sciences des matériaux et au contraire, une augmentation du nombre d'études portant sur la " matière molle ". Quant aux projets biologiques, après un pic il y a 3 à 4 ans, leur nombre a diminué, le manque de faisceaux disponibles et suffisamment efficaces ayant exercé un effet dissuasif sur les chercheurs.

Quelle est la compétitivité de l'ILL par rapport aux autres sources mondiales ?

Les sources de neutrons sont de deux types, d'une part les réacteurs comme l'ancien SILOE, Orphée (Laboratoire Léon Brillouin) et l'ILL, et, d'autre part, les sources pulsées, comme ISIS au Rutherford Appleton Laboratory (Royaume Uni) ou IPNS (Intense Pulsed Neutron Source) à Argonne (Etats-Unis).

L'ILL met en _uvre l'une des toutes premières sources de neutrons du monde, tous types confondus. C'est en effet la première source de neutrons continue du monde. Par ailleurs, en terme de flux moyens, l'ILL dépasse les sources pulsées les plus puissantes, qu'elles soient en fonctionnement ou en projet aux Etats-Unis ou au Japon. En définitive seul le projet ESS (European Spallation Source) devrait conduire à une machine plus puissante dans les dix années à venir.

Mais quel est l'avenir à court-moyen terme de l'ILL ?

La valeur capitalisée de l'ILL, qui est de l'ordre de 10 milliards de francs, et les résultats scientifiques obtenus incitent non seulement à en pérenniser le fonctionnement mais également à le faire progresser sur un plan technique.

Mis en service en 1972, le réacteur a bénéficié à partir de 1991 de travaux de modernisation, de sorte que l'on peut considérer que le réacteur redémarré en 1995 correspondait à une installation neuve. Un programme de modernisation de 5 instruments s'étale sur la période 1996-2001, pour un montant de 25 millions de francs. Un autre programme d'instrumentation de 42 millions de francs est prévu pour la période 2000-2005. Il s'agit d'obtenir des gains en acquisition de 5 à 10 dont les objectifs scientifiques sont d'accroître la résolution spatiale, de favoriser les études résolues en temps et de développer de nouvelles méthodes expérimentales.

Cette modernisation se justifie également par les résultats scientifiques obtenus. Les travaux de recherche ayant utilisé les moyens de l'ILL ont donné lieu en 1999 à 437 publications, dont 282 articles de revues scientifiques et 154 comptes rendus, livres ou rapports.

Un échange est ensuite intervenu sur l'avenir à moyen et long terme des sources de neutrons en Europe et dans le monde.

*

Pour M. Christian VETTIER, la recherche européenne a un besoin croissant en faisceaux de neutrons. Le nombre d'utilisateurs connaît en effet une croissance forte. Il était de 3800 chercheurs en 1998 et devrait s'élever à 5000 en 2000.

Or quelles sont les prévisions en matière de sources de neutrons ?

Le nombre de sources du parc européen, qui est de 13 actuellement, ne devrait pas dépasser 7-8 après 2010. Les sources majeures seront à cette date le LLB et l'ILL sur le territoire français, la source allemande du HMI à Berlin et le réacteur de Munich, la source pulsée ISIS au Royaume Uni, éventuellement avec sa deuxième source si ce projet est approuvé. Une ou deux sources en Russie sont également à citer.

Différents projets ont été élaborés dans les années récentes. Certains d'entre eux ont été abandonnés, comme le projet américain ANS de 350 MW, le projet allemand SNQ et le projet autrichien Austron encore en suspens.

Il reste en réalité trois programmes ayant une forte probabilité d'aboutir.

Tableau 1 : Sources de neutrons en projet dans le monde

projet

puissance

date de mise en service

budget (milliards d'euros)

ISIS-2

(Royaume-Uni)

0,25 MW

2004

0,12

Austron

(Autriche)

0,5 MW

?

?

SNS

(Etats-Unis)

2 MW

2006

1,4

JHF/NSP

(Japon)

1 MW

2006

?

ESS

(Europe)

5 MW

> 2015

1

La source britannique ISIS-2, de 0,25 MW devrait entrer en service en 2004, pour un coût d'investissement de 0,12 milliards d'euros. Le projet américain SNS (Spallation Neutron Source) à Oak Ridge, d'une puissance de 2 MW devrait être opérationnel en 2006, pour un budget de 1,4 milliard d'euros. Le projet japonais JHF/NSP se caractérise par une puissance de 1 MW, une date de mise en service de 2006 et un budget d'un milliard d'euros.

Alors que le projet ESS (European Spallation Source) avait débuté bien avant le projet SNS américain, ce dernier qui en est le décalque, l'a aujourd'hui rattrapé. Du fait des retombées importantes d'une telle source, il est essentiel non seulement de ne pas l'abandonner mais d'en accélérer la réalisation.

M. René PELLAT, Haut commissaire à l'énergie atomique, a estimé que pour les dix prochaines années, il sera nécessaire de se contenter des moyens actuels. Ceux-ci devraient continuer d'être opérationnels, à condition toutefois que l'approvisionnement en uranium enrichi utilisé dans les réacteurs auprès de la Russie ne soit pas remis en cause. Au total, les ressources du LLB et de l'ILL seraient suffisantes, de sorte qu'il est inutile de prévoir des faisceaux dédiés aux recherches analytiques sur le futur RJH (réacteur Jules Horowitz) actuellement en cours de définition par le CEA.

Il convient toutefois de préparer la décennie suivante par un projet ambitieux. Ce projet est celui de l'ESS (European Spallation Source).

Ainsi que l'a précisé M. René PELLAT, les premières applications de l'ESS seraient opérationnelles vers 2015, l'ensemble des moyens se mettant en place entre 2010 et 2020. Au reste, l'exploitation de l'ILL pourrait continuer selon toute vraisemblance jusqu'en 2020,

M. Christian VETTIER a indiqué qu'en tout état de cause, des limites technologiques obligent à changer de principe pour la génération suivante de machines. Les réacteurs, qui produisent des neutrons en continu, se heurtent en effet à des limites technologiques pour l'évacuation de la chaleur. Les sources pulsées, au contraire, permettent, avec une basse fréquence de répétition et une faible puissance moyenne, d'obtenir des flux élevés pendant des durées courtes.

L'ILL représente l'optimum de puissance pour une source de neutrons sous forme de réacteur. Les Etats-Unis, qui ont tenté de mettre au point une source continue plus puissante, ont abandonné ce projet, un " monstre " dont le coût est rapidement apparu comme rédhibitoire, en raison des difficultés techniques rencontrées pour l'évacuation de la chaleur. La solution est bien la spallation : un accélérateur propulse des particules à haute énergie qui vont casser des noyaux lourds, la rupture de ces derniers libérant des neutrons. Le problème thermique est alors dilué dans le temps.

En tant que source pulsée, l'ESS apporterait un gain d'un facteur 100 à 200 selon la longueur d'onde pour les diffractomètres, de 2 à 20 pour la diffusion inélastique, de 1 à 20 pour la diffusion aux petits angles et des performances comparables pour la diffusion inélastique sur 3 axes.

M. Gilles COHEN-TANNOUDJI a alors fait le constat qu'il existe une tendance à privilégier les sources pulsées comportant un accélérateur et recourant au phénomène de la spallation, toutes techniques éloignées de celles des réacteurs.

Il s'agit là d'une évolution importante, qui comporte des bénéfices secondaires non négligeables, dans la mesure où les sources pulsées sont multi-usages, une même source ouvrant la voie à différents types d'applications.

Au reste, la France dispose dans les technologies des accélérateurs d'atouts de premier niveau, comme le montre la qualité de ses équipes dans le domaine connexe des synchrotrons. Pour autant, il semble aussi que les sources de neutrons continues gardent un intérêt de complémentarité avec les sources pulsées.

M. Robert COMÈS a enfin souligné qu'à l'inverse des synchrotrons qui peuvent varier d'énergie et être optimisés pour tel ou tel type d'application, il n'existe pas de gamme de sources de neutrons.

*

M. Christian VETTIER est alors revenu sur le type d'applications que pourraient permettre des sources de neutrons de nouvelle génération telles que l'ESS.

Les applications concernées seront au premier chef les études temporelles, notamment de cinétique chimique, souvent plus faciles avec les neutrons, du fait de leur pouvoir de pénétration, qu'avec le rayonnement synchrotron. Les études de biologie devraient également progresser avec l'ESS. Enfin, avec une résolution spatiale meilleure, les études de magnétisme devraient encore être facilitées.

M. Alain FONTAINE, directeur scientifique adjoint au Département des sciences physiques et mathématiques du CNRS, a insisté en premier lieu sur les applications des sources de neutrons pour l'étude de la matière molle et des polymères. L'importance de ce domaine ne doit pas être sous-estimée, bien au contraire, compte tenu de l'extension considérable des usages des matières plastiques dans différents secteurs, en particulier dans la construction automobile où les matières plastiques représentent près de 50 % en volume des matériaux utilisés.

Les propriétés de structure et du magnétisme des nano-objets relèvent des méthodes de diffraction et de spectroscopie sensibles à la surface que le rayonnement synchrotron permet de mettre en _uvre. Mais pour les matériaux massifs, le magnétisme et la supraconductivité sont des propriétés déterminantes pour l'étude desquelles les sources de neutrons irremplaçables.

Enfin, les neutrons ont un intérêt majeur pour l'étude des systèmes biologiques.

L'eau, qui joue un rôle fondamental dans les tissus, peut en effet facilement être mise en évidence par les neutrons, ainsi que les atomes légers comme l'atome d'hydrogène. Un des axes d'étude prometteurs pour l'avenir est sans conteste l'analyse du rôle de l'eau dans des systèmes vivants confinés. En outre, l'apport des sources de neutrons est considérable pour les études dynamiques des mouvements locaux ou collectifs d'atomes ou de groupes d'atomes.

Ces raisons justifient de repousser les limites actuelles des sources de neutrons en concevant de nouveaux projets.

*

Selon M. René PELLAT, il existe un véritable intérêt en Europe pour le projet ESS. Le CEA, convaincu de son importance scientifique, a organisé au début de l'année 2000 une réunion de l'ensemble des partenaires potentiels. Le projet d'accélérateur, la pièce maîtresse de la source, a été accepté par l'ensemble des participants. Un travail informel, destiné à rattraper le retard accumulé, se déroule désormais sur ce sujet, en coopération avec le CERN et sous la direction de M. Jean-Louis LACLARE. Au reste, une application supplémentaire de la source ESS est envisagée avec l'utilisation d'un faisceau pour la transmutation des actinides mineurs et des produits de fission présents dans les combustibles irradiés.

Le projet ESS est porté par le ministère de la recherche, qui, non seulement, le soutient mais également souhaite l'héberger en France, concurrençant ainsi le Royaume Uni qui est également candidat pour son implantation.

Au demeurant, selon M. René PELLAT, l'Allemagne n'est pas pour le moment en mesure de s'engager dans le projet ESS, car elle procède à un examen interne de ses investissements lourds de recherche, ce qui gèle toute décision.

*

Un débat est ensuite intervenu sur les conditions d'une action déterminée des pouvoirs publics en faveur des sources de neutrons.

M. Robert COMÈS, membre du groupe de travail, a remarqué que la communauté française de la neutronique a bénéficié de facilités particulières du fait de l'importance des programmes atomiques militaires et civils dans notre pays. Ce temps est aujourd'hui révolu.

La communauté des neutroniciens devra désormais se mobiliser pour obtenir les grands instruments nécessaires à son activité, de même que les spécialistes et les utilisateurs des synchrotrons ont toujours dû le faire, en France comme dans tous les autres pays dotés de ces équipements. Au reste, la fermeture d'un site suffit à assurer le financement d'une nouvelle source de neutrons.

M. François GOUNAND a indiqué que le démantèlement de l'ILL devrait représenter une dépense de l'ordre du milliard de francs.

M. Christian VETTIER a confirmé cet ordre de grandeur, puisque l'estimation couramment acceptée est de 3 budgets annuels. Au-delà de cette période, les contributions des pays membres, à supposer qu'elles soient prolongées, pourraient financer la construction d'une nouvelle source.

Quoi qu'il en soit, pour le moment, aucune provision n'est distraite du budget annuel de l'ILL pour préparer le remplacement de l'installation.

La pérennité de l'ILL à Grenoble devrait toutefois être favorisée, tant cette institution a joué et joue encore un rôle important pour l'économie régionale.

En premier lieu, l'existence préalable de l'ILL a joué un rôle très important dans le choix de Grenoble pour y implanter le synchrotron européen ESRF. En deuxième lieu, le taux de retour des dépenses françaises pour l'ILL est proche de 3, puisque pour un franc versé à l'ILL par le CEA et le CNRS, il s'ajoute deux francs de contributions étrangères, le total de trois francs étant dépensé en quasi-totalité sur place.

En définitive, si le projet de source ESS ne consistait pas en un accélérateur multi-usages dévoreur d'espace, l'ILL pourrait faire acte de candidature pour accueillir la future source européenne.

En réponse à une observation de M. Jérôme PAMELA, membre du groupe de travail, sur la contradiction entre le coût de 1 milliard d'euros pour l'ESS et la quasi-proportionnalité du coût affiché pour les autres projets avec leur énergie, M. Christian VETTIER a précisé que l'estimation d'un milliard d'euros date de 1996.

M. René PELLAT a, pour sa part, indiqué que les estimations actuelles du coût de l'ESS sans ligne hybride n'incluent pas les coûts de fonctionnement.

*

La discussion a ensuite porté sur l'évolution prévisible des avantages spécifiques des sources de neutrons par rapport aux autres méthodes d'analyse fine de la matière.

Pour de nombreux orateurs, des progrès substantiels des sources de neutrons sont peu vraisemblables.

Mais, de toute évidence, il est difficile de faire des pronostics dans un tel domaine.

M. José TEIXEIRA a ainsi rappelé que nul n'avait imaginé, avant les synchrotrons de 3ème génération, que les applications du rayonnement synchrotron pourraient s'élargir au magnétisme.

M. Jochen SCHNEIDER, membre du groupe de travail, a noté que, précisément, les sources de neutrons semblent de plus en plus concurrencées par le rayonnement synchrotron.

Il y a dix ans, ce dernier ne pouvait pas servir à des études de magnétisme et avait un pouvoir de pénétration réduit. Avec les sources de 3ème génération, le rayonnement synchrotron a pris à son compte des études auparavant réservées aux neutrons. Le nombre de chercheurs en physique étant limité, on peut s'interroger sur les raisons pour lesquelles il faudrait poursuivre le développement d'une méthode désormais très concurrencée.

M. Christian VETTIER a observé que le saut quantitatif d'un facteur de 10 000 en terme de brillance entre les synchrotrons de 2ème et de 3ème générations semble hors de portée des sources de neutrons, puisque le passage à l'ESS devrait au mieux conduire à une amélioration d'un facteur 200. A titre indicatif, ceci se traduirait en résolution latérale par une diminution de la largeur minimale du faisceau mais celle-ci passerait au mieux d'un dixième de millimètre à un micron. Il ne s'agit donc pas d'une révolution de la technique des neutrons. Toutefois, on ne peut exclure des progrès dépassant les prévisions.

M. Dominique GIVORD a fait remarquer que les sources de neutrons permettent d'aborder des problèmes d'une grande importance et qu'il convient donc de ne pas les sous-estimer.

Ainsi c'est avec cette seule technique, en particulier avec les neutrons " chauds " produits par le futur ESS à des niveaux d'énergie supérieure à ceux résultant des sources actuelles, qu'il sera possible d'étudier le magnétisme des métaux de transition. Si ces corps, à savoir le fer, le cobalt et le nickel, sont parmi les mieux connus, la compréhension des interactions de leurs moments magnétiques dont on ignore tout pour le moment, pourrait conduire à des applications d'une grande importance.

Après avoir estimé " fabuleux " les progrès faits par les synchrotrons, M. René PELLAT, à son tour, a souligné qu'au fur et à mesure de la marche du progrès, des domaines jugés initialement hors de portée deviennent accessibles.

En tout état de cause, il ne faut pas opposer les méthodes ou les technologies. Même si la nature et le rythme des progrès faits sur les sources de neutrons devaient être différents de ceux observés pour le rayonnement synchrotron, progrès qu'au demeurant, personne n'avait prévu, on peut affirmer que le domaine des neutrons bénéficiera également d'avancées.

La parole a ensuite été donnée à M. José TEIXEIRA.

*

M. José TEIXEIRA, Directeur adjoint du Laboratoire Léon Brillouin (LLB), est revenu sur les angles d'analyse qu'il convient d'adopter pour juger de l'intérêt particulier des sources de neutrons. Il convient à cet effet de les comparer avec le rayonnement synchrotron, avec la RMN ou la microscopie électronique.

Au demeurant, si les sources de neutrons sont des grands équipements, au même titre d'ailleurs qu'un synchrotron, il faut aussi rétablir la vérité de leur coût.

L'ordre de grandeur du budget d'une installation comme l'ILL est de 300 millions de francs, avec lequel elle réalise de 800 à 1000 expériences par an, ce qui met le coût d'une expérience au niveau de 300 000 francs. Si l'on admet que le coût annuel d'un poste de chercheur est de l'ordre du million de francs, ceci signifie que chaque chercheur réussit trois expériences de haut niveau par an.

La productivité d'un tel grand instrument est donc excellente et peut être comparée favorablement à celle de tout autre investissement de recherche.

S'agissant des machines elles-mêmes, il faut, comme on l'a vu distinguer les sources continues, à savoir les réacteurs, des sources pulsées mettant en _uvre le phénomène de la spallation. Il faut également faire une différence entre les sources nationales et les sources européennes voire internationales.

A cet égard, une question importante est la suivante : en quoi un pays comme la France doit-il posséder une source nationale ?

Le réacteur Orphée proprement dit, qui fonctionne avec une régularité et un niveau de performances remarquables depuis plus de 20 ans, est de la responsabilité du CEA. Le laboratoire Léon Brillouin, laboratoire national financé conjointement par le CNRS et le CEA a, quant à lui, la responsabilité d'exploiter les 25 instruments installés autour du réacteur Orphée. A cet égard, tant le LLB que l'ILL disposent de la plus grande densité d'instruments au monde pour des installations de ce type.

En tout état de cause, le LLB est compétitif par rapport à l'ILL mais aussi par rapport à la source pulsée britannique ISIS du Rutherford Appleton Laboratory.

Le réacteur Orphée a été conçu pour servir à des opérations industrielles sans pour autant perturber les faisceaux du LLB.

Parmi ces opérations, il faut citer l'irradiation de matériaux comme celle du silicium dopé au phosphore, la neutronographie des matières organiques notamment, où l'on met à profit la sensibilité de la transmission des neutrons à la présence d'atomes d'hydrogène, le contrôle de pièces dont la fiabilité doit être de 100 % comme les cordons de sièges éjectables ou les dispositifs de séparation des étages d'Ariane.

Les trois missions du Laboratoire Léon Brillouin sont de mettre des faisceaux de neutrons et l'instrumentation afférente à la disposition de la communauté scientifique française, de former les chercheurs à l'utilisation des techniques neutroniques et de conduire une recherche propre de qualité. Aussi les chercheurs du LLB exercent-ils un double métier d'accueil et de recherche.

En tout état de cause, le LLB joue le rôle d'une source nationale, irremplaçable en réalité pour la communauté scientifique nationale, comme on l'a vu a contrario avec l'Italie, qui, en perdant sa source propre, a perdu sa compétitivité dans ce domaine.

Même si les sources de neutrons étrangères sont ouvertes aux chercheurs étrangers, toutes filtrent en effet les demandes par des processus de sélection sévères.

En réalité, si l'on veut une école de neutronique nationale, il faut pouvoir réaliser de nombreuses manipulations qui ne seraient pas acceptées ailleurs, sauf moyennant une contribution financière.

En cas de fermeture du LLB, le report sur l'ILL, qui, de toute façon, ne serait que partiel, ne pourrait qu'atténuer et en aucun cas supprimer les conséquences négatives sur la science française.

Le Laboratoire Léon Brillouin est régi par une convention entre le CEA et le CNRS. Ce dernier organisme l'ayant récemment dénoncée, la convention est en cours de renégociation.

Le budget annuel de l'ensemble constitué par le réacteur et le Laboratoire Léon Brillouin s'élève à 130 millions de francs, frais de personnel compris mais hors amortissement du réacteur.

Le budget hors salaires du LLB est de 23 millions de francs. Ce budget est financé à hauteur de 14 millions de francs par des contributions à parité du CNRS et du CEA. Le complément est assuré par des contrats avec l'industrie, par les contributions des CRG (Collaborative Research Group) et par le contrat " Access to Large Facilities " de l'Union européenne qui finance l'accès de chercheurs étrangers à ses installations. Les effectifs du laboratoire atteignent 150 postes à temps plein, à quoi il faut ajouter 57 postes pour le réacteur.

Le LLB a, en 1999, assuré 4 200 jours-instruments, ce qui correspond à 500 expériences par an. Les expériences ressortissent à hauteur de 55 % à la physique de la matière condensée, de 28 % à la chimie, de 10 % aux sciences de l'ingénieur et aux matériaux et de 7 % à la biologie.

Le nombre de publications correspondant à des expériences réalisées au Laboratoire Léon Brillouin est de 300 par an en moyenne.

En 1999, 750 chercheurs visiteurs ont utilisé ses installations, dont 70 % de chercheurs français et 30 % d'étrangers.

L'utilisation des installations du LLB est bien entendu le fait de l'ensemble des grands organismes de recherche français.

L'écart entre la demande de temps d'accès à ses faisceaux et le temps effectivement mis à disposition est en moyenne de 30 %. Mais pour certains instruments, la demande peut excéder l'offre d'un facteur 2 voire même 3. En réalité, un équilibre doit être trouvé entre la fourniture d'une gamme d'instruments la plus étendue possible et l'accroissement du nombre de spectromètres les plus demandés.

La part de l'utilisation directe des instruments du LLB par l'industrie ne dépasse pas 4 % du total, dans la mesure où les entreprises y accèdent le plus généralement par l'intermédiaire des contrats de recherche avec des laboratoires publics. L'industrie y traite de questions relatives aux matériaux, notamment le contrôle de soudures ou de pièces massives, et à la matière molle. Parmi les clients réguliers du LLB, on peut citer l'IFP (Institut français du pétrole), la SNECMA, la SNCF ou Peugeot SA.

Démontrant la compétitivité du LLB par leurs demandes d'accès, les chercheurs étrangers sont nombreux dans ce laboratoire : ils représentent près 30 % des chercheurs visiteurs et sont pour moitié européens. Les deux pays les mieux représentés sont l'Italie et l'Allemagne, ce dernier pays ayant d'ailleurs fourni 3 spectromètres et comptant des personnels à plein temps sur le site.

L'accès aux faisceaux de neutrons est gratuit pour les recherches publiées. Dans le cas contraire, par exemple pour les usages industriels privatifs, le prix facturé est de 25 000 francs par jour. Ceci correspond au prix réel hors amortissement, puisque le budget annuel est du LLB et du réacteur Orphée s'élève à 130 millions de francs, pour 200 jours de fonctionnement de 25 instruments, soit 25 000 F par jour et par instrument. M. Christian VETTIER a indiqué, pour sa part, que le prix de revient d'une journée de faisceau à l'ILL est proche de 50 000 F.

M. José TEIXEIRA a par ailleurs fait état d'inégalités de contribution pour les pays étrangers, notamment pour l'Italie dont la participation financière n'est pas proportionnelle à son utilisation de la machine.

Fait plus important, le mode de fonctionnement du Laboratoire Léon Brillouin est remis en cause depuis trois ans. Si son existence n'est pas menacée, en revanche la répartition de son financement est âprement discutée par le CEA et le CNRS. La responsabilité des dépenses de combustible et de démantèlement fait l'objet de controverses. Deux autres débats sont sous-jacents, celui de la proportionnalité entre l'utilisation et la contribution financière et celui du pouvoir de décision attaché à cette dernière.

A cet égard, l'entrée d'un partenaire étranger, recommandée par le ministère de la recherche, présenterait certes l'avantage d'alléger la charge financière mais réduirait aussi le pouvoir de décision du CEA et du CNRS. Au reste, les coopérations étrangères sont rendues difficiles par la mauvaise desserte de Saclay pour les transports et l'hébergement.

*

A l'initiative de M. René TRÉGOUËT, Sénateur, rapporteur, un débat s'est alors engagé sur l'adéquation de la formule de cofinancement par le CEA et le CNRS d'un grand équipement comme le Laboratoire Léon Brillouin. Au contraire, ne faudrait-il pas envisager une structure spécifique pour les très grands équipements, analogue au CLRC (Central Laboratory of Research Councils) britannique ?

M. Alain FONTAINE a estimé que le cofinancement par les deux organismes nationaux est la formule la plus pertinente.

S'agissant du Laboratoire Léon Brillouin, le CNRS a vocation à piloter les programmes mixtes CNRS - universités. Quant au CEA, outre ses propres programmes scientifiques, sa vocation est d'assurer le fonctionnement du réacteur Orphée et plus généralement des sources nationales de neutrons.

En tout état de cause, la structure d'une coopération étroite des organismes de recherche est la plus adaptée car c'est celle qui assure la plus grande fluidité d'accès pour les chercheurs des deux institutions.

Au reste, les expériences de ticket modérateur qui ont pu être faites à l'étranger ou en France, se sont soldées par un échec. C'est ainsi que l'on a pu, en France notamment, précipiter la fin de centres de calcul. Le mécanisme est en effet très simple : la mise en place d'un ticket modérateur exerce un effet dissuasif sur les utilisateurs ; leurs demandes d'accès diminuent, ce qui renchérit les coûts unitaires et accélère encore le déclin du centre considéré.

Par ailleurs, l'absence d'amortissement des très grands équipements, s'il tient aux caractéristiques de la comptabilité publique, correspond aussi à une réalité fondamentale de la politique de la recherche, à savoir que le renouvellement d'un très grand équipement ne saurait être automatique.

En définitive, il est conforme à la logique de la recherche que seuls le CEA et le CNRS puissent abonder le financement de grandes opérations.

En outre, les très grands équipements sont des coopératives au service des laboratoires. Il convient en conséquence que les coopérateurs soient en liaison étroite avec ces derniers, pour avoir une capacité de réaction rapide. Tout organisme de gestion interdirait d'aller aussi vite.

M. René TRÉGOUËT, Sénateur, rapporteur, a demandé plaisamment si la question du financement du LLB faisait l'objet d'une " partie de ping-pong " administratif entre le CEA et le CNRS.

M. Alain FONTAINE a affirmé que les sources de neutrons constituent bien une orientation stratégique des Départements en charge des sciences de la matière au CNRS et bénéficient, en tant que telle d'une priorité.

La preuve en est que le CNRS a réglé sa participation en février 2000 dès que le ministère l'a demandé, à la suite d'une requête de l'administrateur général du CEA auprès de la direction de la recherche du MENRT.

Au vrai, il faut rappeler qu'en toile de fond, figure l'exigence répétée trois années de suite d'une diminution de 10 % des crédits consacrés aux TGE, posée en principe par le ministère de la recherche. Au printemps 2000, la direction de la recherche a relâché cette contrainte.

Les rejets mutuels de responsabilité du CEA et du CNRS doivent être réfutés. Le véritable " ping pong " intervient entre le ministère et les organismes de recherche.

En définitive, s'il existe aujourd'hui une volonté de piloter la recherche par le FNS (Fonds national de la science) et le FRT (Fonds de la recherche technologique), il a manqué une volonté politique de soutenir les très grands équipements.

Mme Françoise FABRE, adjointe au directeur des sciences de la matière, a rappelé, pour sa part, que les tutelles demandent que les contributions des organismes de recherche au financement de très grands équipements se rapprochent de l'utilisation qu'ils en ont.

En vérité, la difficulté essentielle provient du fait que les universités n'abondent pas suffisamment les budgets du LURE (Laboratoire pour l'utilisation du rayonnement électromagnétique) et du LLB.

En outre, un problème est posé par le CEA, celui du financement du démantèlement futur du réacteur Orphée.

M. Alain FONTAINE a estimé que le réacteur Orphée lui appartenant, le CEA est compétent pour son démantèlement. Le CNRS estime au surplus que le démantèlement constitue une mission de recherche du CEA. Le CNRS ne saurait être concerné par ce problème.

*

La discussion a ensuite porté sur la coexistence de personnels à statuts différents au sein d'un même laboratoire.

M. Philippe LAREDO, membre du groupe de travail, s'est interrogé sur les conséquences de la mixité des statuts en ce qui concerne les chercheurs et les personnels techniques.

M. Alain FONTAINE a observé que le statut d'unité mixte du Laboratoire Léon Brillouin répond à la nécessité de disposer d'un territoire commun pour la communauté nationale des chercheurs. La mixité, qui est un atout et un grand succès, favorise également l'interdisciplinarité.

S'agissant des personnels exploitant les machines, Mme Françoise FABRE a précisé que si le CEA a la responsabilité technique du Laboratoire Léon Brillouin, le CNRS assume celle du LURE. La cohabitation des personnels à statuts différents se produit donc pour les chercheurs résidents et bien entendu pour les chercheurs visiteurs.

M. Alain FONTAINE a jugé que l'absence de différences de statuts entre utilisateurs internes et utilisateurs externes est également essentielle car l'appartenance aux mêmes organismes favorise les transferts de connaissances. L'approche peut être toutefois différente pour les personnels qui assurent le fonctionnement technique des installations.

Au vrai les structures actuelles se sont imposées d'elles-mêmes, démontrant ainsi leur intérêt.

M. Gilles COHEN-TANNOUDJI, membre du groupe de travail, a estimé que, plutôt que de parler de source " nationale ", il conviendrait de parler de source de " proximité ". La portée de cette remarque dépasse la stricte sémantique pour toucher en réalité à la question des différents statuts envisageables pour un très grand instrument.

Il paraît en effet naturel qu'une source de proximité soit un laboratoire mixte géré en direct par les organismes de recherche qui en assurent le financement et la direction technique.

M. Christian VETTIER a, pour sa part, noté que l'ILL et l'ESRF sont régis par des statuts de sociétés civiles de droit français, ce qui démontre également qu'il existe une autre solution opérationnelle. Au reste, la dénomination de source nationale présente l'inconvénient de fermer toute possibilité de participation financière extérieure. On pourrait à cet égard regretter que le Laboratoire Léon Brillouin, en tant que source nationale " protégée ", n'ait pas à diversifier son financement, tandis que, deux poids deux mesures, l'ILL, pourtant déjà largement internationalisé, doive se fixer comme objectif de trouver encore de nouveaux contributeurs.

M. Alain FONTAINE s'est interrogé sur la viabilité à long terme d'une telle solution. Il n'est pas en effet satisfaisant qu'un chercheur reste 35 ans dans de telles installations. Pour ce faire, il faut que le très grand équipement soit intimement lié à des grands organismes de recherche et aux universités. Ces liens organiques manquent à l'ILL et à l'ESRF.

M. Roger BALIAN a estimé que la coexistence au sein d'une même entité de recherche de personnels appartenant à des organismes différents est un facteur d'enrichissement pour l'ensemble. Il existe en effet de réelles différences culturelles entre organismes, dont un laboratoire mixte tire parti. Au reste, les différences de statuts entre personnels peuvent être réelles sur des points particuliers mais les avantages s'équilibrent entre le CEA et le CNRS.

M. Alain FONTAINE a reconnu les besoins spécifiques des très grands instruments en personnels techniques et informatiques travaillant en horaires décalés. Mais s'il y a société civile, celle-ci doit en tout état de cause être étroitement connectée avec les organismes de recherche des pays associés, pour le bon déroulement de la carrière des chercheurs détachés ainsi que pour la diffusion des connaissances acquises sur un très grand instrument.

M. Christian VETTIER a estimé que le temps de séjour d'un chercheur sur un très instrument devrait être inférieur à 10 ans. A qui revient la responsabilité de la mobilité insuffisante que l'on constate pour certains chercheurs de l'ILL ? A l'évidence, ce sont les organismes de recherche qui en sont la cause, en se refusant à détacher des personnels avec une garantie de retour. Ainsi, le CNRS n'a pas su récupérer des chercheurs détachés à l'ILL et installés à Grenoble au-delà du nécessaire.

M. Dominique GIVORD a exposé qu'un très grand instrument a la double fonction de développer ses propres laboratoires de recherche et de desservir l'ensemble de la communauté scientifique soit directement par une aide à l'utilisation de ses installations, soit par la formation des utilisateurs. Pour ce faire, deux méthodes ont été mises en pratique.

L'ILL avait clairement opté au départ pour une présence limitée de ses chercheurs sur le site, ceux-ci devant regagner leur laboratoire d'origine une fois formés aux techniques des neutrons. Cette politique n'a pas réussi pour les raisons déjà évoquées.

L'ESRF a, quant à lui, mis en _uvre une politique différente. L'ESRF possède certes un noyau de permanents mais aussi un nombre important de post-docs recrutés sur des contrats de 5 ans. Sans assurance de réintégration automatique dans leur laboratoire d'origine ou sans perspective de trouver un poste de recherche en fin de contrat avec l'ESRF, leur situation n'est pas enviable et dissuade probablement des chercheurs de grande valeur de rejoindre l'ESRF.

La bonne réponse à cette question de statut des personnels des TGE est rien moins qu'évidente et se trouve probablement dans un juste milieu entre les deux méthodes.

Les débats se sont ensuite orientés vers les questions budgétaires

*

M. Jérôme PAMELA, membre du groupe de travail, a observé que la formulation d'éventuelles contraintes budgétaires qui pourraient peser sur les très grands instruments ne peut faire abstraction de la structure de leurs dépenses.

Une contrainte budgétaire ne peut être seulement " vue d'en haut ", sans que ses conséquences ne soient correctement évaluées. En réalité, dans le budget d'un très grand instrument, il existe des postes non linéaires ou incompressibles. En réalité, il faudrait une clarification des structures pour avoir une vision claire des dépenses de fonctionnement pur et de dépenses liées à l'utilisation scientifique du grand instrument.

M. René TRÉGOUËT, Sénateur, rapporteur, a souligné qu'il s'agit là d'une question importante. En tout état de cause, il convient de savoir s'il existe des budgets incompressibles avant d'exercer une contrainte budgétaire générale. Au reste, on peut également se demander s'il est justifié que les très grands instruments se trouvent en première ligne pour les efforts budgétaires.

A cet égard, M. Alain FONTAINE a rappelé que les crédits des TGE de la physique n'ont augmenté que de 16 % de 1989 à 1999, quand le BCRD a, lui, augmenté de 22 % sur la même période de dix ans. Ceci démontre qu'il existe une réelle maîtrise des très grands instruments qui s'est traduite notamment par des fermetures de structures anciennes compensant et au delà les ouvertures de nouveaux grands équipements.

Au demeurant, les ordres de grandeur doivent être rappelés. Les crédits annuels des sources de neutrons s'élèvent en 2000 à 274 millions de francs et ceux des sources de rayonnement synchrotron à 271 millions de francs, soit un total largement inférieur aux crédits des TGE des seules sciences de la terre, alors que ces instruments desservent toute la communauté scientifique française. En tout état de cause, des budgets de cet ordre de grandeur sont " pilotables " par les grands organismes, même si la question peut être posée pour des budgets très supérieurs.

M. Robert COMÈS a insisté sur le fait que le budget d'un très grand équipement comprend des lignes incompressibles. S'agissant des demandes de réduction de crédits sur le chapitre des TGE adressées par le ministère aux grands organismes, il semble bien que l'on ait oublié de prendre en compte les personnels.

S'agissant de participations étrangères dans les budgets des instruments nationaux, celles-ci peuvent sembler justifiées à première vue en raison de la présence d'environ un tiers de chercheurs étrangers parmi les utilisateurs. Mais il faut remarquer que cette situation existe dans tous les pays du monde, l'idée d'une ouverture bénéficiant finalement à tous étant communément partagée. On ne voit pas en quoi la situation pourrait être améliorée par la comptabilisation des usages étrangers et par des échanges monétaires. A condition de borner ces échanges informels, il semble donc que l'on puisse s'en tenir au schéma actuel.

Le cas de l'ESRF et de l'ILL ne peut être comparé avec celui des installations de proximité dont le personnel est essentiellement français. Mais, en tout état de cause, il importe au plus haut point de mettre en place pour ces sociétés civiles non seulement des budgets clairement articulés avec les budgets nationaux mais également des liens forts avec les organismes de recherche pour résoudre la question du retour des personnels détachés.

M. René TRÉGOUËT, Sénateur, rapporteur, a rendu compte qu'au cours de l'audition du ministre de la recherche par l'Office parlementaire d'évaluation des choix scientifiques et technologiques, le 20 juin 2000, celui-ci s'est engagé à proposer, au cours de la présidence française de l'Union européenne, le cofinancement des très grands équipements européens par la Commission, non seulement pour l'investissement mais aussi pour leur fonctionnement.

*

La question de l'extension des capacités des sources de neutrons sur le sol français a ensuite été abordée par plusieurs orateurs.

M. Jérôme PAMELA a demandé confirmation des possibilités d'extension du nombre de faisceaux de neutrons tant au Laboratoire Léon Brillouin qu'à l'ILL, puisque, aussi bien, une seule expérience est accordée sur deux demandées.

M. Christian VETTIER a rappelé à ce sujet que la limitation du nombre d'instruments à l'ILL résulte de la renégociation en 1991-1992 de la convention signée par la France, l'Allemagne et le Royaume Uni, à la demande de ce dernier qui souhaitait réduire sa participation. Du fait de la compression du budget qui en est résulté, le nombre d'instruments a été limité à 25, à quoi s'ajoutent les équipements des CRG (Collaborative Research Group), pour atteindre un total de 30 à 33 instruments en fonction toute l'année.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé que les difficultés rencontrées par l'ILL posent la question de savoir si des accords dans le cadre des institutions de l'Union européenne, à condition qu'ils soient rendus possibles, ne seraient pas mieux adaptés aux TGE, dans la mesure où ils procureraient davantage de stabilité dans la durée à ces derniers que des accords bi- ou multilatéraux.

M. Christian VETTIER a ensuite remarqué que l'ILL a effectivement vécu une période difficile à la suite de la menace de retrait britannique. Toutefois, ces menaces sont aujourd'hui conjurées. Au contraire, l'Allemagne et même le Royaume Uni souhaiteraient amplifier les moyens de l'ILL.

La parole a ensuite été donnée à M. Gérard MARTINEZ.

*

M. Gérard MARTINEZ, Directeur-adjoint du Laboratoire des champs magnétiques intenses (LCMI) / Grenoble High Magnetic Field Laboratory (GHMFL) a indiqué que ce laboratoire mixte franco-allemand géré par le CNRS et le Max-Planck-Institut für Festkörperforschung s'est vu confier trois missions, la première portant sur la production de champs magnétiques continus les plus performants, la deuxième sur une recherche propre relative au développement des meilleures conditions spécifiques expérimentales et la troisième consistant en la mise à disposition de ses instruments à la communauté scientifique internationale.

Le personnel du LCMI/GHMFL se compose de 66 membres permanents, dont 46 ingénieurs, techniciens et administrations et 20 scientifiques, et de 10 " post-docs " et 20 doctorants.

Les investissements réalisés au LCMI/GHMFL représentent un total de 200 millions de francs environ.

Le budget annuel est de 48 millions de francs, dont 23 millions de francs pour le fonctionnement et 25 millions de francs pour les salaires et les charges. Ce montant de 48 millions de francs comprend l'ensemble des dépenses, à l'exception des amortissements qui ne sont pas comptabilisés. Le budget est pris en charge à 95 % et à parts égales par le CNRS et la Max-Planck-Gesellschaft (MPG), les 5 % restants étant financés par l'Union européenne.

Le LCMI/GHMFL n'a pas la personnalité juridique mais son mode de fonctionnement se rapproche de celui d'une société civile. Un comité d'administration composé à parité de représentants du CNRS et de la MPG se réunit chaque année pour évaluer l'activité scientifique, contrôler l'exécution du budget de l'année précédente, voter le budget de l'année en cours et approuver les budgets prévisionnels des années suivantes. Il est à noter que chaque organisme gère séparément le personnel qu'il met à disposition du laboratoire.

Les installations du LCMI/GHMFL, qui ont été développées par ses propres équipes techniques, sont réparties sur 2000 m2 et représentent une puissance électrique cumulée de 24 MW. Spécificité du laboratoire, la puissance électrique est répartie sur quatre alimentations pouvant délivrer chacune une intensité de 16500 A, avec une stabilité de l'ordre de 5.10-6.

Les 7 sites d'aimants résistifs se composent d'une part de 5 aimants absorbant 10 MW et délivrant des champs jusqu'à 25 Tesla dans un diamètre de 50 mm, et, d'autre part, de 2 aimants absorbant 20 MW et délivrant des champs jusqu'à 30 Tesla dans le même diamètre. Deux sites de 10 Tesla peuvent donc être exploités en parallèle mais un seul de 20 MW.

Par ailleurs, le laboratoire réalise actuellement un aimant hybride pouvant délivrer 40 Tesla dans un diamètre de 34 mm. Le budget d'investissement correspondant atteint 30 millions de francs.

Deux caractéristiques techniques distinguent les expérimentations avec de hauts champs magnétiques de celles réalisées avec d'autres très grands équipements comme les synchrotrons ou les sources de neutrons. La première est que, compte tenu des puissances électriques requises, on travaille en série et non pas en parallèle. La deuxième est que " l'on amène les manipulations là où il y a le champ magnétique ".

Le LCMI/GHMFL assure en moyenne 5000 heures de fonctionnement par an, les personnels pouvant travailler en horaires décalés et le laboratoire fermant un mois par an.

La répartition des utilisateurs est particulière : la recherche propre représente 37 % du total, les chercheurs français du CNRS et allemands de la MPG 15 %, les utilisateurs aidés par l'Union européenne 14 %, les autres utilisateurs 24 % et la réserve technique 10 %.

Plus de 80 projets scientifiques sont réalisés annuellement, dont 38 % sur les métaux, 32 % sur les semi-conducteurs, 16 % sur le magnétisme et 14 % sur la matière molle. Il est à noter que la résonance paramagnétique électronique (RPE) représente 4 à 5 % du total. Toutefois, cette technique qui s'applique à l'étude des radicaux libres, n'a pas été, jusqu'à présent, sollicitée par les biologistes au LCMI/GHMFL, alors qu'elle l'est par les chimistes.

Comme pour les autres très grands équipements, tous les projets sont examinés par le comité international de programme qui se réunit deux fois par an.

Au plan scientifique, la production du LCMI/GHMFL est de haut niveau.

Ce sont en effet 120 publications par an dans des revues à comité de lecture, dont 10 dans Physical Review Letters ou Nature, qui résultent de travaux qui y sont menés. De surcroît, le Prix Nobel de physique a été décerné en 1985 à K. VON KLITZING pour sa découverte de l'effet Hall quantique réalisée au LCMI/GHMFL.

Mais en quoi les champs magnétiques intenses présentent-ils un intérêt pour la recherche ?

A titre indicatif, les champs magnétiques que l'on observe généralement, sont faibles : 5.10-5 Tesla pour le champ magnétique terrestre, 10-15 Tesla pour l'activité cérébrale. Les très hauts champs s'observent dans les objets cosmiques comme les pulsars où ils atteignent 5.108 Tesla.

Comme on l'a vu précédemment, les champs magnétiques les plus intenses que l'on produit dans des laboratoires comme le LCMI/GHMFL peuvent atteindre 44 Tesla pour les champs continus et 70 Tesla pour les champs pulsés.

Les sondes magnétiques se caractérisent par plusieurs avantages considérables. Elles mettent en jeu des énergies très faibles : un champ magnétique de 1 Tesla correspond en effet à une énergie de 0,58.10-4 eV, ce qui permet des analyses non destructives. Mais par ailleurs, les champs magnétiques pénètrent tous les matériaux en profondeur.

Or la matière est constituée de particules chargées, les noyaux atomiques et les électrons, qui possèdent un moment cinétique propre - le spin, dont les interactions commandent les propriétés. Le champ magnétique en agissant sur le spin et en quantifiant les états électroniques, influence profondément les propriétés de corrélation de la matière, ce qui en fait un outil idéal d'étude de ses propriétés.

Quelles sont les applications des hauts champs magnétiques ?

En premier lieu, ces techniques sont essentielles pour la mise au point de conducteurs à faible résistivité et à forte résistance mécanique. L'objectif dans ce domaine est la mise au point de matériaux pour les câbles supraconducteurs à fort champ et courant critique qu'il faut mettre au point pour développer la RMN à 1 GHz.

Le deuxième domaine est celui des méthodes de croissance pour la préparation de nouveaux matériaux, les champs magnétiques intenses permettant d'augmenter leur structuration, d'éliminer les phénomènes de convection et d'obtenir, grâce au phénomène de lévitation magnétique, des méthodes de croissance analogues à celles mises en _uvre en état d'apesanteur, et ceci pour des coûts évidemment beaucoup plus réduits.

Parmi les nombreuses applications industrielles des champs magnétiques intenses, on peut citer les conséquences des études fondamentales sur les systèmes bidimensionnels qui ont conduit l'industrie à développer les lasers solides, les transistors à effet de champ et à hautes fréquences, dispositifs au c_ur des nouvelles technologies de l'information et de la communication. Il faut également citer le développement de systèmes unidimensionnels dans les nanotechnologies, dont les applications seront probablement très nombreuses. Or pour étudier les phénomènes quantiques et les corrélations dont l'importance augmente quand on réduit les dimensions, il est nécessaire de recourir à des champs magnétiques très intenses.

Autres applications des hauts champs magnétiques, la résonance paramagnétique électronique (RPE) et la résonance magnétique nucléaire (RMN) sont des techniques d'une importance capitale pour les sciences du vivant.

*

M. Gérard MARTINEZ a par ailleurs comparé les performances de la RMN et des sources de neutrons.

La RMN (résonance magnétique nucléaire) et les sources de neutrons sont complémentaires à de nombreux points de vue.

Le point le plus important concerne la dynamique des protéines, que seules ces deux techniques permettent d'aborder.

Les neutrons permettent d'avoir des informations globales sur la mobilité interne de la protéine, notamment en ce qui concerne les chaînes latérales et les molécules d'eau adsorbées. Or la mobilité interne de la protéine gouverne son aspect fonctionnel et ceci quelle que soit sa taille. La RMN apporte également ce type d'information mais de manière plus ciblée et plus locale, ce qui est extrêmement précieux pour l'étude des interactions protéines-ligand et protéines-ADN.

Les échelles de temps de ces deux techniques sont très complémentaires. Elles varient en effet de la picoseconde (10-12 s) à la nanoseconde (10-9 s) pour les neutrons, de la nanoseconde à quelques millisecondes pour la RMN.

Un autre domaine où les deux techniques sont appelées à jouer un rôle complémentaire, avec le développement de la RMN à haute résolution pour les solides, est celui des objets non cristallisables comme les protéines membranaires, les membranes et les micro-tubules.

Enfin, il faut évoquer la question des gros assemblages de protéines en interaction, dont les neutrons sont les seuls à permettre d'obtenir une structure basse résolution. L'accroissement de la sensibilité de la RMN laisse espérer dans le futur, une étude des interactions locales entre les protéines impliquées dans ces complexes.

En ce qui concerne les structures haute résolution des protéines cristallisées, les neutrons pas plus que la RMN, ne sont compétitifs avec l'utilisation du rayonnement synchrotron. Ils peuvent néanmoins apporter des informations spécifiques sur la position des protons, qui, lorsqu'ils gardent une mobilité locale, restent inaccessibles aux rayons X.

*

En définitive, il n'est pas usurpé de dire que " le magnétisme est un outil qui joue et jouera un rôle direct et indirect de plus en plus important dans la maîtrise des matériaux complexes et nouveaux, ainsi qu'en biochimie et en pharmacie ".

Performant sur le plan scientifique et consacrant ses efforts à un domaine d'une très grande importance pour l'avenir, le Laboratoire des champs magnétiques intenses (LCMI/GHMFL) voit pourtant son existence menacée au delà de 2004.

La convention passée entre le CNRS et la MPG pour la gestion des installations du LMCI expire en effet en décembre 2004. Or  la MPG a fait connaître son intention de ne plus participer à la gestion du laboratoire dans le cadre d'une convention bipartite avec le CNRS, tout en laissant la porte ouverte à toute solution impliquant plus de deux partenaires.

La participation de nouveaux partenaires apparaît possible et même souhaitable. En tout état de cause, il est indispensable que les responsables de la recherche française engagent des contacts de haut niveau pour concrétiser l'intérêt évident de plusieurs pays européens pour ce laboratoire.

L'élargissement du partenariat suppose toutefois des modifications de structure du LCMI. En effet, depuis l'origine, ce laboratoire est doté, comme on l'a vu, de deux groupes de personnels et de deux comptabilités différentes. Une telle organisation ne peut servir de modèle pour l'avenir.

La direction du LCMI/GHMFL préconise en conséquence une nouvelle structure opérationnelle avec " un statut de droit privé incluant la gestion propre du personnel ". Un tel changement nécessite une décision politique.

En réponse à M. René TRÉGOUËT, Sénateur, rapporteur, demandant pour quelles raisons la MPG envisage son retrait partiel ou complet, M. Peter WYDER, Directeur du LCMI/GHMFL a précisé que son laboratoire est en réalité " victime de son succès ".

Il fait partie de la politique de la MPG de renouveler ses activités et de fermer certaines installations pour en ouvrir d'autres. Son engagement dans le LCMI est considéré comme un succès mais la MPG a décidé de redéployer, au moins en partie, les financements qui lui ont été consacrés.

Une discussion est alors intervenue sur l'organisation du système de recherche outre-Rhin.

*

M. Gérard MARTINEZ a expliqué que le système allemand de recherche est structuré en quatre pôles.

Le premier pôle est la Deutsche Forschungsgemeinschaft (DFG), agence de moyen du type de la NSF américaine (National Science Foundation), pour les opérations individuelles de recherche dans les universités. La DFG dépend entièrement du ministère de la recherche, le BMBF (Bundesministerium für Bildung und Forschung), qui couvre l'ensemble des domaines scientifiques et techniques.

Le deuxième pôle est la Max-Planck Gesellschaft (MPG), société de droit privé subventionnée à hauteur de 50 % de ses dépenses par le BMBF mais aussi par les Lander et par des legs. Le MPG gère directement ses instituts de recherche.

Le troisième pôle second est celui du Helmholtz (Hermann von Helmholtz-Gemeinschaft Deutscher Forschungszentren - HGF), association d'instituts recevant chacun directement leurs ressources du BMBF et gérés de façon autonome.

Le quatrième pôle est le Wissenschaftsgemeinschaft Gottfried Wilhelm Leibnitz, association d'instituts issus de la fameuse " Blaue List ", subventionnés à 50 % par le BMBF et à 50 % par les Lander.

M. Jochen SCHNEIDER, membre du groupe de travail a précisé que la Max-Planck Gesellschaft s'est développée essentiellement sous la forme d'instituts créés autour de personnalités marquantes afin de servir leurs thèmes de recherche privilégiés. Au contraire, un organisme comme le CEA a des buts prédéfinis et recrute les spécialistes en conséquence.

L'organisme LEIBNITZ réunit quant à lui les instituts de la " Blaue List ", d'importance moyenne, de financement diversifié - les crédits publics représentent moins de la moitié du total de leurs ressources - et d'une certaine antériorité alors que leur but initial n'était pas d'être pérennisés.

L'institut HELMHOLTZ (HGF) rassemble quant à lui de grands centres de recherche travaillant sur des sujets variés, dont le centre DESY de Hambourg. On estime généralement qu'il reste au HGF à trouver une identité.

*

En réponse à une question de M. Gilles COHEN-TANNOUDJI sur les possibilités d'atteindre des champs magnétiques plus élevés qu'actuellement, M. Gérard MARTINEZ a précisé qu'avec des champs magnétiques pulsés, il sera probablement possible d'atteindre 100 Tesla, la limite actuelle étant de 60 Tesla. En matière de champs continus, la limite actuelle est de 50 Tesla, obtenue avec un doublement de la puissance qui se traduit par un gain de 10, 20 ou 30 %.

M. Dominique GIVORD a expliqué qu'au-delà de 50 Tesla, les champs magnétiques transitoires représentent une voie d'avenir. Pour le moment, la limite technique est représentée par une durée de 0,5 seconde pour un champ de 100 Tesla. Au-delà de cette limite, les problèmes de tenue mécanique des matériaux deviennent très difficiles à résoudre. Le laboratoire des champs magnétiques pulsés de Toulouse a pu créer un champ de 80 Tesla pendant 300 ms. Un champ de 60 Tesla pendant une seconde a été obtenu à Los Alamos. Des champs de 250 Tesla ont été obtenus en Allemagne et au Japon.

L'objectif recherché en augmentant l'intensité du champ magnétique est l'étude des couplages directs entre moments magnétiques. Avec des intensités supérieures à 100 Tesla, on atteint en effet les niveaux de couplage naturels des atomes. On espère ainsi progresser dans la connaissance de la supraconductivité, notamment pour la production de champs magnétiques plus intenses.

M. Claude BERTHIER, responsable des programmes RMN au LCMI/GHMFL a précisé qu'il existe des matériaux dont les champs critiques sont supérieurs à 100 Tesla mais qu'on rencontre de grandes difficultés pour leur mise en forme.

*

M. Gérard MARTINEZ a ensuite traité de la prospective de la RMN à hauts champs.

Un atome spécifique soumis à un champ magnétique est soumis à une résonance dont la fréquence dépend de l'intensité du champ qui lui est appliqué, de son rapport gyromagnétique spécifique, de son moment cinétique propre (spin) et de son environnement électronique et nucléaire.

La résonance magnétique nucléaire (RMN) est donc une sonde locale qui a une spécificité chimique. Avec une résolution suffisante, la méthode permet de sélectionner l'espèce chimique étudiée et de recueillir des informations structurales y compris dynamiques, sans qu'il soit nécessaire de travailler sur des cristaux.

En conséquence, la RMN présente un intérêt exceptionnel pour l'étude des protéines et de leurs fonctionnalités. En effet, il est fondamental de connaître non seulement la structure de la molécule mais également comment varie cette structure selon sa fonctionnalité et donc son environnement.

Or la RMN permet de résoudre les structures dans un environnement solide ou liquide, ce qui met à sa portée l'étude des protéines membranaires par exemple. Au reste, pour les protéines qui ne cristallisent pas, en particulier les protéines membranaires et les protéines hétérogènes, la RMN est la seule méthode disponible. De plus, cette méthode permet également d'étudier les mouvements moléculaires et de les corréler à la cinétique chimique favorisée ou inhibée par les protéines. La RMN peut enfin servir à caractériser des complexes binaires ou ternaires et des protéines hétérogènes.

Compte tenu de ces atouts, la RMN connaît des développements à la fois méthodologiques et technologiques.

En augmentant les champs magnétiques appliqués, on augmente le déplacement chimique et la largeur de raie pour chaque transition, pour une espèce particulière comme l'atome d'hydrogène. Une autre technique consiste à envoyer des trains d'impulsion de radiofréquences appropriées basées sur deux échelles de temps variables. Cette méthode, intitulée RMN 2D, permet d'identifier les interactions entre deux espèces chimiques différentes, par exemple la liaison carbone-hydrogène. Il est également possible de faire aujourd'hui de la RMN 3D.

En tout état de cause, la RMN semble repousser régulièrement ses limites techniques par l'invention de nouvelles méthodes, de sorte que la taille des molécules qu'elle permet d'étudier s'accroît régulièrement. A cet égard, l'augmentation des champs magnétiques appliqués ne procure que des avantages.

Le " prix à payer " dans cette évolution vers des champs d'intensité plus élevée, c'est la qualité de ceux-ci. Il ne sert en effet à rien d'augmenter le champ magnétique si l'on perd de son homogénéité.

Les meilleurs spectromètres commerciaux sont actuellement à 800 MHz, ce qui suppose l'utilisation de supraconducteurs.

De fait, dans ces conditions, l'utilisation de la RMN est limitée à l'étude de molécules de poids moléculaire inférieur à 40 000 Dalton 3.

En tout état de cause, le rayonnement synchrotron ne présente pas cette limitation, bénéficie d'une meilleure précision et d'une plus grande rapidité. Mais il est limité aux molécules cristallisées.

La RMN, quant à elle, est certes limitée à des poids moléculaires relativement faibles pour des protéines. Mais hormis cette limitation de poids moléculaire, la RMN présente l'avantage non seulement de pouvoir être appliquée à des molécules non cristallisables comme les protéines membranaires et disponibles en faible quantité, mais également d'ouvrir le champ des études dynamiques.

En l'état actuel des techniques, la RMN et le rayonnement synchrotron apparaissent donc comme complémentaires.

Qu'en sera-t-il à l'avenir ?

Les technologies actuelles permettent d'ores et déjà de faire de la RMN à 900 MHz. Plusieurs pays ont déjà commandé des machines de ce type, dont l'Allemagne qui devrait être équipée de 2 exemplaires à la fin 2000. La France n'a pas encore, quant à elle, passé de commande.

En progressant à 1 GHz, la limite de poids moléculaire devrait passer à 80 000 Dalton.

Le passage à 1 GHz représente de fait un saut technologique. De nouveaux matériaux supraconducteurs sont en effet nécessaires, ainsi que des techniques nouvelles. Le prix estimé d'un tel spectromètre devrait être de 15 millions de dollars, sans compter l'infrastructure nécessaire.

Il semble donc que la RMN et le rayonnement synchrotron vont continuer d'être, pour au moins quelques années encore, des techniques complémentaires plutôt que substituables.

Pour autant, il semble nécessaire d'approfondir les recherches sur la mise au point de spectromètres à 1 GHz. A la suite d'une demande du ministère de la recherche en date de mai 2000, le LCMI/GHMFL a étudié les conditions d'un tel programme et devrait rendre ses conclusions à la fin de l'année.

La mise au point d'un spectromètre de RMN à 1 GHz à finalité biochimique nécessiterait des recherches sur 5 ans pour un investissement cumulé de l'ordre de 200 millions de francs. Le prototype pourrait être installé à Grenoble, l'objectif étant la réalisation de 5 centres d'excellence en Europe dotés chacun dans un premier temps de spectromètres à 900 MHz puis ultérieurement d'une machine à 1 GHz. Un tel plan rejoindrait la stratégie américaine qui prévoit, elle, la création de 10 centres d'excellence pour la RMN équipés selon ce schéma.

*

Le Dr. Denis LE BIHAN, membre du groupe de travail, a indiqué que l'une des questions clés en matière d'imagerie cérébrale est l'étude moléculaire in situ. La difficulté technique essentielle est de créer des champs magnétiques homogènes sur un volume important correspondant au corps des animaux d'expérimentation, l'observation des primates nécessitant en particulier des aimants plus grands. Le retard de la France en équipements modernes est à cet égard important. Alors qu'aux Etats-Unis, il existe des imageurs à 14 Tesla pour l'observation des animaux, il n'en existe pas à 7 Tesla en France.

Le retard est similaire pour les imageurs utilisés pour l'homme. Les Etats-Unis disposent d'imageurs dans la gamme 7 à 10 Tesla pour la recherche. Les meilleures machines pour la recherche appartiennent au contraire à la catégorie des machines de 3 Tesla avec des entrefers de 60 à 80 cm utilisées en clinique outre-Atlantique.

Dans ces conditions que conviendrait-il de développer en France ?

La mise au point d'une machine à 10 Tesla pour l'animal serait un bon objectif de développement et constituerait en soi un projet de l'envergure d'un très grand équipement.

Un autre axe de recherche est digne d'intérêt. Il s'agit des blocs opératoires placés dans des hauts champs magnétiques, une technique qui permet de visualiser les tissus. Il existe d'ores et déjà 11 prototypes dans le monde.

Il semble important qu'une réflexion soit entamée sur cette question dans notre pays.

Un débat est alors intervenu sur la faisabilité des spectromètres et des imageurs à hauts champs magnétiques.

*

M. Gérard MARTINEZ a indiqué que la recherche française possède des compétences dans la conception de matériels de ce type. En revanche, faute de compétences dans la fabrication des matériaux supraconducteurs, il sera nécessaire de s'appuyer sur des entreprises comme Bruker, Magnex ou Kobe Industry qui maîtrisent les technologies de ce type.

En réponse à une demande de M. Jochen SCHNEIDER, M. Christian VETTIER et M. Gérard MARTINEZ ont accepté de fournir aux Rapporteurs et aux membres de leur groupe de travail, une étude comparative sur les avantages et les inconvénients respectifs des sources de neutrons et de la RMN à hauts champs.

M. Claude BERTHIER a précisé que deux types de contraintes pèsent sur la RMN à hauts champs. Il s'agit en premier lieu de la nécessité d'avoir un champ magnétique homogène. Il faut de surcroît que ce dernier soit stable. En tout état de cause, les deux conditions doivent être réunies simultanément. En effet, l'homogénéité n'a aucun intérêt s'il n'y a pas de stabilité dans le temps. Il faut donc des bobines supraconductrices qui ne génèrent pas de fluctuations.

A cet égard, il existe un verrou technologique à faire sauter pour passer des machines à 900 MHz déjà commercialisées à la prochaine génération de machines à 1 GHz.

Mais l'histoire de la RMN est faite de progrès inattendus, en particulier méthodologiques, qui ont permis sans cesse de repousser plus loin les limites de cette technique.

Les projets de RMN ne figurent pas pour le moment au chapitre des très grands équipements. Il faut toutefois constater une tendance nouvelle à la constitution de grands centres de RMN qui pourraient, une fois réalisés en France, appartenir à la catégorie des TGE.

*

En conclusion à la réunion, M. René TRÉGOUËT, Sénateur, rapporteur, a remercié les participants à la réunion pour la qualité des informations données et s'est félicité de la passion manifestée par les orateurs pour leurs domaines de recherche respectifs.

6. Politique générale des TGE - Politique des TGE pour l'analyse fine de la matière, les STIC et les sciences du vivant - mercredi 28 juin 2000

Compagnie de Saint Gobain

· M. J-C LEHMANN, Directeur de la recherche de Saint Gobain

Ministère de la Recherche : Direction de la Recherche

· M. Michel FOUGEREAU, Conseiller du Directeur de la Recherche pour les sciences de la vie, la biologie et la médecine

· M. Jacques HAIECH, Directeur du Programme national de génomique

· M. Claude PUECH, Conseiller du Directeur de la Recherche pour les Mathématiques et l'Informatique

· Mme Michèle LEDUC, Conseiller du Directeur de la Recherche pour la Physique et les Sciences de l'Ingénieur

Ministère de la Recherche : Direction de la Technologie

· M. Jean-Alexis GRIMAUD, Directeur du département bio-ingéniérie

· M. Maurice FISCHER, Conseiller pour les technologies de l'information

· M. Bernard FROIS, Directeur du département énergie, transports, environnement, ressources naturelles

· M. Philippe LECONTE, Conseiller à la Direction de la Technologie

M. René TRÉGOUËT, Sénateur, rapporteur, a ouvert la réunion en remerciant M. Jean-Claude LEHMANN d'avoir bien voulu revenir devant le groupe de travail s'exprimer sur " le rôle des très grands équipements dans la recherche publique et privée en France et en Europe ", après avoir déjà donné un point de vue remarqué sur la première partie de l'étude, à savoir " les conditions d'implantation d'un nouveau synchrotron ".

Sans doute à l'occasion de ce nouvel exposé serait-il utile au groupe de travail d'avoir son opinion sur la définition des TGE, les processus de décision sur l'établissement des priorités et les modalités d'une participation accrue de l'industrie à leur construction.

La parole a été donnée à M. Jean-Claude LEHMANN.

*

M. Jean-Claude LEHMANN, Directeur de la Recherche de la Compagnie Saint Gobain, a commencé son intervention en indiquant qu'à la lumière des comptes rendus des réunions déjà tenues par le groupe de travail, il semble nécessaire de redéfinir les très grands équipements, une notion au demeurant limitative. Au vrai, pour quelles raisons a-t-on été conduit à ce concept ?

La première raison est qu'il est nécessaire de caractériser les équipements à vocation collective. On se souvient à cet égard que le premier très grand équipement à avoir été réalisé est le grand électroaimant de Bellevue, construit avant-guerre par l'Académie des sciences.

La deuxième raison est d'ordre financier avec la prise en compte d'investissements très importants et pluriannuels. Il s'agit donc de réconcilier les budgets annuels concernés avec la nécessité d'une programmation pluriannuelle.

La troisième raison correspond à l'obligation de définir et de respecter un équilibre entre le financement des très grands équipements et la prise en charges des équipements mi-lourds des laboratoires et de leurs frais de fonctionnement.

Enfin, en tant que quatrième raison d'élaborer une définition des TGE, figure la nécessité d'avoir une vision à long terme de la planification de ces derniers, du fait de l'importance des investissements qu'ils requièrent et de leur poids relatif par rapport aux autres types d'investissements.

En tout état de cause, si l'on veut un outil de conduite de la politique de la recherche, il faut bien une définition des TGE.

Bien entendu, la tentation est grande d'inclure dans la catégorie des TGE des dépenses de plus en plus nombreuses, dans la mesure où l'enveloppe budgétaire des TGE semble garantie et où, ce faisant, elles pourront sembler protégées à leur tour.

Toutefois, avec une telle méthode, on procéderait à l'inverse de ce qu'il convient de faire. Il faut en tout état de cause une dichotomie et en respecter les fondements.

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, sur la condition de l'unité de lieu pour l'appartenance à la catégorie des TGE et sur l'inclusion d'une structure éclatée comme RENATER 2, M. Jean-Claude LEHMANN a estimé qu'un réseau physique résultant d'un investissement lourd répond effectivement à la même logique et peut donc être considéré comme un TGE mais qu'un réseau de laboratoires ne peut l'être.

M. Roger BALIAN s'étant interrogé sur l'usage nécessairement collectif du TGE et en conséquence sur la nature du CERN, M. Jean-Claude LEHMANN a souligné que le CERN sert toute la collectivité de la physique des particules et que sa définition d'un TGE exclut l'obligation qu'il soit pluridisciplinaire. Dans ce registre, l'usage collectif peut être national ou international, tandis que les équipements mi-lourds comme la RMN rayonnent sur la communauté scientifique à l'échelon local.

En réponse à une question de Mme Claudine LAURENT sur la catégorie d'appartenance de SOHO, M. Jean-Claude LEHMANN a estimé que le spatial excipe d'une autre catégorie que celle des TGE. Les équipements spatiaux sont à l'évidence des moyens lourds mais ils représentent une catégorie en soi dans la politique de recherche nationale, catégorie qu'il faut traiter en tant que telle. Il convient en tout état de cause de ne faire pas de la catégorie des TGE un fourre-tout comprenant des infrastructures disparates, les bibliothèques en particulier ne pouvant y figurer.

Une fois définie la catégorie des TGE, quel poids budgétaire doit-elle avoir ?

En premier lieu, la composition des TGE ne doit pas être considérée comme immuable. A cet égard, on ne saurait refuser que la part de la physique nucléaire décroisse en valeur relative, alors que la montée des besoins des sciences et technologies de l'information et de la communication et celle des sciences du vivant seraient établies. Ainsi, deux écueils doivent être évités, d'une part la continuité absolue, et, d'autre part, la banalisation de la notion.

De toute évidence, il semble impossible d'échapper à une vraie réflexion sur le poids à accorder aux TGE dans la politique de la recherche. Comme, par ailleurs, les TGE sont analogues à un lourd navire dont les changements de cap sont nécessairement lents, cette réflexion doit être permanente.

Ce travail permanent de réflexion sur l'enveloppe globale des TGE semble revenir au Conseil supérieur de la recherche et de la technologie (CSRT) qui rassemble des représentants de la recherche publique, de l'industrie et des syndicats, et non pas à une commission parlementaire. Il s'agit d'analyser les grandes tendances de la recherche et d'examiner quels sont les grands équilibres à respecter. Au demeurant, les avis du CSRT peuvent éclairer également les réflexions du Parlement.

A ce niveau de la réflexion, une fois l'enveloppe globale déterminée, il s'agit d'allouer les sommes disponibles aux différents TGE et d'établir une programmation à long terme.

Pour contribuer à la réflexion sur la répartition entre les différentes disciplines de l'enveloppe des TGE, faut-il recréer le précédent Conseil des grands équipements ?

Le Conseil des grands équipements avait un rôle, non pas dans la définition du budget global alloué aux TGE mais dans l'examen du détail des projets, en vue de faire des propositions au Gouvernement.

La disparition du Conseil des grands équipements a incontestablement introduit une faiblesse supplémentaire dans le dispositif. La définition d'une masse globale ne semble pas obéir à une règle prédéfinie, sa répartition non plus, ce qui laisse libre cours aux rivalités entre disciplines.

En tout état de cause, il faut une structure qui permette " de voir venir de loin " les projets. Ceux-ci mettent en effet dix ans à se monter, avec les phases nécessaires de mise au point technique, de justification scientifique et de lobbying. Seul un Conseil spécialisé peut peser les arguments des différents projets et proposer des choix au Gouvernement.

Une discussion s'est alors engagée sur la méthodologie à suivre pour déterminer la part optimale des TGE dans les crédits de la recherche.

*

M. Michel SPIRO, membre du groupe de travail, a estimé qu'une autre méthode devrait être utilisée. Le point de départ de la démarche doit être une répartition discipline par discipline des crédits disponibles. C'est une fois cette répartition faite qu'à l'intérieur de chaque discipline, l'arbitrage entre les très grands équipements et les autres dépenses doit être fait.

Pour M. Jean-Claude LEHMANN, " on dépasse au XXIe siècle la notion de discipline ". Il faut en conséquence une démarche globale, fondée sur la consolidation de l'expression de la communauté scientifique relative aux différentes disciplines, consolidation qui débouche ensuite sur la définition de l'équilibre entre très grands équipements et autres investissements. En tout état de cause, la détermination d'un équilibre répondant aux besoins scientifiques est fondamentale, une réflexion sur la gestion des priorités ne pouvant être évitée.

M. Jean GALLOT, membre du groupe de travail, a relevé qu'une question supplémentaire doit être posée. S'il est nécessaire de traiter d'une part la question du poids des TGE dans l'enveloppe globale de la recherche et d'autre part celle de la ventilation entre disciplines des crédits réservés à ces derniers, il convient également de savoir comment on définit l'ampleur de l'enveloppe globale attribuée à la recherche. Cette dernière question doit, elle aussi, être traitée par la communauté scientifique. La mise en place d'une méthode de décision plus rationnelle pour les TGE exige en tout état de cause que les besoins scientifiques soient injectés, en tant que paramètre essentiel, dans la détermination de l'enveloppe globale de la recherche.

M. Jean-Claude LEHMANN a souligné que la définition de l'enveloppe TGE indépendamment de l'enveloppe globale serait une aberration. Il appartient au CSRT ou à une autre structure importante de conduire une réflexion permanente à ce sujet. Au demeurant, il faut bien constater une inertie considérable de nombreuses lignes des budgets de recherche, ceci créant des difficultés que connaissent bien les entreprises soumises certaines années à des diminutions brutales dans ce domaine.

M. Gilles COHEN-TANNOUDJI, membre du groupe de travail, a remarqué que la définition des TGE a une dimension " temporelle " importante. L'évolution technique peut faire qu'un instrument n'entre pas pendant longtemps dans la catégorie des TGE, connaisse ensuite une évolution technique qui l'y fasse entrer, puis une évolution en sens inverse qui l'en fasse sortir. Les gros ordinateurs peuvent relever un temps de cette catégorie, puis se banaliser du fait du progrès technique et de l'abaissement des coûts dans l'industrie informatique. Par ailleurs, une tendance forte de l'évolution des grands instruments est souvent celle de la diminution de leur taille. Ainsi, après la mise au point de l'ESRF, il n'est pas question de construire un " super ESRF " mais d'égaler ou presque ses performances avec un équipement d'une énergie très inférieure.

M. Jean-Claude LEHMANN a approuvé cette vision des choses, en soulignant qu'il existe effectivement des technologies qui se développent tout en enregistrant une diminution de leurs coûts.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé nécessaire d'approfondir la réflexion sur un processus déficient, à savoir la situation créée tant par les limites de l'action du Conseil des grands équipements que par celle de sa dissolution.

Il a pu être reproché à l'Office de conduire une étude sur les TGE qui ne représentera qu'une vision instantanée d'une question s'étendant au contraire sur plusieurs années.

En réalité, par nature, l'Office parlementaire d'évaluation des choix scientifiques et technologiques doit éclairer le Parlement sur des choix durables et porteurs d'avenir.

Après 17 années de travaux de l'Office, il est temps que l'exécutif et la communauté scientifique réalisent que le Parlement porte une attention forte aux questions scientifiques et techniques. Ce dernier doit être intégré dans le processus relatif aux TGE.

En amont, lorsque le Parlement débat des orientations budgétaires, les élus doivent faire connaître au Gouvernement le degré de priorité donnée à la recherche par la Nation.

Mais " c'est aussi au Parlement de dire les priorités de recherche ". La communauté scientifique et technique ayant fait connaître ses préférences en termes de types de moyens dont elle souhaite disposer, il convient que l'Office fasse des recommandations à cet égard, en intégrant bien entendu les contraintes budgétaires.

Le rôle du Parlement n'est pas seulement d'intervenir en matière budgétaire. Il est également d'exprimer, avec l'aide de l'Office, des choix scientifiques et technologiques.

Le Congrès a joué un rôle capital dans l'effort massif engagé par les Etats-Unis dans le domaine des sciences du vivant. Ce rôle doit être pris en exemple.

En définitive, il convient d'intégrer l'Office parlementaire d'évaluation des choix scientifiques et technologiques dans le processus de décision relatif aux très grands équipements.

Au demeurant, l'Office ayant une démarche consensuelle et pouvant se situer dans la durée, ses avis ne peuvent être pris à la légère.

M. Jean-Claude LEHMANN a fait connaître son accord avec cette analyse. De fait, il existe en France un manque de dialogue entre la science, la technologie et le monde politique, comparativement à ce que l'on rencontre au Royaume Uni et aux Etats-Unis.

Si le rôle du CSRT peut être d'ores et déjà jugé comme important, il est indispensable que ses travaux soient réellement portés à la connaissance du Parlement et qu'il contribue, le cas échéant, au dialogue entre ce dernier et la communauté scientifique.

M. Roger BALIAN a estimé que le rôle attribué par M. Jean-Claude LEHMANN au Conseil des grands équipements est rétrospectivement quelque peu idyllique.

Contrairement à ce qui a été obligeamment dit, le Conseil des grands équipements ne pouvait avoir de vision à long terme, dans la mesure où les projets de TGE étaient portés à sa connaissance une fois qu'ils étaient " mûrs ".

De plus, il n'avait pas de vision globale dans la mesure où il ne pouvait avoir de vision politique.

En conséquence, le rapport du Conseil des grands équipements jouait essentiellement le rôle d'inventaire et d'état des lieux.

En outre, en tant qu'organe de consultation à la disposition du ministre, le Conseil n'avait pas de pouvoir d'auto-saisine. C'est ainsi qu'il n'a pu évoquer le rayonnement synchrotron que par la bande, car les projets n'étaient pas " arrivés " jusqu'au Conseil. En tout état de cause, son pouvoir d'évocation se limitait aux projets dont il était saisi.

M. Jean-Claude LEHMANN a de nouveau fait remarquer que, compte tenu de l'importance des engagements financiers, il faut d'abord déterminer un équilibre entre les TGE et les autres dépenses de recherche, puis instruire les dossiers de TGE. Par ailleurs, s'il importe que le Parlement soit partie prenante de la réflexion sur les grands équilibres, il n'en demeure pas moins qu'une structure de suivi à long terme des TGE est indispensable.

*

Deux autres aspects ont ensuite été abordés par M. Jean-Claude LEHMANN, la dimension nationale ou internationale des TGE et l'intérêt de l'industrie pour ces derniers.

Le passage à l'échelle européenne semble indispensable dès que les TGE atteignent une certaine dimension. Mais ceci ne concerne pas tous les TGE.

Il faut donc une programmation au niveau européen, tout en sachant que les difficultés d'un tel exercice n'épargnent pas les Etats-Unis qui sont souvent loin, eux aussi, de l'optimum.

Par ailleurs, il convient de ne pas sous-estimer le caractère ardu de négociations internationales dans un tel domaine.

Ce sont des structures spécialisées qui devraient intervenir, composées de spécialistes rompus aux négociations, avec la difficulté que les communautés scientifiques restent principalement nationales.

Sur la question de savoir si la création d'un Conseil des grands équipements européens est opportune, la réponse est positive, en tout cas pour le rayonnement synchrotron.

Sur le plan de son implication dans les TGE, l'industrie est loin d'être au bout de sa réflexion sur les deux points essentiels qui sont, d'une part, les bénéfices que la recherche industrielle pourrait tirer d'une utilisation accrue des TGE, et, d'autre part, les modalités de sa participation à la création ou à l'exploitation de ces installations.

Dans des domaines de plus en plus nombreux de la recherche, par exemple la biologie, la science des matériaux ou l'informatique, les entreprises mondiales sont de plus en plus confrontées à la nécessité d'accélérer leurs processus de développements technologiques. Il est incontestable que des instruments comme les synchrotrons ou les sources de neutrons, grâce à leurs performances exceptionnelles, permettent, par exemple, d'élucider des structures complexes beaucoup plus rapidement que les équipements de laboratoire. Toutefois, l'industrie n'est pas " au bout de cette logique ". Les TGE peuvent être la clé pour résoudre plus vite des problèmes ardus. On peut imaginer à cet égard une généralisation de leur emploi si une ou plusieurs entreprises d'un secteur fortement concurrencé découvrent que les TGE accélèrent le rythme de leur recherche.

S'agissant de la participation de l'industrie à la vie des TGE, il convient de réaliser que les grandes entreprises internationales considèrent leur accès aux moyens de recherche publique de façon globale. Une entreprise comme la Compagnie Saint Gobain souhaite privilégier la France pour ses accès au rayonnement synchrotron mais peut tout aussi bien recourir aux équipements américains.

Mettant en _uvre une politique scientifique globale, les entreprises implantent leurs laboratoires de recherche dans l'environnement le plus favorable, même si celui-ci se trouve dans différents pays. A cet égard, la contiguïté d'un TGE et de laboratoires de recherche profite aux deux.

En dehors de l'obligation de posséder au moins un laboratoire aux Etats-Unis et au Japon, les entreprises mondiales répartissent le plus intelligemment possible leur recherche dans différents pays. A cet égard, les entreprises britanniques sont les plus mondialisées. Tout en réalisant une part accrue de leur recherche à l'étranger, des entreprises françaises comme Saint Gobain souhaitent conserver, voire agrandir leur implantation de recherche en France. La qualité et l'originalité de la formation délivrée en France constituent par ailleurs la principale raison pour laquelle les entreprises étrangères implantent un laboratoire en France.

Il importe en conséquence que la France garde son potentiel intellectuel au niveau le plus élevé possible, car c'est son principal atout.

Faut-il, dans ces conditions, concevoir et exécuter toute la politique de recherche et son volet " grands équipements " au niveau de l'Europe ? Assurément pas : il faut au contraire garder en France un potentiel de recherche dans tous les secteurs.

S'agissant de la participation de l'industrie à l'investissement dans les très grands équipements et à leur dépenses de fonctionnement, M. Jean-Claude LEHMANN a noté qu'il y a peu d'industriels dans notre pays intéressés par les TGE. Il y en a en tout cas moins que dans d'autres pays. A cet égard, l'intérêt de Total Fina Elf pour le futur synchrotron semble lié à son éventuelle implantation en Aquitaine.

Considérant que le niveau des impôts est élevé en France, les entreprises entendent que l'Etat apporte en retour de multiples services, dont l'accès à des très grands équipements. Au reste, une entreprise comme Saint Gobain n'investit pas pour le moment dans ce domaine.

Néanmoins, il faut bien constater la sensibilité des entreprises françaises aux avantages fiscaux. Le crédit impôt recherche est, à cet égard, une mesure positive, qui s'est révélée beaucoup plus efficace qu'une subvention. Le crédit d'impôt recherche a en effet contribué à convaincre les directions financières que les dépenses de recherche ont au moins l'utilité de générer des avantages fiscaux.

Dans la mesure où la fiscalité est un puissant facteur de motivation dans notre pays, il serait sans nul doute utile d'imaginer des mesures fiscales permettant de surmonter le blocage des entreprises françaises vis-à-vis du financement de la construction des TGE.

Si la France est en retard pour l'investissement dans les TGE, elle l'est également pour la participation à leurs dépenses de fonctionnement.

Les chercheurs de l'industrie participent certes à des expérimentations sur les grands instruments, mais le plus souvent par l'intermédiaire d'équipes universitaires ou d'organismes de recherche.

En réalité, dans les laboratoires de l'industrie, il n'existe pas assez de scientifiques aptes à réaliser ces expériences par eux-mêmes. De toute façon, une barrière psychologique et un manque de temps pour se former s'opposent à une utilisation directe. Enfin, le système d'accès aux grands instruments est organisé de manière telle que le coût d'utilisation est, dans ces conditions, inférieur à celui d'un accès direct.

Pour autant, les entreprises industrielles ont l'habitude de payer les services qui leur sont véritablement utiles.

Si dans le domaine des investissements, une incitation fiscale permettrait sans doute de débloquer les réticences des entreprises à participer au financement d'équipements directement opérationnels comme des lignes de lumière sur un synchrotron, il convient que, dans le domaine de l'accès aux installations, de véritables offres de service globales soient mises au point, évitant le passage par les comités de programme et apportant un service personnalisé dans des délais très courts, avec un encadrement étroit des chercheurs de l'entreprise. Ces deux aspects se rencontrent fréquemment aux Etats-Unis. Des progrès ont déjà été faits sur certaines installations, comme l'ESRF.

*

Un échange est alors intervenu sur les moyens d'impliquer davantage l'industrie dans les TGE.

M. Philippe LAREDO a indiqué que l'utilisation des bassins de carènes par l'industrie, dans le cas de la construction navale, ne s'est développée qu'à partir du moment où des services ont été proposés en parallèle avec l'accès à l'équipement considéré.

M. Roger BALIAN, observant que la constitution d'une " cellule entreprises " a été demandée au Laboratoire Léon Brillouin, a estimé que le passage par des équipes de laboratoires publics se justifie par une troisième raison, à savoir l'absence de compétences propres en recherche dans un nombre croissant d'entreprises qui adoptent la solution de l'externalisation complète de cette fonction.

M. Jean-Claude LEHMANN a confirmé que cette tendance se développe et qu'il conviendrait sans doute, en conséquence, de créer des " universités de service " aux entreprises.

M. Robert COMÈS est revenu sur les difficultés de création de cellules commerciales auprès des TGE et sur les questions de tarification.

Il est incontestable que l'ESRF a su mettre en place un service efficace d'assistance aux utilisateurs. Le même objectif a été poursuivi au LURE mais la valorisation insuffisante des fonctions correspondantes par les organismes de recherche dissuade les chercheurs les plus capables de s'y engager. S'agissant de la tarification de l'accès direct aux TGE, il convient dans le cas des synchrotrons de remarquer une hétérogénéité très grande dans les prix pratiqués, ceux-ci allant de la gratuité comme pour le synchrotron de Brookhaven au coût réel pour les installations constituées en société commerciale comme Bessy à Berlin.

Un marché des lignes de lumière est ainsi en cours de création sur des bases toutefois peu claires.

M. Jean-Claude LEHMANN a confirmé que les industriels attendent un accueil professionnel de la part des exploitants des TGE, ce qui suppose la création de fonctions nouvelles et que celles-ci soient occupées par des scientifiques de premier niveau, contrairement à la situation présente.

Précisant à la demande de M. Philippe LAREDO quel est le niveau de responsabilité optimum, français ou européen, pour les très grands équipements, M. Jean-Claude LEHMANN a estimé qu'en réalité les deux sont nécessaires. Il est certes important de parvenir à un équilibre en Europe mais il existe au plan national des collectivités scientifiques qui ont des besoins d'accès à satisfaire. En définitive, il faudrait d'une part un Conseil des grands équipements au niveau national et, d'autre part, une structure pour chaque type d'équipement au niveau européen.

M. Philippe LAREDO a remarqué que les montants des subventions pour la recherche provenant des fonds structurels européens dépassent les crédits du PCRD. Pour autant, l'utilisation de ces fonds structurels finançant des infrastructures n'est jamais discutée, alors qu'elle est au coeur de la politique européenne. On peut donc faire une fois de plus le constat que les organismes de recherche français devraient être plus présents dans les instances européennes.

M. Robert COMÈS a présenté le cas particulier des sources de neutrons comme crucial. Il existe en effet des réacteurs sous-performants en Europe. Par ailleurs, il semble que l'on ne tire pas actuellement tout le parti possible du LLB et de l'ILL et qu'il existe de grandes difficultés à lancer l'ESS.

Ces éléments concourent à créer un déficit de l'offre préjudiciable pour de nombreuses disciplines.

Après cet échange de vues, la réunion a été consacrée à l'exposé de la politique du ministère de la recherche par ses représentants, dans le domaine des sciences et technologies de l'information et de la communication (STIC), des sciences du vivant et des méthodes d'analyse fine de la matière.

*

M. Bernard FROIS, Directeur du département énergie, transports, environnement, ressources naturelles à la Direction de la Technologie du Ministère de la Recherche, a souhaité resituer l'effort de recherche en faveur des TGE dans le cadre de la promotion de la technologie.

La Direction de la Technologie, une entité récente au demeurant, a pour but de favoriser les partenariats entre la recherche publique et l'industrie dans un cadre pluridisciplinaire, d'où l'importance donnée, par exemple, aux incubateurs d'entreprises de haute technologie.

La Direction de la Technologie intervient sur un grand nombre de disciplines mettant en oeuvre des grands instruments, comme l'océanographie, les réseaux de communication, les bases de données, le spatial, toutes installations qui ont en commun, de coûter cher, d'être utilisées par des chercheurs d'horizons différents et de se situer dans une concurrence mondiale.

L'échelle de temps des TGE est d'une trentaine d'années. Il faut en effet environ 5 ans de réflexion pour la conception du projet et 5 autres années pour leur construction, pour une durée d'exploitation de 10 à 20 ans.

La Direction de la Technologie considère que l'initiative d'un TGE doit partir de la communauté scientifique, dans la mesure où celle-ci saura seule repousser les frontières techniques, ce qui est l'objectif essentiel d'un nouveau grand instrument.

Mais il existe une réelle difficulté d'articulation de celle-ci avec le Parlement et le Gouvernement, difficulté qu'au demeurant les Etats-Unis ont su résoudre. Une autre difficulté existe pour l'articulation de notre politique et de nos projets avec l'Europe, alors que nombre de problèmes ont une dimension continentale, comme le montrent les réseaux technologiques sur l'eau et la pollution marine.

S'agissant des sources de neutrons, utiles à de nombreuses disciplines, en tant que sondes indispensables de la matière, l'ILL (Institut Laue Langevin) est géré dans le cadre d'une structure de société civile dont l'exemple est certainement à suivre.

Sur un plan technique, on ne voit pas à portée de main d'amélioration pour les réacteurs. La spallation constitue sans nul doute la voie à suivre. D'ailleurs, les sources pulsées semblent aujourd'hui être la voie privilégiée par tous les pays, les Etats-Unis comme le Japon, avec, pour ce dernier, le projet ambitieux d'accélérateur de protons multi-usages.

Le projet européen ESS (European Spallation Source) connaît certes des difficultés de démarrage, dans la mesure où le Royaume Uni a le projet de construire ISIS-2 et où l'Allemagne est en pleine phase de réflexion sur ses grands équipements.

Mais le but d'une entrée en service d'ESS en 2015-2020 doit néanmoins être poursuivi. Pour ce faire, il faut mettre au point avec soin la collaboration tripartite indispensable. A cet égard, l'avant-projet de machine multi-usages que développe le CEA peut être utile pour le démarrage d'ESS.

En tout état de cause, les efforts de l'Office parlementaire d'évaluation des choix scientifiques et technologiques sont utiles pour faire démarrer les projets.

Quoi qu'il en soit, la France est bien équipée en sources de neutrons, même s'il existe une difficulté résultant de l'absence transitoire de contrat entre le CEA et le CNRS pour le Laboratoire Léon Brillouin.

M. Roger BALIAN a estimé, qu'après la période d'opposition factice entre le CEA et le CNRS, opposition suggérée et entretenue par le précédent ministre de la recherche, devait venir le temps d'initiatives prises par la nouvelle équipe, en faveur d'un rapprochement entre ces deux organismes.

La parole a ensuite été donnée à Mme Michèle LEDUC.

*

Mme Michèle LEDUC, Conseiller du Directeur de la Recherche pour la Physique et les Sciences de l'Ingénieur, a souhaité exposer le point de vue de la Direction de la Recherche sur les très grands équipements de la physique, c'est-à-dire le rayonnement synchrotron, les sources de neutrons, les lasers de puissance et la RMN à hauts champs.

Au vrai, l'élargissement de la notion de TGE est à l'ordre du jour non seulement en France mais également en Europe.

La création de groupes européens de coordination à géométrie variable sur différents sujets, a été décrite par M. Vincent COURTILLOT, Directeur de la Recherche, lors d'une audition précédente. L'on sait que le concept de groupes à géométrie variable a rencontré l'intérêt du Commissaire à la Recherche, M. Philippe BUSQUIN.

Le groupe sur les méthodes d'analyse fine de la matière, qui comprend la France, le Royaume Uni, l'Allemagne, l'Espagne et l'Italie, a été mis en place à Londres en début d'année et a déjà tenu deux réunions. Un rapport d'étape sur le rayonnement synchrotron a été présenté lors d'une réunion tenue le 22 juin à Rome.

Un rapport d'étape de ce groupe sera présenté au Colloque organisé les 18 et 19 septembre prochains à Strasbourg sur les grandes infrastructures de recherche. D'autres communications importantes, élaborées par d'autres panels de spécialistes, seront présentées à cette occasion, l'une sur l'extension éventuelle de la notion de TGE aux réseaux informatiques ou aux grandes animaleries de la biologie et l'autre sur la participation de l'Union européenne au financement des grands équipements. Ce dernier point doit être examiné avec soin dans la mesure où il s'agit d'éviter d'une part qu'un nouveau mécanisme de ce type ne vienne concurrencer le programme " Access to Large Facilities " qui donne toute satisfaction, et d'autre part, que la Commission européenne, du fait de ses contributions financières, n'ajoute des pesanteurs bureaucratiques au fonctionnement des TGE, voire n'en prenne la direction.

S'agissant du rayonnement synchrotron, le groupe technique des cinq pays européens, dans son rapport d'étape, estime que l'Europe de l'Ouest a besoin d'un synchrotron supplémentaire en plus de DIAMOND dont la construction est prévue en Angleterre et préconise de lui donner un statut international comme celui de l'ESRF. Cette recommandation a été transmise au ministre de la recherche, M. Roger-Gérard SCHWARTZENBERG. S'agissant d'un éventuel nouveau synchrotron sur le territoire national, un autre rapport d'experts doit contribuer à la prise de décision.

Au plan global, il n'existe pas au ministère de la recherche de substitut au précédent Conseil des grands équipements. Les grands instruments sont examinés discipline par discipline.

Dans le domaine des méthodes d'analyse fine de la matière, il est important de noter qu'il existe un continuum entre les très grands instruments afférents, de type généraliste, et les moyens des laboratoires, le niveau intermédiaire étant constitué par les instruments mi-lourds.

En tout état de cause, il faut " réfléchir à l'ensemble du continuum ". Ainsi, une discipline comme la chimie attache une grande importance à la mise en place de la RMN à hauts champs en réseau. Il n'existe pas pour le moment à la direction de la recherche de comité de coordination pour les instruments de la physique et de la chimie. Mais le Directeur de la recherche réfléchit à en créer un, avec le CEA et le CNRS.

M. Michel SPIRO a approuvé une méthode de décision qui met la science en avant.

La parole a ensuite été donnée à M. Philippe LECONTE, Conseiller à la Direction de la Technologie.

*

Ancien directeur-adjoint de l'Institut Laue-Langevin, M. Philippe LECONTE a souligné que la répartition des temps d'accès dans un grand instrument international n'est pas toujours facile à réaliser. Deux contraintes, qui peuvent être contradictoires, sont en effet à respecter : d'une part les quotas issus des contributions financières et d'autre part la priorité à donner aux meilleurs projets de recherche, quelle que soit leur nationalité. Des collaborations de dernière minute permettent opportunément de contourner d'éventuels obstacles. Il reste que la question de la répartition des temps d'accès " empoisonne la vie " d'un très grand équipement international.

L'accès des industriels aux TGE est une autre question d'une très grande importance. La sélection des projets par un comité de programme qui est une obligation incontournable, constitue un problème à cet égard. Un seul exemple suffit à montrer l'intérêt des sources de neutrons pour l'industrie : elles permettent de calculer les distances interatomiques, ce qui permet de mettre en évidence les contraintes subies par un matériau. Il faudrait donc développer sur les TGE des instruments particuliers pour l'industrie. Cette possibilité n'est pas encore suffisamment développée. En tout état de cause, il convient d'impulser une autre culture au sein des très grands instruments.

Après que M. René TRÉGOUËT, Sénateur, rapporteur, a estimé que l'approche culturelle des TGE doit changer à l'avenir, M. Robert COMÈS, membre du groupe de travail, a jugé, pour sa part, que le problème des quotas pour les TGE ne doit pas être exagéré. S'agissant de la participation du Royaume Uni à l'ILL, sa diminution de 50 millions de francs par an s'est traduite logiquement par la diminution corrélative de ses temps d'accès, alors que les besoins de la communauté britannique restent les mêmes.

La parole a ensuite été donnée à M. Jean-Alexis GRIMAUD.

*

M. Jean-Alexis GRIMAUD, Professeur des universités, Directeur du département bio-ingéniérie de la Direction de la Technologie, en prolongement des présentations déjà faites devant l'Office, par MM. COURTILLOT et CHAMBON et par Mme BERGER, a confirmé que la nature des projets dans le domaine des sciences de la vie est en train de changer, ce qui doit nécessairement modifier la façon dont la communauté scientifique travaille. A cet égard, le travail en réseau est à la fois une évidence et une obligation.

La recherche sur le génome, tout en obligeant à une coopération en réseau, va devoir mobiliser des moyens considérables dont on ne soupçonne pas encore l'ampleur. Le post-génome pose en effet des problèmes cruciaux, tant en ce qui concerne la nature des projets que la culture de la recherche. En particulier, il n'est plus possible de faire abstraction des rapports entre la recherche publique et la recherche privée, de même que les retombées sur la santé sont à prendre en étroite considération. Le fossé entre les deux recherches se réduit déjà, la loi sur l'innovation produisant déjà des effets positifs en termes d'investissements de valorisation. Mais il s'agit d'aller plus loin et de faire fonctionner ensemble les deux communautés.

Au plan scientifique, le post-génome se trouve confronté à la nécessité d'explorer et d'exploiter les données brutes schématiques produites par le séquençage du génome.

Deux approches complémentaires devront être développées, l'exploration du phénotype, c'est-à-dire l'analyse de l'expression des gènes et de leurs caractéristiques, ainsi que l'exploration fonctionnelle. C'est le domaine des animaleries transgéniques et de l'analyse clinique de la souris. En aval de ces équipements, il faut des centres dotés de capacités de traitement considérables, travaillant de surcroît en réseau. En tout état de cause, l'exploration du phénotype et l'exploration fonctionnelle en permettant la validation de séquences, conduiront à l'identification génétique de maladies et à la mise au point de produits thérapeutiques.

Mais il faut également développer une approche en termes de ressources biologiques, constituées de collections d'échantillons d'ADN et de tissus ainsi que de bases de données. Il existe des techniques modernes pour faire fonctionner un tel grand équipement, techniques faisant appel à la conservation par le froid et à la gestion des échantillons par radiofréquences. L'objectif est ainsi de créer une " très grande biothèque du vivant ", dont la vocation sera fondamentalement collective, intéressant à la fois les biologistes, les généticiens et les médecins. Une réflexion est en cours en Europe et au sein de l'OCDE pour offrir aux scientifiques ce très grand équipement qui devra tout à la fois posséder une dimension européenne et être constitué en réseau.

Les enjeux du post-génome sont énormes pour l'Europe. Pour autant, celle-ci possède l'atout de poids que lui donne son système de soins en termes de traçabilité. A cet égard, les Etats-Unis sont beaucoup moins bien armés. Or il ne suffira pas de mettre en évidence des séquences ou des gènes dans la causalité de maladies. Il faudra aussi les valider sur des échantillons de malades.

Par ailleurs, la communauté de la biologie est en train de se structurer, le travail en réseau contribuant également à en réduire le morcellement.

Au plan européen, le 5ème PCRD (Programme cadre de recherche et développement) octroie un soutien insuffisant aux infrastructures de recherche. Toutefois, un montant de deux milliards d'euros est alloué aux actions clés qui pourraient bénéficier aux grands équipements, une meilleure coordination étant assurée en contrepartie.

La phase du séquençage a démontré l'importance des équipements dans le domaine de la biologie. Il importe de ne pas de se trouver dans la même situation qu'il y a dix ans où les premiers succès n'ont pas eu de retombées suffisantes.

M. Jacques HAIECH, Professeur des universités, Directeur du programme national de génomique, a indiqué que si la problématique des très grands équipements a pendant longtemps été étrangère à la biologie, il n'en est plus de même aujourd'hui avec la génomique. Trois facteurs participent à cette évolution.

En premier lieu, le séquençage du génome et la post-génomique ont bien pour objectif de livrer l'exhaustivité de la connaissance du " livre de la vie ". Par ailleurs, les problèmes du post-génome sont attaqués en parallèle et nécessitent une approche industrielle, qui passe par une mutualisation des plateaux techniques dépassant l'échelle des laboratoires, des UFR et même des régions. Enfin la connaissance dans ce domaine est proche de la valorisation, ce qui oblige à prendre soin des interfaces entre la recherche publique et la recherche privée, tout en plaçant les nouveaux très grands équipements de la biologie au plus près du développement.

En réalité, il existe un continuum dans la mutualisation des moyens des laboratoires vers le niveau régional, avec une exception constituée par le synchrotron national. Sur ce dernier point, il faut être attentif à ce que des goulots d'étranglement ne se créent pas en amont des synchrotrons, pour la préparation des cristaux de protéines, et en aval pour l'analyse des données dont le volume est en augmentation exponentielle. Il faut remarquer également que le continuum dans la mutualisation arrive au niveau européen. Un facteur est particulier à la biologie, c'est l'importance des réseaux.

Mais quels sont les défis du post-génome ?

Le premier défi est la structuration et la clarification des données à stocker au demeurant dans des bases de données de grande taille. Mais il s'agit aussi de conduire un travail de théorisation et de prédiction, en vue, peut-être, de déboucher sur une théorie standard du vivant.

En tout état de cause, de descriptive essentiellement, la biologie est en passe de devenir prédictive, ce qui, entre autres problèmes, ne peut manquer de rendre nécessaire une réflexion éthique.

Mais à court terme, les deux priorités sont bien de gérer l'acquisition des données et la mutualisation des efforts et des équipements, en veillant aussi à leur ouverture.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé qu'en matière de sources de neutrons, la demande de temps d'accès a rattrapé et aujourd'hui dépassé une offre auparavant excédentaire. Au reste, cette situation pourrait s'accentuer, si comme il est souhaitable, la valorisation est encore plus proche de la recherche.

Par ailleurs, l'annonce orchestrée au plan mondial de l'achèvement du séquençage du génome humain résulte de la concurrence qui fait rage dans ce domaine. Le rythme de la recherche est fixé par les perspectives d'application et de valorisation des résultats, le doublement des crédits du NIH en 5 ans fixant les enjeux à cet égard. Ce qui est en cause aujourd'hui, c'est la place de l'Europe dans le concert mondial. Faut-il un accord dans ce domaine avec les Etats-Unis ? A vrai dire, on peut redouter que les Etats-Unis, prêts à coopérer dans le spatial dans la mesure où les retombées des recherches menées dans ce domaine ne sont pas immédiates, n'envisagent pas d'accord avec l'Europe dans les sciences du vivant.

Il faut donc une réflexion sur les applications dérivées de la recherche et leur valeur ajoutée dans l'économie.

Une discussion s'est ensuite engagée sur la notion de très grand équipement.

*

M. Gilles COHEN-TANNOUDJI a estimé qu'un problème de méthode se pose quand on compare deux types de TGE qui peuvent appartenir à des espaces différentes.

Soit l'on utilise une approche par discipline, au terme de laquelle on traite par exemple des très grands équipements de la biologie, soit l'on est dans le champ des grandes techniques instrumentales.

On peut ainsi légitimement comparer les sources de neutrons au rayonnement synchrotron. Mais la comparaison entre un éventuel très grand équipement de la biologie et un synchrotron est impossible, car ils appartiennent à des espaces différents. Ainsi, une animalerie présente un intérêt pour la biologie mais n'en a pas pour les techniques instrumentales.

M. Jacques HAIECH a repris ensuite la définition des TGE. Pour être défini comme tel, un TGE doit-il nécessairement servir plusieurs disciplines ? Un centre de séquençage est-il un TGE ?

Dans la mesure où il offre des services, où il contribue au développement de techniques instrumentales et où sa mise en _uvre est très onéreuse, la réponse à cette question semble bien positive, même s'il est spécifique à la biologie. Une animalerie pour laquelle il existe une mutualisation des budgets et qui rend des services à la collectivité, devient par là même un TGE.

En définitive, un TGE peut être spécifique à une discipline.

M. Gilles COHEN-TANNOUDJI est ensuite revenu sur les moyens requis par la post-génomique. S'il existe deux approches complémentaires, la génétique physiologique et la biochimie, ce sont ces deux démarches qu'il faut comparer. Mais on peut se demander jusqu'où il sera est possible d'aller dans le domaine de la génétique physiologique et quelles seront les limites posées par l'acceptabilité sociale des recherches, notamment pour les animaleries. Il conviendrait sans doute qu'il y ait un débat à ce sujet.

Mme Michèle LEDUC a rappelé qu'en ce qui concerne la physique, une distinction est traditionnellement faite entre d'une part les très grands équipements généralistes, tels que le rayonnement synchrotron et les sources de neutrons, et, d'autre part, les très grands équipements spécialisés qui, comme le CERN, desservent essentiellement la communauté de la physique des hautes énergies.

En tout état de cause, il est important que les très grands instruments soient examinés discipline par discipline. Ainsi, il est légitime que l'on compare dans le domaine de la physique fondamentale les investissements réalisés au CERN par rapport à ceux faits pour la physique gravitationnelle, étant admis que les TGE généralistes participent d'un autre point de vue.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé que le facteur temps doit également intervenir dans la décision. A cet égard, il convient sans doute de donner une priorité aux TGE qui se caractérisent par un retour sur investissement très court.

Pour M. Jean-Alexis GRIMAUD, l'acceptabilité est un élément clé pour tous les problèmes de santé. Le public demande non seulement une transparence totale des recherches dans ce secteur mais également une protection maximale de la nature et des animaux. Pendant les années récentes, l'exploration cellulaire a pris le pas sur l'étude des organismes vivants. Mais la clé des découvertes futures au niveau moléculaire comme la clé de la validation de celles-ci se trouve au niveau de la physiologie intégrée et donc au niveau de l'étude de l'animal.

Les applications de la connaissance des gènes seront par ailleurs nombreuses mais mobiliseront des techniques différentes. A cet égard, les biopuces et les microlaboratoires nécessitent des approches pluridisciplinaires.

M. Gilles COHEN-TANNOUDJI s'est interrogé à cette occasion sur le point de savoir si les techniques correspondantes relèvent des très grands équipements. Les deux conditions essentielles de la programmation pluriannuelle et de la concentration de moyens ne semblent en effet pas réunies.

Pour M. Roger BALIAN, ces techniques peuvent être isolées en différents éléments et ressortissent d'une collection d'objets plutôt que d'un TGE.

M. Jean-Alexis GRIMAUD a jugé, pour sa part, que la programmation pluriannuelle est en tout état de cause essentielle dans ces domaines.

M. Philippe LAREDO, membre du groupe de travail, a rappelé que la France, au début des années 1990, été en avance lors des premiers pas de la génomique, grâce au Téléthon et à la concentration de moyens qui a été choisie.

Après l'identification des gènes, il existe un risque réel de dispersion des efforts contre lequel il faut lutter. Pour la nouvelle étape que représente le post-génome, il convient sans doute de passer de la notion de très grands instruments à celle de " projets instrumentés ", la structuration des grands organismes de recherche étant au demeurant une question capitale.

A cet égard, M. Jean-Alexis GRIMAUD a indiqué que l'on est actuellement dans une phase de construction des outils du post-génome.

Après ces échanges, la parole a été donnée à M. Michel FOUGEREAU.

*

M. Michel FOUGEREAU, Professeur des universités, conseiller du Directeur de la Recherche pour les sciences de la vie, la biologie et la médecine, a estimé que le public attend du biologiste qu'il progresse dans la voie des guérisons mais le considère également comme un démiurge, responsable de surcroît des mauvais traitements infligés aux animaux de laboratoire ainsi que de la présence d'OGM dans l'alimentation.

De toute évidence, le débat scientifique de fond est biaisé. Il ne faut pas s'étonner des réactions du public dans la mesure où l'enseignement de la biologie dans notre pays est déficient et où les horaires correspondants sont réduits à portion congrue.

Par ailleurs, les récentes déclarations fracassantes faites sur le génome ne sont pas empruntes de la modestie qui conviendrait si l'on se plaçait sur un plan strictement scientifique.

Autre idée évoquée par plusieurs orateurs, la nécessité d'un rapprochement entre la recherche fondamentale et la recherche appliquée n'est pas une nouveauté, puisque aussi bien Louis PASTEUR estimait qu'il n'existe pas de recherche appliquée mais seulement des applications de la science. En tout état de cause, les entreprises pharmaceutiques françaises sont insuffisamment dynamiques, ce qui nuit d'ailleurs au développement de la biologie elle-même. Pour autant, il convient de ne pas relâcher, bien au contraire, les efforts en recherche fondamentale, dont la justification est, selon Jacques MONOD, " la quête de la connaissance pour le seul éclat de sa lumière ".

S'agissant des très grands équipements, il est certes utile d'avoir un débat sur la répartition des investissements entre TGE et équipements mi-lourds. Toutefois, la vraie question est celle du coût de la recherche.

En ce qui concerne la biologie, tant le Gouvernement français que la Commission européenne ont admis la nécessité de créer une notion d'infrastructure différente de celle de TGE mais propre à rendre compte des besoins de la biologie. Au reste, l'évaluation des besoins en TGE s'effectue désormais au plan européen avec une méthodologie commune même si elle se place dans un cadre à géométrie variable. En tout état de cause, la vocation et le projet scientifique du TGE sont d'une importance décisive.

Le changement majeur en biologie est que cette discipline change de dimension et d'échelle. Avec au minimum 35 000 gènes dans le génome humain, le champ de découvertes à réaliser est immense. Les gènes codant les protéines, il s'agit certes d'élucider les structures de protéines mais il s'agit aussi en dernière analyse de connaître les réponses en terme de physiologie. Le post-génome va nécessiter de sortir du réductionnisme moléculaire pour adopter une approche globale où l'utilisation de l'animal est incontournable. S'il faut se conformer à des impératifs de transparence et d'explications données au public, il faut aussi se convaincre que le recours aux animaleries est incontournable.

Le nombre de 35 000 gènes et la durée de reproduction des souris obligent à trouver les moyens d'accélérer l'étude de l'influence des gènes. Ceci est d'autant plus indispensable que, même dans le cas d'un gène simple comme celui qui code l'insuline, son influence par l'intermédiaire de cette molécule s'exerce sur un nombre important de cellules.

A cet égard, les animaleries transgéniques constituent pour la biologie des " accélérateurs de souris ", tout aussi indispensables que les accélérateurs de particules pour la physique. On y modifiera des gènes et l'on explorera les modifications intervenues sur les souris concernées.

De même, l'analyse des effets enregistrés sur les primates est incontournable.

Enfin, l'étude des maladies génétiques de l'homme nécessitera le suivi de cohortes étendues de patients, qui seront d'autant plus grandes qu'il existe un grand nombre de maladies multifactorielles.

En définitive, il convient de ne pas se focaliser outre mesure sur les très grands équipements. Il est au contraire primordial de globaliser le financement de la recherche, notamment parce que la biologie est à l'interface de nombreuses disciplines. Il convient de plus de mutualiser au plan européen les plates-formes nécessaires à des approches qui ont changé d'échelle.

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, sur un éventuel partage des tâches pour l'étude des gènes, M. Michel FOUGEREAU a répondu que rien de tel n'existe au plan mondial.

M. Robert COMÈS s'est interrogé sur la possibilité de faire entrer dans l'enveloppe TGE des équipements à plusieurs localisations avec toutefois une unité de commandement.

M. Michel FOUGEREAU a indiqué que, dans le cadre du 5ème PCRD, la prise en charge des animaleries avait été marginalisée, contrairement à ce qui était fait par le 4ème PCRD. Le problème du financement n'est le seul à résoudre. Il faut également une réflexion commune débouchant sur une harmonisation des choix scientifiques qui n'existe pas pour le moment.

A la demande de M. René TRÉGOUËT, Sénateur, rapporteur, M. Michel FOUGEREAU a ensuite abordé la question de la brevetabilité du vivant, au regard de la position européenne telle qu'elle ressort de la directive sur le sujet.

Le génome dans son état actuel n'est pas brevetable. On peut toutefois se demander si un fragment de gènes synthétisable ne sera pas brevetable, ce qui constituerait une brèche dans le principe général.

Si les gènes ne sont pas brevetables, leurs fonctions le sont à condition que leur mise en évidence soit accompagnée d'un aspect inventif d'applicabilité. En réalité, le brevet suppose une invention, qui diffère de la découverte. Mais il existe des zones floues.

M. Pierre POINTU, membre du groupe de travail, a remarqué que, si la recherche fondamentale est nécessaire pour avancer dans l'ordre de la connaissance et pour la dignité de l'homme, les budgets de recherche sont également votés pour répondre à une utilité sociale perçue et voulue. Le changement d'échelle voulu pour la biologie a pour but l'accélération de recherches à fins essentiellement sociales. S'il n'était question que d'augmenter les connaissances, la longueur du processus de recherche ne serait pas considérée comme un facteur critique.

Au reste, les très grands équipements se répartissent en trois grandes catégories.

La première catégorie correspond aux TGE qui, comme le CERN, répondent aux besoins d'une discipline particulière.

La seconde catégorie correspond aux grands instruments qui ont un rôle structurel pour l'efficacité de la recherche dans un grand nombre de disciplines.

Les TGE appartenant à la troisième catégorie répondent, à partir d'une utilité sociale comme la santé, à un projet et comportent plusieurs volets : équipements, recherche de base, formations et développement industriel. Ce type de TGE nécessite à l'évidence une grande cohérence. Mais, comme pour toutes les questions posées par la société, une approche transdisciplinaire est indispensable.

M. René TRÉGOUËT, Sénateur, rapporteur, a alors estimé que cette troisième catégorie correspond davantage à un grand projet qu'à un grand équipement.

M. Jacques HAIECH est, quant à lui, revenu sur la question du changement d'échelle.

Peut-on dire que le changement d'échelle a pour cause la seule demande sociale de mise au point de thérapeutiques nouvelles et qu'il ne s'imposerait pas s'il ne s'agissait que de recherche fondamentale ?

Jusqu'à présent, la biologie a recouru d'une part au réductionnisme moléculaire et d'autre part à une approche holistique dans laquelle le corps est figuré par une boîte noire. La grande nouveauté est que l'on réduit désormais l'écart entre les deux.

Le post-génome répond à la fois à des préoccupations de recherche fondamentale, à l'objectif de mieux soigner l'être humain et enfin au souci de connaître l'évolution du vivant, les trois dimensions étant étroitement liées.

Sur un plan pratique, le réseau de génopoles s'attache à l'étude du fonctionnement des gènes mais aussi à l'analyse de l'association des gènes aux maladies. La génétique fonctionnelle doit nécessairement recourir à des moyens à grande échelle tant la complexité des problèmes est grande. C'est en effet au plan de la cellule et de l'organisme entier qu'il faut analyser les perturbations produites par la modification d'un ou plusieurs gènes. La mise en évidence des interactions nécessite par elle-même des moyens de grande ampleur.

M. Roger BALIAN a estimé que, même si l'on se place sur le terrain de la seule connaissance pour la connaissance, l'étude du vivant présente plus d'intérêt que celle d'objets célestes lointains comme les supernovae.

Il existe assurément aujourd'hui un problème majeur, le vivant, ce qui justifie que des ressources prioritaires lui soient allouées.

S'agissant de l'approche dite réductionniste utilisée en biologie, il faut se garder de lui donner une connotation restrictive et négative. La physique est familière de cette approche dont il ne faut pas oublier l'élément essentiel, " l'émergence ", changement qualitatif des phénomènes et des concepts selon l'échelle, ce qui nécessite une étude globale rendue fructueuse par des allers et retours systématiques entre le " haut " et le " bas ".

M. Gilles COHEN-TANNOUDJI a précisé qu'il ne met évidemment pas en cause l'intérêt d'étudier les conséquences d'une modification génétique mais que l'on peut s'interroger sur la pertinence d'une approche systématique.

M. Jacques HAIECH a alors indiqué que cette remarque serait à prendre en considération sur la recherche fondamentale était nettement disjointe de la recherche appliquée. Mais en réalité, les deux sont " dans la même dynamique ". L'accélération des recherches a été provoquée par la firme Celera Genomics mais les techniques de séquençage ont été développées par la recherche fondamentale, qui réciproquement a profité de la recherche appliquée.

*

M. Jean GALLOT a alors souligné l'importance de caractériser les besoins globaux en crédits budgétaires pour la recherche scientifique. On peut se demander à cet égard si la catégorie des TGE est pertinente, dans la mesure où l'on mélange les dimensions collectives et financières.

En réalité, l'on ne peut éviter de réfléchir aux besoins financiers de la recherche et à son rôle dans la société.

Toutes les disciplines ont des besoins de financement qui augmentent. C'est pourquoi, en période d'insuffisance de crédits comme celle que l'on connaît depuis plusieurs années, il existe un débat sur la priorité à donner aux équipements mi-lourds plutôt qu'aux TGE, débat qui n'a pour justification que de réduire les demandes de crédits. Mais en réalité, il faut une avancée simultanée sur tous les fronts, tant au niveau de la recherche fondamentale qu'à celui de la recherche appliquée.

Pourquoi la communauté scientifique serait-elle vouée à ne s'occuper que du partage des ressources et non pas du volume de celles-ci ? A cet égard, il faut que s'approfondissent les relations entre la communauté scientifique et les élus pour que des solutions soient trouvées.

A l'issue de ces échanges, la réunion a porté sur la politique du ministère de la recherche dans le domaine des sciences et des technologies de l'information et de la communication (STIC), telle qu'elle a été exposée par M. Maurice FISCHER.

*

M. Maurice FISCHER, Conseiller pour les technologies de l'information à la Direction de la Technologie du ministère de la Recherche, a indiqué que le débat sur les priorités respectives données à l'avancement des connaissances ou à l'utilité sociale est commun à toutes les disciplines scientifiques. Les sciences et technologies de l'information et de la communication n'y échappent pas, bien qu'il s'agisse de disciplines émergentes, comparées à la biologie. Quoi qu'il en soit, les STIC ont commencé par privilégier l'utilité sociale. Leur dialogue avec la recherche fondamentale reste difficile.

Les sciences de l'information n'ont pas été concernées jusqu'à maintenant par la problématique des TGE, en raison de la jeunesse de ces technologies et de leur développement rapide qui s'accompagne d'un renouvellement tout aussi précipité. De surcroît, la recherche publique n'a pas joué de rôle moteur dans les ruptures technologiques, sauf en amont pour les briques technologiques de base, notamment pour les semi-conducteurs.

Les sciences de l'information font l'objet d'investissements massifs dans la recherche, en particulier dans la sphère privée. Est-on entré dans une nouvelle phase comparable à celle que connaît la biologie ? L'objectif est-il de l'ordre de l'utilité sociale ? Faut-il en conséquence des très grands équipements pour la recherche publique ?

Le secteur des STIC est à l'origine d'un équipement assimilable à un TGE. C'est le réseau à très haut débit RENATER 2 et son équivalent européen, en cours de construction. L'Europe et la France ont incontestablement accumulé un retard important dans les réseaux, faute d'une coordination suffisamment efficace et du fait de rivalités entre opérateurs. RENATER 2 commence à combler ce retard.

Le réseau RENATER 1 en service opérationnel actuellement a été créé pour fournir des ressources en télécommunications aux chercheurs mais ne constitue pas un outil de développement des sciences de l'information. La structure de gestion de RENATER 1 est au demeurant un GIP (groupement d'intérêt public), dont le but est essentiellement utilitaire. Les projets d'expérimentation à 3 ans rencontrent en conséquence des réticences de la part des membres du GIP.

Au-delà de RENATER 2, la situation est actuellement favorable à la création d'un grand équipement au niveau européen permettant de relier les scientifiques de toutes disciplines et offrant aux chercheurs en sciences de l'information la possibilité de tester le passage à l'échelle pour de nouvelles applications.

Ce réseau devra fournir des ressources en télécommunications et en puissance de calcul, avec une masse critique suffisante, tout en préparant la nouvelle génération d'équipements qui lui succéderont.

En tout état de cause, il convient d'éviter la coupure qui s'est produite en France entre les laboratoires de recherche en informatique et les centres de calcul, coupure qui a été dommageable pour la recherche en sciences de l'information dans notre pays. Il faut remarquer à cet égard que cette coupure n'existe pas aux Etats-Unis où les centres de calcul sont utilisés pour tester la sûreté et la fiabilité des logiciels, tout en permettant le passage à l'échelle en matière de calcul et de télécommunications.

M. Pierre POINTU a souligné que le couplage entre l'amont et l'aval est généralement bien assuré aux Etats-Unis, quel que soit le domaine. En revanche, le type de coupure observée en France entre la recherche relative aux STIC et les centres de calcul existe dans d'autres disciplines. Au vrai, c'est le progrès parallèle de la connaissance dans un métier et l'approfondissement d'une approche transversale qui s'avèrent difficiles. Il ne semble pas possible d'apporter une réponse à un tel défi par la seule entremise du choix de la structure la mieux adaptée.

C'est là où l'apport des TGE interdisciplinaires est le plus important. Les TGE sont en effet le support idéal de projets transversaux.

La parole a ensuite été donnée à M. Maurice FISCHER.

*

M. Maurice FISCHER, Conseiller pour les technologies de l'information à la Direction de la technologie a estimé que ce qui a manqué à la recherche en informatique, c'est de se polariser sur un sujet et de l'approfondir sans crainte de laisser de côté les autres domaines. Mais le défi le plus urgent que les STIC ont à relever, c'est de réduire le fossé entre la recherche et les applications industrielles. Pour autant, les deux réseaux nationaux de recherche en télécommunications et en technologies logicielles qui ont été récemment créés ont pour objectif de faire travailler en commun les laboratoires publics et l'industrie.

Outre les réseaux de télécommunications nationaux ou européens, les STIC requièrent-elles d'autres TGE ?

M. Claude PUECH, Conseiller du Directeur de la Recherche pour les Mathématiques et l'Informatique, a estimé que, bien que les montants financiers ne soient pas du même ordre de grandeur que les TGE classiques, on peut considérer que les centres de calcul de grande puissance appartiennent à cette catégorie, quelle que soit la technologie à laquelle ils recourent : calcul parallèle, calcul vectoriel ou à puissances réparties sous la forme de stations de travail reliées.

Les entrepôts de données et les outils de gestion de quantités énormes d'information ou de documents électroniques provenant de la biologie ou de la numérisation pourraient représentent un autre type d'équipement atteignant la taille des TGE.

On pourrait enfin faire entrer dans la catégorie des TGE les plates-formes de visualisation de données et d'immersion dans la réalité virtuelle.

Dans chacun des cas précédents, il s'agit d'équipements mis à la disposition de communautés scientifiques larges, informaticiens, climatologues, spécialistes de la dynamique moléculaire ou de la mécanique des fluides ou réseau des maisons des sciences de l'Homme.

Si les projets sont nombreux à lancer, il existe toutefois une base de départ qui n'est pas négligeable.

RENATER 2, en tant qu'infrastructure de télécommunications, est en cours de réalisation. Les centres de calcul CINES et IDRIS ont récemment vu leurs puissances de calcul multipliées respectivement par 6 et 10.

Au vrai, la mise au point d'une grille de calcul qui permettra de livrer des ressources rassemblées d'une manière totalement transparente pour l'utilisateur pose des problèmes de développement importants, notamment pour la confidentialité et la sécurité des données, pour la gestion des accès et la visualisation des résultats.

Il faut noter que les Etats-Unis conduisent des projets de cette nature, notamment le projet GLOBUS, financé par le DARPA, la NSF, le DOE et la NASA, des projets de simulation d'explosion nucléaire ou de physique des hautes énergies au CalTech.

A cet égard, la France élabore actuellement un projet de grille de calcul, en liaison avec d'autres pays européens.

Pour M. Maurice FISCHER, il reste que la notion de TGE est relativement mal adaptée aux STIC. L'obsolescence est en effet extrêmement rapide dans ce domaine. A supposer que l'on place dans cette catégorie les plates-formes du réseau national de recherche en télécommunications et la plate-forme virtuelle du réseau national de recherche en technologies logicielles, plates-formes qui seront au demeurant reliées, il faudra qu'elles passent en opérationnel dans les deux à trois ans, ce qui est évidemment contradictoire avec le statut de TGE au sens actuel du terme.

Malgré ces difficultés conceptuelles, il reste que le statut de TGE est intéressant pour pérenniser les financements.

Pour Mme Sylvie JOUSSAUME, membre du groupe de travail, des moyens de calcul de grande puissance sont un TGE et doivent, comme tels, être pérennisés.

A cet égard, le renouvellement des machines de l'IDRIS est une évolution positive, encore qu'il soit intervenu deux années trop tard, ce qui a handicapé les climatologues. Pour autant, la situation ne saurait être considérée comme définitivement rétablie. Il règne en effet dans la seule discipline de la climatologie une compétition acharnée, qui verra notamment le Japon multiplier par 100 la puissance d'un de ses centres de calcul les plus avancés. Dans ces conditions, on peut s'interroger sur la façon dont l'Europe va suivre cette course à la puissance et s'il ne faudrait pas regrouper les moyens, y compris ceux de l'industrie.

M. Maurice FISCHER est convenu qu'il faut dans la pratique doubler la puissance d'un centre de calcul tous les deux ans. Faut-il dans ces conditions pérenniser ces derniers en tant que TGE ?

Si, pour RENATER, ceci est incontestablement justifié, en revanche, pour le calcul, la frontière est difficile à tracer entre la compétence locale au niveau du laboratoire, l'université, le territoire national et l'Europe. Il faut à cet égard une structure de coordination.

L'Allemagne a récemment proposé de programmer la mise en place de ces équipements au niveau européen, sachant qu'on est loin de pouvoir l'envisager pour le moment. Au vrai, une telle coordination n'existe même pas entre les cinq plus grands centres de calcul français que sont l'IDRIS, le CINES, le CEA civil, le CEA militaire et la Météorologie nationale, centres qui suivent chacun des politiques d'équipement autonomes.

On peut remarquer que les grands centres de calcul ne sont pas une solution prisée par la recherche privée française, contrairement à la situation observée en Allemagne où les plus gros centres sont l'apanage de l'industrie automobile et des universités.

M. Pierre POINTU a observé que la notion de TGE correspondait à une situation ancienne de la recherche. De la notion ancienne, on peut garder le fait qu'il s'agit d'investissements qui ne peuvent se décider au niveau des organismes en raison de leur coût et de leur durée de vie. On peut également reprendre la notion de cohérence à respecter. Mais au total, l'évolution technique oblige à modifier cette définition.

M. Maurice FISCHER a estimé que la pérennité de la ressource et du service doit être prise en compte, même si les machines changent.

M. Michel SPIRO a noté que la mise en grille faciliterait de facto la pérennité ainsi que la coordination.

Mme Sylvie JOUSSAUME a souligné combien la notion de coordination voire de regroupement est nécessaire, les structures des organismes devant permettre d'y parvenir. Mais, en tout état de cause, la mise en grille n'apportera pas de réponse à tous les besoins.

Pour M. Philippe LAREDO, lors de la conception d'un TGE, les étapes critiques sont l'organisation et l'anticipation.

M. Maurice FISCHER a par ailleurs noté que dans le domaine des STIC, les instances de programmation et de coordination des investissements sont différentes.

Pour la programmation de la montée en puissance des centres de calcul, il semble que la situation soit mûre pour évaluer collectivement l'ensemble des besoins pour les codes vectoriels et pour les codes parallèles. A la mutualisation des besoins pourrait répondre la mutualisation de l'offre. L'établissement d'une grille de calcul facilitera les choses à cet égard.

Mais l'essentiel est bien de créer en France une instance assurant à la fois la programmation et la coordination des investissements.

M. Philippe LAREDO s'est interrogé sur les possibilités effectives de coordination entre les organismes de recherche. On peut se demander par ailleurs pourquoi la Fondation européenne de la science (ESF - European Science Foundation), au demeurant la seule structure " bottom-up " faisant émerger les besoins de la communauté scientifique, n'a pas joué ce rôle.

Selon M. Maurice FISCHER, il serait possible aujourd'hui de mettre en place une structure de programmation et de coordination placée au dessus des organismes de recherche, de façon à éviter que les centres de calcul ne décident de leur politique d'investissement sans la concertation qui est indispensable.

*

Après avoir souligné que les TGE ne résument pas à eux seuls les problèmes d'organisation et de coordination de la recherche française, M. Christian CUVILLIEZ, Député, rapporteur, a remercié les participants à la réunion pour leur précieux concours et a levé la séance.

7. Physique des particules et physique du noyau - mercredi 13 septembre 2000

CERN

· M. Luciano MAIANI, Directeur général

· M. Claude DÉTRAZ, Directeur de la recherche

CEA

· M. François GOUNAND, Directeur des sciences de la matière

· M. Pierre TRÉFOURET, Chef du service des affaires publiques

CNRS-IN2P3

· M. Jean-Jacques AUBERT, Directeur scientifique

· M. Guy WORMSER, Directeur scientifique adjoint

GANIL

· M. Daniel GUERREAU, Directeur

· M. Dominique GOUTTE, Directeur adjoint

· M. Laurent BEAUVAIS, Secrétaire général

· M. Jean-Pierre GRANDIN, CIRIL (Centre interdisciplinaire de recherche Ions lourds Lasers)

Après avoir souligné que la récente décision du ministre de la recherche, M. Roger-Gérard SCHWARTZENBERG, de lancer la construction du synchrotron SOLEIL va dans le sens des conclusions de l'Office présentées dans la première partie du rapport, M. Christian CUVILLIEZ, Député, rapporteur a ouvert la réunion en précisant que l'étude en cours, correspondant à la deuxième partie du rapport, a pour but d'établir un panorama des besoins en très grands équipements et de rechercher d'éventuelles priorités ainsi que les coopérations à établir.

Remerciant les représentants du CERN, du GANIL, du CEA et du CNRS d'avoir bien voulu participer à la présente audition sur les très grands équipements dans le domaine de la physique des particules, M. Christian CUVILLIEZ a donné la parole à M. Luciano MAIANI, Directeur général et à M. Claude DÉTRAZ, Directeur de la recherche du CERN (Organisation européenne pour la recherche nucléaire).

*

M. Luciano MAIANI, Directeur général du CERN, a indiqué que le CERN, s'il travaille essentiellement à repousser les limites de la connaissance en physique des particules et conduit actuellement le grand projet du LHC (Large Hadron Collider), apporte aussi, de ce fait, une contribution essentielle aux technologies de l'informatique, de l'électronique et de l'acquisition de données, et enfin joue un rôle très important de formation.

*

M. Luciano MAIANI a commencé son exposé par une description des structures du CERN.

Le CERN a été fondé en 1954 sous l'impulsion déterminante d'une part de la France, avec Pierre AUGER, alors responsable de la Science à l'UNESCO, et Léo KOWARSKY du CEA, et, d'autre part, de l'Italie, avec E. AMALDI. La mission assignée au CERN était et est toujours de rassembler les ressources européennes dans le domaine de la recherche sur la physique des particules afin de rattraper puis dépasser le cas échéant les Etats-Unis dans ce domaine.

Le CERN compte aujourd'hui 20 Etats membres qui contribuent à son budget proportionnellement au revenu national net (" net national income "), ce qui conduit à des participations inégales. Les cinq principaux contributeurs sont l'Allemagne, la France, la Grande-Bretagne, l'Italie et l'Espagne.

La structure suprême du CERN au niveau politique est le Conseil où chaque pays membre compte deux représentant et possède une voix selon le principe " un pays, un droit de vote ". Le Conseil est lui-même conseillé par le Comité des Finances qui a, notamment, dans ses attributions les procédures d'adjudication, et le Comité des Directives Scientifiques, dont les membres sont nommés intuitu personae indépendamment de la représentation de leur pays et dont certains sont d'origine américaine ou russe par exemple.

A côté des pays membres, le CERN comprend également des pays observateurs, comme Israël, qui peuvent participer au Conseil sans toutefois disposer de droit de vote. Le projet LHC s'est accompagné de la création d'un nouveau type de statut. Les Etats-Unis, le Japon et la Russie qui ont apporté une contribution financière au projet, participent au Conseil avec droit de vote dès lors que celui-ci traite du LHC.

La responsabilité opérationnelle appartient au Directeur général qui propose le programme scientifique et le budget au Conseil, et les exécute une fois l'autorisation obtenue. Le Directeur général est assisté par un Directoire, composé de 7 Directeurs, la structure inférieure étant constituée de divisions.

Il faut également mentionner l'existence au CERN d'un Comité de gestion et surtout d'un Conseil de la recherche, qui rassemble les responsables des divisions et dont la mission est de donner un avis au Directeur général, comme par exemple sur une éventuelle prolongation du LEP (grand collisionneur électron-positon).

En réponse à deux questions de M. Roger BALIAN, membre du groupe de travail, M. Luciano MAIANI a précisé que le Comité des Finances et le Comité des Directives scientifiques ne sont pas des sous-ensembles du Conseil tant dans leur composition que dans leurs méthodes de travail.

Ces deux comités travaillent d'une manière plus informelle et ne recourent pas à des votes, recherchant plutôt un consensus. Par ailleurs, il existe bien au CERN une procédure où les pays dont la contribution financière est la plus élevée pèsent davantage que les autres : elle s'applique quand le Comité des finances examine les projets sous l'angle budgétaire et ne les transmet au Conseil que s'ils ont été adoptés à la majorité qualifiée des contributions.

Le budget annuel du CERN représente environ 1 milliard de francs suisses, soit 4,3 milliards de francs français. La contribution française en 1999 s'est élevée à 148 millions de francs suisses, soit environ 640 millions de francs, représentant 16,22 % du total. Après une augmentation temporaire dans les années 1970 correspondant à la construction de l'accélérateur SPS, le budget du CERN est légèrement décroissant en volume. Il faut signaler que malgré leur complexité et leurs performances croissantes, notamment en énergie, les accélérateurs SPS, LEP et LHC qui ont été construits successivement, ont représenté des investissements équivalents en francs constants à 10 % près.

Au reste, les dépenses annuelles du CERN se composent à parts à peu près égales de frais de personnel et de dépenses en matériels. La grande majorité des chercheurs en physique des particules dans le monde sont utilisateurs des installations du CERN qui leur sont par définition ouvertes.

L'évolution des effectifs du CERN est soigneusement maîtrisée. Un premier plan a fixé comme limite le chiffre de 3000 personnes en 2000. Par ailleurs, en contrepartie de la décision positive de lancer le projet LHC en 1995, l'objectif a été fixé de passer à 2000 postes en 2005. Toutefois, une révision du plan correspondant à 2150 postes au lieu de 2000 est proposée par le Directeur général, dans la mesure où une réduction trop importante des effectifs compromettrait la capacité du CERN à conduire par ses propres moyens des travaux de recherche et développement pour les projets futurs, le transformant ainsi en simple laboratoire de réalisation.

Ainsi que l'a indiqué M. Claude DÉTRAZ, le personnel permanent du CERN comprend seulement 5 % de chercheurs physiciens, d'ingénieurs et d'administratifs. Pour M. Luciano MAIANI, la baisse constatée du personnel d'exécution est parallèle à l'importance croissante du recours à l'externalisation de travaux.

Au plan matériel, l'installation majeure du CERN consiste en un anneau de 27 km de circonférence, enterré à 100 mètres de profondeur, et entrecoupé de 4 halls souterrains. Le surdimensionnement initial du tunnel se révèle aujourd'hui un choix particulièrement judicieux puisqu'il pourra abriter le LHC après le démantèlement du LEP, avec une durée d'utilisation prévisible d'au moins 20 ans.

La communauté des utilisateurs du CERN rassemble près de 7000 scientifiques, chercheurs, ingénieurs, techniciens et étudiants.

Cette communauté provient majoritairement des Etats membres mais s'étend désormais au-delà de l'Europe, à la Russie, aux Etats-Unis, au Canada, au Japon et plus généralement à l'Asie dont les pays manifestent un intérêt croissant pour les installations du CERN.

Le CERN joue également un rôle important dans la formation scientifique. La distribution de l'âge des utilisateurs montre un pic vers l'âge de 30 ans, correspondant aux nombreux étudiants en doctorat ou Ph.D. Le nombre de thèses correspondant à des travaux réalisés dans les 4 expériences du LEP, soit ALEPH, DELPHI, L3 et OPAL, s'élève à près de 1000 sur une période de 10 années. Plus de la moitié des titulaires de doctorats obtenus sur la base de travaux conduits au CERN essaiment dans l'industrie, en particulier dans les secteurs de l'informatique et de la finance. Les anciens du CERN ont comme point fort particulier la capacité à travailler en équipe sur des problèmes complexes.

*

M. Luciano MAIANI a ensuite présenté brièvement les recherches conduites au CERN.

L'actualité des travaux du CERN est en cette fin d'été 2000 concentrée sur ses tentatives de mise en évidence du Boson de Higgs, un élément fondamental du modèle standard permettant de conférer une masse aux particules. Des indices expérimentaux de l'existence du Boson de Higgs ont été obtenus à la fin juillet 2000, sans toutefois autoriser une conclusion définitive.

L'arrêt du LEP avait été prévu pour la fin septembre afin de permettre le démarrage des travaux de réalisation du LHC, tout délai supplémentaire repoussant d'autant la mise en service de ce dernier. Une éventuelle décision de report d'un mois de la fermeture du LEP devrait être prise par le Directeur général et annoncée le 14 septembre 2000, après avis du comité des expériences LEP et du Conseil de la recherche.

Un autre volet des travaux conduits au CERN est à la pointe de l'actualité. Il s'agit des résultats obtenus avec le décélérateur d'antiprotons, à savoir l'extraction d'antiprotons de basse énergie, l'étude de leurs propriétés physiques ainsi que les recherches subséquentes sur la symétrie matière / antimatière.

Autre domaine de recherche, le CERN produit dans son installation ISOLDE des faisceaux de noyaux instables et étudie leurs propriétés avec des retombées dans des domaines allant de la médecine à l'astrophysique. L'installation " Neutron Time of Flight " a pour but la production par spallation de neutrons de toutes énergies et trouve des applications en physique nucléaire, en astrophysique ainsi que dans l'étude de systèmes sous-critiques tels que celui proposé par le Pr. Carlo RUBBIA. L'Union européenne contribue d'ailleurs par un financement direct aux études sur la spallation.

*

M. Luciano MAIANI a ensuite exposé les projets du CERN pour les années à venir.

La nouvelle frontière du CERN est bien sûr la construction du grand collisionneur de hadrons LHC, qui, grâce à des collisions de protons à des énergies dix fois supérieures à celles obtenues jusqu'ici, devrait permettre de répondre à des questions fondamentales non résolues par le LEP et d'aborder des domaines nouveaux de la physique.

Localisé dans le tunnel du LEP, le LHC représentera 27 km d'aimants supraconducteurs, accélérant en sens contraire, jusqu'à des énergies de 7 TeV, deux faisceaux de protons destinés à entrer en collision.

Les deux détecteurs ATLAS et CMS devraient mettre en évidence le Boson de Higgs ainsi que les particules prévues par la supersymétrie.

L'installation ALICE sera consacrée à l'étude des plasmas quarks-gluons. Le LHC-B devrait permettre de produire des particules contenant des quarks bottom ou " beauté ", eux-mêmes mettant en évidence l'effet de rupture de symétrie de la violation de CP que l'on pense à l'origine de la dissymétrie entre matière et antimatière dans l'Univers.

L'ensemble de ces installations représente un programme de construction et d'exploitation considérable, les seules expériences ATLAS et CMS mobilisant chacune environ 1500 physiciens et chercheurs et occupant des cavités où logeraient des immeubles de 6 étages.

L'ampleur des travaux de génie civil correspondant nécessite des précautions en terme d'aménagement des paysages et une concertation étroite avec les élus des collectivités locales concernées.

Au reste, le LHC représente une série de défis technologiques de haut niveau, qui seront relevés avec la collaboration de tous les pays partenaires.

Les aimants supraconducteurs quadrupôles, qui s'ajouteront aux 1200 dipôles, existent pour le moment à l'état de prototypes réalisés par le CEA et l'IN2P3, dans le cadre d'une contribution spécifique de la France au LHC.

Les installations de cryogénie dans les dimensions requises par le LHC sont également très innovantes.

La collaboration internationale pour le LHC s'étendra pour la première fois à des Etats non membres. Les trois laboratoires américains de Berkeley (LBL), de Chicago (FNAL) et d'Upton (BNL) sont parties prenantes. Quatre laboratoires russes sont associés, notamment pour la mise au point et la fourniture de dipôles et quadrupôles magnétiques. Un laboratoire canadien et un laboratoire japonais sont également impliqués.

Il s'agit en tout état de cause d'une réalisation mondiale, conduite grâce à une ingénierie internationale rendue possible par le réseau Internet et le Web (World Wide Web) issu des travaux du CERN.

L'un des défis majeurs à relever est celui de la puissance de calcul et des télécommunications. Le CERN a choisi de produire des faisceaux de la plus grande luminosité possible. En contrepartie, le flux de données à gérer et à interpréter sera considérable.

On estime actuellement qu'une seconde d'expériences réalisées avec le LHC produira un volume de données équivalent aux données échangées pendant une seconde de fonctionnement du réseau téléphonique mondial ou bien au total des données ayant transité sur le Web pendant la totalité du mois de janvier. Les puissances de calcul nécessaires devront donc être multipliées par 100 d'ici à 2005. De même, il sera nécessaire de développer de nouvelles infrastructures de réseaux à hauts débits.

Ainsi, l'installation CMS concernera 1800 physiciens appartenant à 150 organismes différents répartis dans 32 pays. Il sera nécessaire de créer une puissance de calcul distribuée entre plusieurs pays et plusieurs institutions, système intitulé Grille de calcul, elle-même conditionnée par l'existence de liaisons à hauts débits. Le premier niveau du réseau sera le CERN lui-même, le deuxième celui des pays partenaires du LHC (France, Italie, Etats-Unis, Japon) et le troisième niveau celui des universités ou organismes de recherche locaux. L'Union européenne contribue au financement des recherches relatives à ce projet de Grille de calcul, à cause de son grand intérêt pour le développement des technologies de l'information.

Un autre projet important du CERN est celui du faisceau de neutrinos produits au CERN et dirigés vers les installations de l'INFN (Institut national de physique nucléaire) au Gran Sasso, à l'est de Rome, à travers 730 km des roches du sous-sol, en particulier sous les Alpes. L'objectif est de déterminer si les neutrinos ont une masse et s'ils peuvent se transformer d'une forme de neutrino en une autre.

Il s'agit enfin pour le CERN de préparer la future génération des collisionneurs. Avec les technologies actuelles, il faudrait un anneau irréalisable, car passant par Genève et Londres, pour atteindre une puissance dix fois supérieure à celle du LEP. Une alternative réaliste est le projet CLIC (Compact Linear Collider), étudié en collaboration avec différents pays. Le CERN prévoit de construire sa troisième installation test de 2001 à 2003.

*

M. Luciano MAIANI a enfin traité des retombées économiques du CERN pour la France.

Avec un montant de 148 millions de francs suisses, soit 638 millions de francs français en 1999, la France a pris à sa charge 16,22 % du budget total du CERN, soit une part comparable à celle de la Grande-Bretagne, mais inférieure à celle de l'Allemagne.

Les personnels français employés au CERN représentaient à la même date 1184 personnes, soit 43 % du total, dont 247 physiciens, ingénieurs et cadres administratifs.

Les salaires injectés dans l'économie locale française, représentaient 340 millions de francs suisses en 1993 (près de 1,2 milliard de FF).

Les ordres passés à l'industrie française représentaient en 1998 un montant de 49,5 millions de francs suisses (environ 210 millions de FF) pour les approvisionnements et de 45,5 millions de francs suisses (environ 195 millions de FF) pour les services. De surcroît, la construction du LHC s'accompagnera de commandes de services d'ingénierie et de matériels de haute technologie, auxquelles la France pourra sans nul doute accéder compte tenu des bonnes positions de son industrie.

Il n'est pas donc illégitime de dire que la France est un pays " suréquilibré ", ce qui signifie que les retombées en sa faveur dépassent sensiblement sa contribution. C'est pour tenir compte de cette situation particulière que la France apporte à la construction du LHC une contribution spéciale de 64,5 millions de francs suisses (environ 280 millions de FF) et verra sa contribution annuelle indexée de 1 % par an, de même d'ailleurs que la Suisse.

*

Pour terminer sa présentation, M. Luciano MAIANI est revenu sur le statut particulier du CERN. Le CERN est une organisation internationale depuis sa création en 1954. Ce qui apparaissait comme normal et nécessaire à cette date l'est-il encore aujourd'hui ?

Ce statut a fait que les pays membres considèrent le CERN comme leur propre laboratoire, le caractère international de l'organisme lui permettant également d'attirer les meilleurs chercheurs et ingénieurs. Ce statut particulier permet aussi au Directeur général du CERN de négocier directement avec les gouvernements des pays non-membres, ce qui a été précieux pour rendre possible la réalisation du LHC.

Mais il existe un changement important depuis quelques années : la " globalisation ", c'est-à-dire la participation de pays non européens aux activités du CERN. A cet égard, pour mettre au point la prochaine génération d'accélérateurs, une collaboration internationale s'étendant au-delà de l'Europe sera indispensable. De nouveaux instruments juridiques seront donc nécessaires

*

Dans la discussion qui a suivi, à la demande de M. Gilles COHEN-TANNOUDJI, membre du groupe de travail, M. Luciano MAIANI a précisé que l'acronyme ECFA désigne le comité des pays membres du CERN qui sert de forum de discussion pour les développements futurs.

En réponse à une question de M. Roger BALIAN sur le niveau de la contribution spéciale de la France susceptible de rétablir l'équilibre vis-à-vis des autres pays dont les retombées sont moindres, M. Luciano MAIANI a précisé que la discussion a été dure à ce sujet. Le CERN publie chaque année des statistiques sur le taux de retour de chacun des pays membres. Les taux diffèrent sensiblement d'un pays à un autre et il existe des procédures de rééquilibrage de la répartition.

M. Michel SPIRO, Président du Conseil scientifique du LEP et membre du groupe de travail, a précisé qu'il n'existe pas au CERN de règle de " juste retour ", qui serait contraire à l'optimisation des ressources.

M. Luciano MAIANI a estimé à cet égard que l'instauration d'une règle de juste retour serait " mortelle " pour le CERN.

M. Jean-Jacques AUBERT, directeur de l'IN2P3-CNRS, a fait valoir que la notion de juste retour recevrait une meilleure application par une implantation équilibrée des grands équipements de recherche en Europe que par un partage des commandes relatives à chacun de ces derniers. La contrainte d'un juste retour sur chaque outil entraînerait à coup sûr une augmentation considérable des coûts. Au reste, si la France bénéficie pour le CERN d'un fort volume de commandes, ce n'est pas seulement dû à la localisation de ce dernier mais aussi et surtout à la compétitivité de son industrie de haute technologie.

Sur cette importante question, M. Luciano MAIANI a noté que l'Allemagne ne bénéficie pas d'un taux de retour satisfaisant et que cette situation commence à poser problème.

M. Michel SPIRO a fait valoir que l'équilibre des avantages obtenus par chacun des pays membres ne doit pas être évalué au cas par cas mais au contraire sur un plan global.

M. Luciano MAIANI a indiqué que dans le cas du LHC, les pays non-membres mais participant au projet, comme les Etats-Unis et le Japon ont clairement demandé que leurs entreprises industrielles participent au projet. Le résultat de ces demandes ne sera pas négatif, bien au contraire, puisque l'élargissement de l'éventail des fournisseurs à des entreprises quelquefois plus compétitives que les seules entreprises européennes permettra des économies évaluées à 30 %.

M. René TRÉGOUËT, Sénateur, rapporteur, est ensuite revenu sur les conséquences de la formulation du budget du CERN en francs suisses et non pas en euros. Il y a bien sûr un avantage pour le CERN à disposer de ressources calculées dans une monnaie forte, ce qui lui assure en réalité à budget constant une croissance de celles-ci converties en euros. Pour autant, l'on doit se poser la question d'un calcul du budget du CERN en euros dans les prochaines années.

M. Luciano MAIANI a confirmé que la convention internationale constituant le CERN prévoit que le budget de ce dernier est établi en francs suisses. Un budget établi dans une monnaie forte est évidemment avantageux, en particulier lorsque le CERN fait un effort d'investissement important comme actuellement pour la construction du LHC. Il est incontestable toutefois qu'une difficulté surviendrait si la dérive de l'euro se prolongeait, entraînant un renchérissement sensible de la contribution financière des pays membres. Faut-il pour autant rattacher le CERN à l'Union européenne ? Une telle réforme n'irait pas dans la bonne direction dans la mesure où le statut actuel facilite la participation d'autres pays et que l'élargissement du CERN est nécessaire.

Mme Claudine LAURENT, membre du groupe de travail, a signalé que la France avait rencontré une difficulté identique avec le télescope France-Canada-Hawaii dont le financement a dû être assuré en pleine ascension du dollar au début des années 1980. Au demeurant, la lourdeur de gestion d'une convention internationale rend difficile toute évolution de ses dispositions puisque les Parlements nationaux doivent les ratifier.

Pour M. Luciano MAIANI, il n'est pas opportun, en tout état de cause, de mettre à l'ordre du jour la question d'une éventuelle reformulation du budget du CERN en euros plutôt qu'en francs suisses, avant la fin de la construction du LHC. Celle-ci, dont le principe a été décidé en 1994, devrait être achevée dans 5 ans. D'ici là, le CERN ne dispose d'aucune marge de sécurité pour le financement de cette opération. Au demeurant, tout changement d'unité de compte nécessiterait une révision de la convention internationale.

En réponse à M. Roger BALIAN qui s'interrogeait sur la part des pays de la zone euro dans le financement du CERN, M. Luciano MAIANI a précisé que celle-ci s'élève à environ 80 %. S'agissant de l'investissement dans le LHC, M. Claude DETRAZ a indiqué que le budget du CERN en assure les trois quarts.

*

Sur la suggestion de M. Jochen SCHNEIDER, membre du groupe de travail, M. Luciano MAIANI a alors évoqué les perspectives à 10 ans de la physique des particules.

Au-delà du LHC, c'est-à-dire au-delà d'un horizon à 15 ans, l'avenir appartient selon toute probabilité aux collisionneurs linéaires à électrons dans la même région d'énergie. A cet égard, les Etats-Unis, le Japon et l'Allemagne avec DESY à Hambourg commencent à mettre au point leurs propres projets. Toutefois, " on ne construira pas plus d'un accélérateur linéaire dans le monde ". En tout état de cause, l'Europe ne pourra assumer seule un nouveau projet de la taille de celui du LHC, d'autant que les Etats-Unis, dont la communauté des physiciens des particules est pourtant très importante, n'auront contribué qu'à environ 5 à 10 % des dépenses relatives au LHC.

C'est pourquoi le CERN propose un plan à étapes successives, avec comme première perspective le projet CLIC déjà évoqué. L'objectif est de commencer la construction de l'installation correspondante lorsque le LHC commencera d'être opérationnel, de façon à la voir entrer en service environ 15 ans après le démarrage du LHC. Ce projet, qui ne recourrait pas au tunnel circulaire du LEP et du LHC, paraît être une réponse appropriée pour mettre à la disposition des physiciens des particules une machine dont l'énergie serait de 3 à 5 fois supérieure à celle du LHC.

M. François GOUNAND, Directeur des sciences de la matière au CEA, a estimé lui aussi que le prochain projet de grand accélérateur devrait être réalisé dans un cadre mondial. Remarquant que le Japon et les Etats-Unis participent à la conception et à la fabrication des détecteurs du LHC, il s'est par ailleurs demandé si ces mêmes pays participeront également à leur fonctionnement.

M. Luciano MAIANI a souligné que la part des Etats-Unis dans la mise au point des détecteurs est très importante, l'intervention de pays non-membres pour ce travail dépassant les 50 %. La participation au fonctionnement fait l'objet d'études et d'une négociation entre le CERN et les Etats-Unis sur la base d'une égalité de traitement entre les Etats-Unis et les pays membres. De fait, le coût des expériences est désormais comparable à celui des accélérateurs. C'est pourquoi la question se pose de savoir si le coût des opérations doit être inclus ou exclu du budget du CERN. L'intérêt des pays membres est d'intégrer ces dépenses au budget des collaborations, en créant une comptabilité séparée spécifique aux grandes expériences.

M. René TRÉGOUËT ayant demandé des explications sur la gestion de la période intérimaire séparant l'arrêt du LEP et le démarrage du LHC, M. Luciano MAIANI a exposé que les personnels du LEP s'emploieront précisément à la mise au point du LHC mais aussi d'autres programmes sur les différentes installations du CERN en service durant cette période. La recherche et le développement sur le futur à long terme du CERN ne pourront toutefois se faire qu'avec du personnel et des ressources supplémentaires.

M. Michel SPIRO a ajouté que, parmi les utilisateurs français du LEP, certains travailleront au développement du LHC, tandis que d'autres, notamment ceux dont les recherches portent sur le Boson de Higgs, utiliseront les installations américaines, tant il est vrai qu'il s'agit d'une recherche conduite à l'échelle mondiale.

M. Claude DÉTRAZ a souligné que les accélérateurs du CERN se répartissent en trois étages. Le premier étage est celui du synchrotron à protons (PS) qui alimente les autres accélérateurs avec toutes sortes de particules - proton, électrons, noyaux. Le deuxième étage, celui du supersynchrotron à protons (SPS), construit dans les années 1970, fonctionne depuis comme accélérateur à protons mais aussi comme collisionneur protons-antiprotons, accélérateur d'ions lourds et injecteur d'électrons/positons pour le LEP, troisième étage de l'ensemble.

Si le LEP va effectivement être arrêté avant la fin 2000, en revanche les deux premiers étages pourront continuer à fonctionner.

La contrainte budgétaire fait que la construction du LHC oblige à arrêter le LEP pour redéployer les crédits et les personnels afférents.

En réalité, le CERN a pris les dispositions nécessaires pour continuer, en tant que laboratoire de haut niveau, à produire des résultats scientifiques de qualité, y compris après l'arrêt du LEP. Avec les faisceaux du PS et du SPS, les programmes scientifiques ont ainsi permis de frapper récemment trois grands " coups ", d'une part dans l'étude des plasmas protons-gluons, d'autre part dans les recherches sur l'antimatière et enfin sur l'étude de la symétrie matière - antimatière et l'effet de rupture de symétrie de la violation de CP.

M. Michel SPIRO a ajouté que, du fait de la nécessité absolue de planifier les recherches, le CERN n'a qu'un choix à la marge sur la date d'arrêt d'une installation comme le LEP. Le contexte est toutefois celui d'une compétition entre différents centres de recherche comme ceux de Stanford et de Chicago aux Etats-Unis. En réalité, les chercheurs choisissent les meilleures installations pour conduire leurs travaux. En tant que centre d'excellence, le CERN attire environ 6000 chercheurs par an. Il s'agit d'un critère essentiel. On ne saurait toutefois nier que pendant les 5 ans de la construction du LHC, les Etats-Unis auront un pouvoir d'attraction encore accru.

Pour M. Jean-Jacques AUBERT, les programmes de recherche ont été préparés de manière qu'il n'y ait effectivement pas de " trous ", le dynamisme des équipes étant conservé notamment par la possibilité qui leur sera donnée d'accéder à d'autres équipements.

M. René TRÉGOUËT, Sénateur, rapporteur, a souligné la mobilité croissante des chercheurs et a redouté que les 5 années de construction du LHC ne conduisent à la dislocation des équipes du CERN.

M. Luciano MAIANI a indiqué que la construction du LHC est en soi un objectif mobilisateur même sur 5 ans et que le CERN a réussi à attirer les meilleures équipes mondiales pour la mener à bien.

A cet égard, M. Claude DÉTRAZ a rappelé que dans le domaine de la physique des particules, la constante de temps est d'environ 15 ans. Les recherches sur les détecteurs du LHC ont commencé il y a quinze ans. Les travaux sur le traitement des données qui seront récupérées en 2005 ont commencé il y a plus de 5 ans. Au total, environ 1800 chercheurs seront mobilisés à plein temps pour chacune des 4 expériences du LHC. Il est toutefois vrai que le maintien de la capacité d'attraction du CERN pendant les 5 ans à venir est une question essentielle. L'institution elle-même doit s'attacher à maintenir au plus haut niveau son impact et sa crédibilité scientifiques. Après l'arrêt du LEP, les autres installations du CERN y pourvoiront, comme par exemple les faisceaux de neutrons, ceux d'antiprotons et le séparateur ISOLDE qui attirent un nombre de chercheurs visiteurs comparable à celui du LURE, soit près de 1000 chaque année.

M. Jean-Jacques AUBERT a confirmé l'importance du CERN pour l'IN2P3, y compris dans la période intérimaire allant de l'arrêt du LEP à l'entrée en service du LHC. Ainsi que l'a indiqué M. MAIANI, les chercheurs " n'obéissent pas " et " vont où ils veulent ". Mais il reste un travail considérable à mener notamment pour l'acquisition de données. De surcroît, il est capital que le CERN se projette dans le futur. Si un organisme de recherche n'offre pas ce qui est à la frontière ultime de la connaissance, les chercheurs s'en détournent immanquablement et vont sur d'autres installations.

*

A ce stade de la discussion, M. Michel SPIRO a voulu revenir sur les points forts du CERN.

Le premier acquis du CERN est de représenter la collaboration européenne la plus poussée qui soit dans le domaine scientifique, cette collaboration se faisant avec des règles saines, notamment l'absence de juste retour et l'ouverture au reste du monde. Le CERN a, de fait, promu la culture de la transparence dans la recherche scientifique.

Le deuxième acquis est d'avoir des structures et un processus de décision exemplaires. Selon une démarche scientifique, les projets venant de la base sont examinés et validés par des experts, puis transmis à un comité scientifique qui lui-même les présente au directorat, celui-ci la soumettant ensuite aux commissions budgétaires et scientifiques et enfin au Conseil, organe suprême du CERN. Une telle démarche est un atout dans le domaine des très grands équipements (TGE). Elle introduit une rigueur exemplaire dont ne font pas toujours preuve les disciplines n'utilisant pas de TGE. Au reste, il importe de remarquer qu'il existe aussi au CERN une culture de consensus large. Deux caractéristiques importantes résument en définitive le processus de décision du CERN : rigueur et consensus.

Le troisième point fort du CERN est d'avoir développé une nouvelle dimension dans la conduite de projets. Le modèle antérieur était celui d'un développement spatial ou localisé mis en _uvre par une structure hiérarchisée. La méthode mise au point par le CERN pour le LHC est celle du développement en réseau avec une ingénierie globale. Si, comme on peut le penser, le LHC est un succès, la méthode pourra devenir un modèle.

Sur le sujet de la globalisation, M. Luciano MAIANI a indiqué que 80 % des accélérateurs du LHC sont réalisés au CERN et 20 % ailleurs, la délocalisation étant plus importante pour certains équipements comme les détecteurs. Alors que la taille des projets augmente, le CERN ne peut quant à lui s'étendre plus avant. L'objectif doit donc être que la moitié du travail correspondant aux projets du futur soit réalisée à l'extérieur. La construction du futur accélérateur linéaire sera donc nécessairement une entreprise globale, les espaces nationaux bénéficiant de transferts de technologie.

En tout état de cause, la stratégie du CERN est bien une stratégie " bottom-up " et non pas une stratégie " top down " comme celle retenue pour ITER.

M. René TRÉGOUËT, Sénateur, rapporteur, s'étant inquiété de savoir si tous les pays du monde jouent sans réticence le jeu d'une mise en réseau des connaissances, M. Luciano MAIANI a indiqué que les succès de la physique des particules au plan mondial sont basés sur une transparence effective et généralisée.

M. Guy WORMSER, directeur scientifique adjoint de l'IN2P3, a confirmé l'ouverture croissante des scientifiques américains à la culture de la transparence, y compris vis-à-vis de chercheurs russes qui participent d'ailleurs à la construction d'accélérateurs aux Etats-Unis.

M. Pierre POINTU, membre du groupe de travail, s'étant interrogé sur le rôle éventuel du CERN dans l'évaluation des réacteurs nucléaires sous-critiques, M. Luciano MAIANI a précisé que si l'idée de tels réacteurs trouve effectivement son origine au CERN, notamment auprès de Carlo Rubbia, le CERN ne s'investit pas dans leur mise au point. Si un projet européen de réacteur sous-critique voyait le jour, le CERN, en tant que source de savoir-faire, pourrait toutefois contribuer au développement de l'accélérateur indispensable à leur fonctionnement. L'installation du CERN intitulée " neutron time of life facility " est en l'occurrence parfaitement adaptée aux études fondamentales qu'il serait nécessaire de faire au préalable.

Après avoir indiqué que le groupe de travail de l'Office sur les TGE était honoré d'avoir reçu les plus hauts dirigeants du CERN et les avoir remerciés chaleureusement pour leur participation, M. René TRÉGOUËT, Sénateur, rapporteur, a donné la parole aux représentants du GANIL.

*

M. Daniel GUERREAU, Directeur du GANIL (Grand Accélérateur National d'Ions Lourds), après avoir indiqué le plan de son exposé, a souligné que la physique nucléaire comprend quatre principaux domaines, l'étude des constituants de la matière, l'étude du degré de cohésion des noyaux en fonction du nombre et de la nature de leurs constituants, le comportement de la matière dans des conditions extrêmes et l'étude de l'origine des éléments dans l'Univers.

Le GANIL est présent dans chacun de ces domaines, à quoi il faut ajouter l'utilisation des outils de la physique nucléaire dans d'autres disciplines.

Faisant un bref commentaire sur le CERN, M. Daniel GUERREAU a estimé que cette organisation est le type même d'une réalisation aboutie.

Mais il importe de savoir que la physique nucléaire française a su, elle aussi, au plan national, se restructurer et acquérir une dimension européenne.

En tout état de cause, un très grand équipement comme le GANIL n'est pas venu s'ajouter purement et simplement à un parc initial maintenu en fonctionnement.

Au contraire, alors que la première expérience du GANIL est intervenue en 1983, au cours des 15 années suivantes, de 1983 à 1997, la physique nucléaire française a su fermer différentes installations considérées comme obsolètes, tels l'accélérateur linéaire d'électrons de Saclay (ALS), l'accélérateur d'ions lourds Alice d'Orsay, l'accélérateur national Saturne de Saclay, l'accélérateur Sara de l'Institut des sciences nucléaires de Grenoble, et redéployer vers la protonthérapie le synchrocyclotron d'Orsay.

Quelles sont les installations comparables au GANIL dans le monde ? En Europe, il faut citer le GSI de Darmstadt en Allemagne, une installation au demeurant plus complémentaire que concurrente. La Russie dispose avec Dubna d'un accélérateur d'ions lourds comparable. Les Etats-Unis et le Japon en possèdent chacun un également (MSU, RIKEN).

Le GANIL peut se définir comme un laboratoire d'accueil et un outil pluridisciplinaire. Il comprend un ensemble d'accélérateurs (cyclotrons) fournissant des faisceaux d'ions lourds dans une très large gamme de masse, du carbone à l'uranium, et d'énergie. Il délivre également des faisceaux dits exotiques, c'est-à-dire essentiellement instables, de haute énergie.

En 1999, le GANIL a fourni 5100 heures de faisceaux à haute énergie et 1700 heures à moyenne énergie. Il dispose d'équipements expérimentaux performants. Le nouvel ensemble de production et d'accélération de faisceaux exotiques appelé SPIRAL est en cours d'achèvement. Une enquête publique tardive et des compléments d'information au dossier de sûreté ont entraîné un retard dans le démarrage de l'installation. Le programme scientifique est élaboré en concertation avec les partenaires européens du GANIL.

Après que la décision de construction a été prise en 1975, la première expérience est intervenue en 1983. Le coût de la construction initiale s'est élevé à 641 millions de francs 1983, soit 938 millions de francs 1999. Le coût des modifications et compléments apportés entre 1983 et 1999 s'est élevé au total à 911 millions de francs 2000.

Le statut juridique du GANIL est celui d'un GIE, à parité entre la direction des sciences de la matière (DSM) du CEA et l'IN2P3 du CNRS.

Le GIE a été créé en 1976 pour une durée de 30 ans. Les avantages de ce statut sont de permettre à la fois une rigueur budgétaire et une souplesse de gestion supérieure à celui d'une UMR. Les personnels, soit 230 personnes chercheurs, ingénieurs, techniciens et administratifs, continuent d'être gérés directement par la DSM et l'IN2P3. L'essentiel du personnel (ingénieurs et techniciens) contribue au fonctionnement de l'installation et le nombre de chercheurs permanents sur le site est faible - environ 20. Le GANIL compte annuellement une communauté d'environ 600 utilisateurs extérieurs.

Le budget 2000 du GANIL s'élève à 52 millions de francs, dont 44,4 millions apportés par les membres du GIE (IN2P3 et DSM). Les autres directions du CEA utilisatrices du GANIL contribuent financièrement à des investissements dans le domaine des recherches pluridisciplinaires.

L'une des questions fondamentales que le GANIL souhaiterait voir régler au plan budgétaire, serait de pouvoir disposer d'une programmation pluriannuelle de son budget.

En 2000, la région Basse Normandie aura apporté une subvention de 1,5 million de francs et l'Union européenne une contribution de 2,5 millions de francs. En réalité, ces financements permettent de compenser, mais en partie seulement, la diminution des apports du CEA et du CNRS, qui se sont réduits de 25 % en francs constants sur une période de 10 années.

Pour l'avenir, à côté des recherches en physique nucléaire qui se poursuivent, l'un des axes forts de développement du GANIL est la pluridisciplinarité. Il s'agit là certes d'un projet scientifique important mais aussi d'une stratégie de diversification de ses sources de financement. En complément aux 4 millions de francs apportés en 2000 par la région et l'Union européenne, s'ajoutent déjà 3,6 millions de francs d'investissements provenant d'activités nouvelles hors budget.

La discussion a ensuite porté sur les conditions d'accès au GANIL. M. Daniel GUERREAU a indiqué que tout utilisateur du GANIL y a un accès gratuit. M. Roger BALIAN s'étant interrogé sur l'opportunité de créer un ticket modérateur, M. Jean-Pierre GRANDIN a indiqué que cette situation existe de facto car certains chercheurs visiteurs construisent par leurs propres moyens une instrumentation complémentaire de celle du GANIL.

*

Après ces informations sur les structures du GANIL, M. Daniel GUERREAU a présenté les principaux thèmes des recherches qui y sont menées.

Si le GANIL a été construit pour servir la physique de la matière nucléaire et l'étude du noyau de l'atome, et si les chercheurs de cette discipline représentent la majorité de ses utilisateurs, soit 400 sur 700, les activités du GANIL ne sauraient se résumer à ce champ d'étude.

L'étude de la matière nucléaire au GANIL comporte plusieurs points forts qui ont tous trait à l'étude du comportement de la matière nucléaire portée dans des conditions extrêmes.

La production et l'étude des noyaux exotiques représentent l'un de ces points forts. Il s'agit de noyaux comportant des proportions de neutrons et de protons très différentes de celles caractérisant l'état stable. L'objectif est d'étudier au plan fondamental les problèmes de cohésion du noyau, ce qui conduit à remettre en cause certains concepts fondamentaux de la physique.

Aujourd'hui, des résultats très marquants ont été obtenus tels la production de plusieurs noyaux dits " magiques " qui ont été mis en évidence au GANIL, dont l'étain 100 et le nickel 48, qui comporte 28 protons et 20 neutrons, soit le noyau le plus riche en protons qui puisse exister.

D'autres résultats concernent la mise en évidence de noyaux à halos de neutrons, l'identification de nouvelles structures dans les noyaux, dont des formes de polymères avec des liaisons covalentes assurées par des neutrons en excès ou encore le domaine de la recherche des noyaux superlourds, liée à la création de nouvelles espèces chimiques de numéro atomique supérieur à celui de l'uranium, l'élément le plus lourd existant dans la nature.

La meilleure connaissance du comportement des noyaux placés dans des conditions de température et de pression très élevées permet aussi l'étude de la transition de phase liquide-gaz récemment mise en évidence à travers la capacité calorifique négative dans le milieu nucléaire.

Enfin, les études menées au GANIL permettent de progresser dans notre connaissance de la genèse des éléments dans l'univers.

*

A cet égard, M. Roger BALIAN a remarqué que la physique nucléaire a fait des progrès considérables en 10 ans. Il s'agit pourtant d'une des disciplines malheureusement les plus méconnues. Au vrai, cette discipline a la réputation injustifiée d'être " vieillotte " et pour certains, " diabolique " puisque touchant au nucléaire.

Mme Claudine LAURENT a estimé qu'il y a effectivement une réflexion à conduire à ce sujet.

M. Daniel GUERREAU a déclaré à son tour qu'il serait préférable de désigner cette physique sous l'appellation de " physique du noyau ".

Un changement de terminologie est en tout état de cause nécessaire pour mieux décrire la réalité de cette discipline et supprimer le lien abusif qui peut être fait par le public entre ces recherches fondamentales et les applications civiles ou militaires du nucléaire. D'autres nouvelles appellations sont à l'heure actuelle mises en avant, comme la physique des faisceaux exotiques ou bien des faisceaux rares, ainsi que cela est fait aux Etats-Unis.

Le CIRIL (Centre interdisciplinaire de recherche ions-lasers) est en particulier chargé d'accueillir les utilisateurs du GANIL, pour les applications autres que la physique nucléaire et pour des recherches très diverses dans les domaines liés à la physique atomique et moléculaire, à la physique de la matière condensée et des matériaux, à la radiobiologie. Cette dernière catégorie comprend par exemple l'étude des effets des rayonnements cosmiques sur la santé, ces rayonnements étant constitués d'ions lourds et pouvant représenter un obstacle considérable pour les projets de vols habités d'exploration de la planète Mars.

Si les études sur les effets des rayonnements électromagnétiques ne figurent pas dans son domaine de recherche, le GANIL étudie en revanche les effets des rayonnements ionisants sur différents types de matériaux, notamment la création de défauts, la modification de structures et la création de nouveaux types de matériaux.

Le premier axe est relatif à l'étude de l'endommagement des métaux et d'alliages sous l'effet d'une irradiation. Ce thème d'étude est d'une importance fondamentale dans l'industrie nucléaire pour qui le vieillissement des réacteurs et la tenue des matrices de stockage des matières irradiées sont des variables critiques. Le GANIL collabore à cet égard avec EDF, le CEA et la Cogema. D'autres études importantes portent sur le test de composants électroniques embarqués, leur exposition à des ions lourds pouvant perturber leur fonctionnement. Mais le GANIL utilise également ses sources d'irradiation pour préparer des matériaux particuliers, comme des membranes microporeuses.

Le GANIL inscrit également dans ses objectifs les transferts de technologie et l'essaimage.

La société Biopore a produit et commercialisé de 1986 à 1990 des membranes microporeuses, jusqu'à ce que la production de ces dernières en recourant à des accélérateurs de moindre taille se révèle plus compétitive. La société Ganelec en a fait de même de 1989 à 1993 pour des modules électroniques. Depuis 1991, la société Pantechnik produit et commercialise des sources d'ions et d'autres dispositifs utilisés dans les accélérateurs de particules. La société X-ion, créée en 1998, a eu comme point de départ les travaux de recherche fondamentale du GANIL dans le domaine de l'irradiation et utilise des faisceaux d'ions multichargés très lents pour la modification de substrats de silicium pour la microélectronique. Enfin, le GANIL est à l'origine de la création d'un incubateur d'entreprises qui, avec la participation complémentaire de l'ISMRA et de l'Université de Basse-Normandie, sera opérationnel fin 2000.

L'évaluation des recherches et des projets du GANIL est le fait du Conseil scientifique et de deux Comités d'évaluation des expériences, dont l'un est compétent pour la physique nucléaire et l'autre pour les recherches interdisciplinaires. En outre le projet SPIRAL a été encadré par un Comité de pilotage présidé par le Professeur suédois B. MOTTELSON, Prix Nobel. De fait, le GANIL n'hésite pas à placer ses activités sous l'examen d'experts étrangers. Le Comité d'évaluation des expériences de physique nucléaire est présidé par un chercheur britannique, tandis que le GANIL s'est prêté en 1997 à un audit international sous la conduite du Professeur néerlandais Siemssen et qu'un audit de l'installation a été mené par l'Union européenne dans le cadre du 5ème PCRD.

Au demeurant la production scientifique du GANIL se chiffre à 1421 publications, dont plus de la moitié dans des revues à fort facteur d'impact.

A la demande de M. René TRÉGOUËT, Sénateur, rapporteur, s'enquérant de l'insertion locale du GANIL, M. Daniel GUERREAU a indiqué en premier lieu que la région Basse-Normandie apporte son aide éventuelle pour le financement d'investissements particuliers mais en aucun cas pour les dépenses de fonctionnement.

Parmi les 600 utilisateurs annuels du GANIL, 96, soit 16 %, sont des chercheurs locaux hors GANIL, dont la plupart appartiennent à l'ISMRA, une école d'ingénieurs qui accueille l'ensemble des laboratoires de physique et chimie de Caen (UMR associées à l'Université et au CNRS).

Au demeurant, l'installation du GANIL a été le point de départ de la création ex nihilo d'un véritable pôle scientifique à Caen, qui comprend désormais l'UFR de Sciences, l'IUT, deux écoles d'ingénieurs (ISMRA et travaux publics de Caen), le centre Cyceron d'imagerie médicale avec sa caméra à positons ainsi qu'une technopole d'entreprises.

Au surplus, près de la moitié des dépenses de fonctionnement et d'investissement du GANIL bénéficient à des fournisseurs locaux, à quoi il faut ajouter l'impact des salaires versés au personnel.

Le GANIL a su devenir en tout état de cause un laboratoire national, dont les équipements sont essentiels pour les 50 laboratoires utilisateurs, appartenant au CEA, au CNRS ou aux universités. Il ne peut exister d'équipements " propriétaires " ou d'équipements de laboratoire comparables à ce niveau d'investissements. Le GANIL peut donc être considéré comme un équipement de base pour ces laboratoires.

Le contrat de plan Etat - Région Interrégional (Basse Normandie, Haute Normandie, Ile de France), s'attache à amplifier le succès du GANIL à cet égard, en finançant à hauteur de 10 millions de francs la reconnaissance de celui-ci en tant que pôle interrégional leader pour l'étude des interactions ions-matière.

La pression de la demande d'accès aux faisceaux du GANIL est un autre signe de succès. La demande de temps de faisceau est au moins deux fois supérieure au temps de fonctionnement disponible du GANIL. Entre le dépôt dune demande d'expérimentation et la réalisation de celle-ci, il s'écoule de quelques mois à 18 mois ou 2 ans. La sélection des demandes s'effectue deux fois par an, la direction se réservant toutefois 10 à 15 % du temps total pour des attributions discrétionnaires destinées à faire face à des demandes urgentes de qualité.

*

Une discussion est alors intervenue sur les contraintes de fonctionnement résultant du statut juridique du GANIL ou du statut des personnels.

M. Daniel GUERREAU a indiqué que le GANIL fonctionne en 3x8, dimanches et jours de fêtes compris, sauf en période de maintenance. Il est donc nécessaire de rémunérer des heures supplémentaires ainsi que des heures passées en astreinte. Il existe bien entendu des moyens légaux pour le faire mais ceux-ci se caractérisent parfois par une certaine complexité. Le paiement des heures supplémentaires et la prise en compte des horaires décalés sont relativement aisés pour les personnels CEA, ce qui a conduit à un recrutement des opérateurs de machines uniquement dans le cadre CEA. Au contraire les procédures de compensation pour astreintes et heures supplémentaires des personnels IN2P3 sont plus complexes.

M. René TRÉGOUËT, Sénateur, rapporteur, s'étant interrogé sur l'avantage éventuel d'une société civile par rapport à un GIE, M. François GOUNAND a estimé que le statut de société civile est particulièrement adapté à une européanisation d'un grand équipement, au contraire du GIE qui se prêterait mal à une ouverture à des partenaires étrangers. Au demeurant, la gestion des équipements communs au CEA et au CNRS n'est actuellement pas facilitée par le fait que le CEA est passé effectivement aux 35 heures, au contraire du CNRS.

Selon M. Jean-Jacques AUBERT, il convient de ne pas surestimer les difficultés résultant de la coexistence au sein d'un GIE de personnels de statuts différents.

M. Daniel GUERREAU a toutefois indiqué que si la loi des 35 heures n'était pas appliquée dans la fonction publique, l'on irait alors vers des problèmes sérieux au GANIL.

*

La discussion a ensuite porté sur l'ouverture du GANIL aux autres laboratoires nationaux ou européens.

M. Daniel GUERREAU a précisé que sur les 600 utilisateurs du GANIL en 1999, 16 % viennent de la région, 44 % du reste de la France, 26 % des autres pays de l'Union européenne, 9 % de l'Europe orientale et 5 % des Etats-Unis, du Japon et de la Chine.

M. Roger BALIAN ayant estimé que l'Italie, l'Allemagne et la Grande-Bretagne envoient peu de chercheurs au GANIL en dépit d'une tradition nucléaire forte et s'intéressent de fait peu à cet équipement, M. Daniel GUERREAU a fait remarquer que les installations du GANIL seraient saturées au-delà de 40 % d'utilisateurs étrangers.

Au reste, le GANIL bénéficie du programme européen " Access to Large Facilities ", qui prend en charge d'une part le défraiement des chercheurs étrangers visiteurs - doctorants ou post-docs et étudiants - et d'autre part contribue modestement aux frais correspondants de fonctionnement des accélérateurs. Au demeurant, l'implication du laboratoire dans de grands programmes européens est croissante, notamment pour le développement de détecteurs de nouvelle génération, pour la conception de l'accélérateur du futur et le développement de la physique du noyau. D'ailleurs, le GANIL est l'un des 10 laboratoires reconnus comme Grande Infrastructure par l'Union européenne, en physique nucléaire et sa part dans les contrats de type RTD, réseaux et " Marie Curie training site " du 5ème PCRD représente 25 % du total des contrats européens en physique nucléaire.

M. François GOUNAND a ajouté que l'ouverture européenne du GANIL devrait s'accompagner d'un changement de statut permettant une meilleure répartition des frais de fonctionnement entre tous les utilisateurs.

M. Jean-Jacques AUBERT a jugé que si le GANIL n'est pas sans rival aujourd'hui dans le monde, en revanche l'entrée en service de SPIRAL lui donnera une avance sur tous les autres grands accélérateurs d'ions lourds.

*

M. Daniel GUERREAU a alors brossé les perspectives d'activité du GANIL, à court, moyen et long terme, perspectives qui seront notablement élargies par l'entrée en service de SPIRAL.

L'objectif de SPIRAL, un projet de 120 millions de francs hors salaires dont le démarrage est prévu pour la fin 2000, est, au moyen de la production et de l'accélération de faisceaux exotiques et à l'aide de nouveaux grands détecteurs, d'étudier l'origine de la liaison nucléaire, la stabilité des noyaux en fonction de leur nombre de protons et de neutrons et la formation des éléments dans l'univers.

Si la physique des particules est organisée depuis les années 1950, la physique nucléaire a fait d'importants progrès dans la coordination, notamment grâce à NuPECC (Comité européen de collaboration en physique nucléaire), comité d'experts de la Fondation européenne pour la science. La construction éventuelle de SPIRAL a reçu un avis positif de sa part. Le forum MegaScience de l'OCDE consacré à la physique nucléaire a quant à lui conclu en 1999 à la nécessité d'instruments de 2ème génération pour les faisceaux exotiques, à l'échelle de chaque continent.

Les deux nouveaux grands détecteurs de SPIRAL, d'un coût total de 50 millions de francs, ont été financés à hauteur de 55 % par des partenaires européens.

Les perspectives à moyen terme du GANIL sont d'augmenter la gamme de faisceaux disponibles avec SPIRAL, selon un programme de R & D développé en commun avec la Belgique, les Pays-Bas et la Finlande, dans le cadre du projet SPIRAL Phase II. Un avant projet sommaire sera prêt d'ici à l'été 2001. Ce programme permettra aussi de conduire des études fondamentales liées au développement de programmes innovants dans le domaine de l'incinération des déchets nucléaires.

Le long terme de SPIRAL et donc du GANIL porte ainsi sur la définition d'une installation de 2ème génération où les intensités des faisceaux d'ions exotiques produits seraient accrus de deux à trois ordres de grandeur.

L'avenir du GANIL sera européen ou ne sera pas. C'est pourquoi GANIL participe en tant que coordonnateur au grand programme EURISOL, en collaboration avec tous les grands laboratoires européens, qui vise à définir un avant-projet de machine de 2ème génération tirant parti des premières années de fonctionnement de SPIRAL. Ces développements sont liés à la mise au point d'accélérateurs de très hautes intensités qui sont nécessaires également à d'autres disciplines, par exemple pour la production de neutrons par spallation, pour les réacteurs hybrides, l'irradiation ou la production de neutrinos.

M. Roger BALIAN a alors demandé si le traitement des déchets radioactifs par transmutation représente pour les chercheurs du GANIL une voie d'avenir au plan scientifique.

M. Daniel GUERREAU a alors rappelé que la loi du 30 décembre 1991 sur la gestion des déchets radioactifs comporte deux voies de recherche. La première est celle du stockage, qui voit une implication croissante du GANIL notamment pour le test d'irradiation de matériaux pour le compte de la DRN (direction des réacteurs nucléaires) et la DCC (direction du cycle du combustible) du CEA. Un équipement dédié est en cours de construction au GANIL (IRRSUD). S'agissant de la deuxième voie, celle de la séparation poussée et de la transmutation, il n'existe pas pour l'instant de recherche spécifique au GANIL. Il existe toutefois des physiciens du GANIL impliqués dans des travaux de métrologie.

M. Roger BALIAN ayant souligné l'importance de recherches sur la transmutation de noyaux par des neutrons, M. Jean-Jacques AUBERT a souligné que 57 chercheurs de l'IN2P3 travaillent sur l'aval du cycle, sur les 210 chercheurs de cet organisme travaillant sur la physique nucléaire. Reflétant l'intérêt sociétal croissant de ces questions, une prise de conscience forte s'effectue dans le milieu.

A la demande de M. Michel SPIRO, M. Daniel GUERREAU a précisé que la production et l'étude de noyaux superlourds représente un thème du futur programme, le fait de disposer de faisceaux de plus en plus riches en neutrons étant un gros atout. Les chercheurs américains, russes et allemands travaillent également sur cette question complexe et dont les résultats récents sont controversés, ainsi en ce qui concerne les noyaux de numéro atomique 116 et 118 dont la production annoncée aux Etats-Unis n'a pas été confirmée par les autres laboratoires (GANIL, GSI et RIKEN).

M. Gilles COHEN-TANNOUDJI a remarqué que la notion d'installation multi-applications est à l'ordre du jour. Un avant-projet intitulé CONCERT est en cours de mise au point. Il conviendrait de consacrer une audition à ses responsables, car il s'agit d'une approche nouvelle du concept de très grand instrument.

*

Une discussion s'est ensuite engagée sur le Vivitron de Strasbourg, à l'invitation de M. Roger BALIAN, qui a rapporté les interrogations de différents chercheurs européens sur les résultats obtenus avec cet instrument.

M. Jean-Jacques AUBERT a indiqué que le seul critère en la matière est de savoir quelle science est produite avec cet équipement, qui est un détecteur de photons de grande acceptance (EUROBALL). Des résultats intéressants ont d'ores et déjà été obtenus. Lorsque cet équipement aura achevé son cycle d'expérimentation, la qualité des projets qui seront présentés pour sa prorogation ou son remplacement déterminera la décision à prendre.

*

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, sur les causes du retard dans la mise en service de SPIRAL, M. Daniel GUERREAU a précisé que le GANIL étant une installation nucléaire de base (INB), il a fallu intégrer a posteriori les évolutions de réglementation intervenues depuis le début de la construction en 1994 et tenir compte de la décision prise en 1999 par la Direction de la sûreté des installations nucléaires de réaliser une enquête publique.

Une discussion est alors intervenue entre les participants sur l'opportunité d'appliquer une seule et même réglementation à des INB comme les réacteurs électronucléaires ou les équipements de recherche.

M. Robert COMÈS a souligné que les personnels des DRIRE sont souvent désormais dépourvus d'expérience et appliquent sans nuance la réglementation.

Pour M. Daniel GUERREAU, les procédures de radioprotection se sont incontestablement alourdies dans les années récentes.

M. Claude DÉTRAZ a estimé que, confronté aux contraintes du démantèlement du LEP, le CERN a tenu à traiter les questions de radioprotection avec le plus grand professionnalisme, tant ces questions sont sensibles dans la population.

M. Jean-Jacques AUBERT a fait remarquer qu'il existe des difficultés spécifiques aux installations de recherche mais aussi des difficultés réglementaires comme l'absence de seuil de radioactivité et l'interrogation sur la possibilité de diluer éventuellement des déchets radioactifs et enfin des difficultés dues à une perception irrationnelle des différents risques.

A cet égard, M. René TRÉGOUËT, Sénateur, rapporteur, a indiqué que ces remarques sur la réglementation en matière de radioprotection seront transmises au Président de l'Office et qu'il sera demandé à l'Office de plaider en faveur de réglementations distinctes selon les différents types d'installations nucléaires de base.

*

M. René TRÉGOUËT, Sénateur, rapporteur, a souligné que le Parlement ne prend pas de décision sur le fonctionnement et les investissements du GANIL et a indiqué qu'il serait souhaitable de mieux connaître les mécanismes des décisions relatives à ce grand équipement.

M. Jean-Jacques AUBERT a estimé que le problème des TGE est un faux problème. Le vrai problème est celui des moyens à consacrer aux différents champs scientifiques, les chercheurs de chaque discipline déterminant ensuite s'il est important ou non d'investir dans des TGE. Comme tout autre TGE, le GANIL n'est un outil intéressant que s'il ouvre de nouveaux champs de découvertes, ce qu'il fait incontestablement.

Dans le cadre d'un budget donné, une enveloppe globale est attribuée à chaque discipline. Il s'agit alors de tenir compte des besoins et des équilibres et de déterminer quels sacrifices seraient nécessaires et tolérables pour le financement d'un ou plusieurs TGE.

En réalité, la priorité appartient aux arbitrages entre différentes disciplines et, entre différents projets, au sein de chacune d'entre elles. L'objectif est en tout état de cause d'atteindre la meilleure efficacité possible dans chaque champ de recherche.

M. François GOUNAND, rappelant l'évolution défavorable du budget de la DSM, a souligné que le maintien de la subvention de la DSM au GANIL pour son fonctionnement est la marque d'un fort support et d'un fort intérêt envers ce grand instrument. La DSM est en l'occurrence gênée par l'absence de programmation budgétaire pluri-annuelle, le problème étant identique pour suivre les engagements au LHC. En l'occurrence, il est plus facile de financer des investissements que d'assurer, bon an mal an, le financement du fonctionnement.

M. René TRÉGOUËT, Sénateur, rapporteur a souligné l'importance des réseaux dans la science moderne. Un très grand équipement présente la caractéristique d'être indissociable et d'avoir une masse critique telle que les organismes de recherche doivent mettre en commun leurs ressources pour financer sa construction.

Mme Claudine LAURENT s'interrogeant sur la notion de TGE a indiqué que différents critères de définition peuvent être envisagés, comme l'intervention du Parlement, la notion de programmation pluri-annuelle, la communauté desservie ou bien encore l'objectif. L'important, en tout état de cause, est de savoir quelles conséquences sont induites par l'attribution du label TGE, notamment en ce qui concerne les contrats et les partenaires éventuels.

A propos de la notion d'engagement pluriannuel, M. Guy WORMSER a indiqué que la participation annuelle de l'IN2P3 à la seule expérience ATLAS du LHC est supérieure à la subvention annuelle qu'il verse au GANIL. Or comment se déterminent les engagements des participants au LHC ? Le coût total d'ATLAS se chiffre à environ 500 millions de francs suisses, soit environ 2,2 milliards de francs. Les engagements des différents partenaires se sont faits sur la base d'un " memorandum of understanding " assorti d'obligations pluriannuelles. La participation à une expérience du CERN comme ATLAS appartient à la catégorie des TGE du fait que son coût dépasse un certain seuil. Il faut rappeler toutefois qu'une expérience comme ALICE en a fait partie également puis a été sortie de ce cadre. Il manque donc une certaine clarté à la notion de TGE.

Mme Claudine LAURENT a confirmé que des grands équipements peuvent appartenir à la catégorie des TGE, comme les satellites, sans que les expériences associées soient rangées dans cette catégorie. Il existe donc une ambiguïté de la notion.

M. Jean-Jacques AUBERT a remarqué que les années récentes ont vu une certaine " diabolisation " de la notion de TGE. Les TGE possèdent la caractéristique d'être visibles et identifiables. Mais le poste des dépenses de recherche qui reste le plus élevé en France, c'est celui des salaires. La variable clé est donc l'efficacité avec laquelle les salaires sont dépensés. La décision de placer l'accent sur telle ou telle discipline appartient au champ politique. Il importe ensuite de ne pas arrêter la réflexion aux seuls postes de dépenses les plus visibles.

*

Une discussion s'est alors engagée sur les conditions à respecter en parallèle avec les augmentations de crédits consenties à la biologie. Pour M. Roger BALIAN, une dispersion des efforts est à redouter dans cette discipline en raison de la grande hétérogénéité des équipes de recherche. Mme Claudine LAURENT a fait remarquer qu'un nombre très important d'organismes de recherche s'intéressent à la biologie. M. Jean-Pierre GRANDIN, Directeur du CIRIL a estimé que les équipes de recherche en biologie sont trop morcelées. M. Jean-Jacques AUBERT a remarqué qu'une faible partie des enseignants en biologie, un quart précisément, ont présenté leur candidature pour obtenir une prime d'encadrement doctoral, ce qui démontre l'hétérogénéité de la recherche universitaire dans ce domaine.

*

Remerciant les participants pour leur contribution à l'information de l'Office, M. Christian CUVILLIEZ, Député, Rapporteur a souhaité d'une part une harmonisation de la nomenclature des TGE, et, d'autre part, après l'intervention de la région Ile-de-France dans le financement de SOLEIL, l'instauration de règles pour une répartition optimale des interventions de l'Etat et des régions pour les investissements dans les TGE.

8. Fusion - mercredi 20 septembre 2000

CEA

· M. René PELLAT, Haut-Commissaire à l'énergie atomique

· M. Guy LAVAL, Directeur de recherche

· M. Jean JACQUINOT, Directeur de recherche

· M. Michel CHATELIER, Directeur de recherche

· M. Pierre TRÉFOURET, Chef du Service des Affaires publiques

CNRS

· M. Dominique ESCANDE, Directeur de recherche au CNRS - Laboratoire de physique des interactions ioniques et moléculaires

ITER

· M. Robert AYMAR, Directeur

JET

· M. Jérôme PAMELA, Responsable du JET

Après avoir accueilli et remercié les participants d'avoir accepté l'invitation de l'Office, M. Christian CUVILLIEZ, Député, rapporteur, a donné la parole à M. René PELLAT, Haut-commissaire à l'énergie atomique, pour une présentation générale des acquis et des perspectives des recherches sur la fusion contrôlée.

*

M. René PELLAT, Haut-commissaire à l'énergie atomique, a indiqué qu'au terme de quatre décennies de recherche sur la fusion contrôlée, les Etats-Unis et la Russie ont cédé le leadership du domaine à l'Europe. Le JET (Joint European Torus), entré en service en 1983, enregistre des performances supérieures d'une part à celle de la machine japonaise JT-60 d'une taille équivalente et, d'autre part, à celles de la machine américaine TFTR. En tout état de cause, avec le JET, l'énergie dégagée par la réaction de fusion est du même ordre de grandeur que l'énergie fournie, avec un confinement suffisant pour susciter l'intérêt de passer d'une réaction de quelques secondes à quelques minutes.

La coopération en matière de recherche sur la fusion a pris une dimension mondiale depuis la fin des années 1980 à la suite d'un sommet du G8. Avec un horizon à plusieurs dizaines d'années pour l'obtention de résultats industrialisables, l'absence de concurrence et de retombées immédiates en matière de fourniture d'énergie, un accord international a pu être signé entre les Etats-Unis, le Japon, l'Europe et la Russie, les recherches en cours au plan national se poursuivant toutefois.

Le programme ITER (International Thermonuclear Experimental Reactor) subséquent a connu une première étape au terme de laquelle le projet a été jugé surdimensionné et coûteux. Le projet a connu ensuite une phase difficile mais positive dans la mesure où l'on est parvenu à élaborer une version simplifiée du projet.

Depuis 1998, la France, par la voix du CEA et de son Haut-commissaire, a jugé nécessaire de relancer ITER, en présentant un projet de taille raisonnable et dont l'objectif plus modeste est d'apporter la démonstration scientifique finale de la faisabilité d'une réaction de fusion thermonucléaire intervenant dans un plasma, avec des conditions de durée, d'énergie et de confinement suffisantes pour envisager la construction de réacteurs.

La question du lieu d'implantation fait déjà l'objet d'une proposition de différents pays membres d'ITER. Le Japon s'est proposé en raison de ses acquis scientifiques dans le domaine de la fusion. Le Canada qui dispose d'une hydroélectricité d'un coût peu élevé et de ressources en tritium issues des réacteurs Candu, a, lui aussi, des atouts.

Considérant qu'il serait anormal que l'Europe ne propose pas à son tour un site, le Haut-commissaire a convaincu le ministre de la recherche, M. Roger-Gérard SCHWARTZENBERG, que le CEA présente la candidature du site de Cadarache au nom de la France, étant entendu que l'Union européenne devra apporter à son tour son soutien.

L'accueil du Japon et du Canada à la proposition française semble positif dans la mesure où celle-ci est une marque d'intérêt pour le projet et renforce la communauté de la fusion. Mais l'essentiel est d'obtenir la décision d'engager des études pendant la présidence française de l'Union européenne et de préparer l'inscription du projet au 6ème PCRD qui débutera en 2001.

En réponse à une question de M. Michel SPIRO sur la position actuelle des pays de l'Union européenne, M. René PELLAT a jugé positives les positions de l'Allemagne, de l'Italie, de l'Espagne et du Portugal. L'Allemagne alloue une partie de ses ressources dans ce domaine à une machine de type stellarator située dans un land de l'ex-Allemagne de l'Est et ne semble pas pouvoir aller au delà. En tout état de cause, il ne conviendrait pas de fermer le JET installé en Grande-Bretagne avant d'avoir mis le projet ITER sur les rails. Par ailleurs, les Etats-Unis, en l'absence de politique fédérale sur la fusion, rencontrent des difficultés sur ce sujet mais devraient rejoindre à terme la communauté internationale comme ils l'ont d'ailleurs fait pour le LHC.

M. Roger BALIAN ayant noté que la fusion a une vocation applicative qui peut en faire un enjeu politique, au contraire du CERN dont la vocation est clairement la recherche fondamentale, M. René PELLAT a regretté que les recherches sur la fusion n'aient pas pour cadre une organisation internationale comparable.

Il convient toutefois de ne pas changer de contexte au moment de la décision sur ITER.

EURATOM apporte en Europe une continuité budgétaire avantageuse qu'il ne faut surtout pas détruire. Prenant appui sur la présidence française, la possibilité d'un accord international est actuellement explorée, avant de passer à l'étape de l'action auprès de la Commission et du Parlement européen.

Le Commissaire à la recherche, M. Busquin, semble favorable mais traverse une passe délicate notamment dans ses relations avec le Parlement européen. La présidence suédoise qui prendra la suite de la française, sera moins favorable que la période actuelle pour faire avancer les choses, au moment où vont commencer les discussions sur le 6ème PCRD.

*

Après cette présentation générale, M. Jean JACQUINOT, Directeur de recherche a résumé les progrès accomplis dans les recherches sur la fusion magnétique.

L'une des caractéristiques des recherches sur la fusion est qu'il est indispensable de valider la théorie par des expériences en vraie grandeur, les plasmas étant dominés par des effets collectifs non-linéaires.

Il apparaît clairement que les conditions physiques d'un réacteur de fusion ne peuvent être obtenues que dans un appareil de grande taille succédant au JET. Cette condition est rendue nécessaire par la qualité recherchée du confinement, qualité qui augmente rapidement avec la taille de l'appareil.

Par rapport à l'ensemble des machines servant dans le monde à l'étude de la fusion, Tore Supra est la seule grande installation à mettre en _uvre la technologie des aimants supraconducteurs. Dans la répartition de facto des sujets de recherche relatifs à la fusion, Tore Supra s'est spécialisé dans l'étude des temps longs et détient le record de l'énergie extraite. La modernisation en cours, qui s'achèvera en 2008, a pour objectif l'accès à la physique et à la technologie des décharges performantes et de longue durée, c'est-à-dire de 1000 secondes environ. En tout état de cause, on peut considérer qu'en 2004, le programme Tore Supra sera arrivé à maturité.

M. Michel CHATELIER, adjoint du chef du département de recherches sur la fusion contrôlée au CEA, a complété la présentation précédente sur différents points.

Le tokamak Tore Supra de Cadarache est issu du regroupement des équipes travaillant sur les machines TFR (tokamak) de Fontenay-aux-Roses, Petula (tokamak) et Wega (stellarator) de Grenoble. La construction de Tore Supra a duré 7 ans, le premier plasma ayant été obtenu en 1988. Elle a conduit à l'obtention de plasma de 20 m3 sur des durées de deux minutes, à comparer à ceux de 1 m3 des machines de la génération précédente, le JET avec ses 100 m3 correspondant lui aussi à un saut quantitatif important mais sur des durées courtes.

Tore Supra a exercé un effet d'entraînement dans le domaine du magnétisme et de la cryogénie. C'est pour cette installation qu'ont été développés des aimants supraconducteurs, dont la technologie a ensuite été utilisée au CERN, ainsi que des techniques cryogéniques appliquées ultérieurement au domaine médical.

Le budget annuel de 1999 de Tore Supra a représenté 31 millions d'euros, dont 18 de frais de personnel, 9 de frais de fonctionnement et 4 d'investissement. Le personnel attaché à Tore Supra représente 356 personnes, dont 282 appartenant au CEA, 24 présents dans le cadre d'EURATOM et 16 thésards.

*

M. Jérôme PAMELA, Responsable du JET, a ensuite présenté l'organisation des recherches sur la fusion en Europe puis le programme et les réalisations du JET (Joint European Torus), le tokamak le plus performant au monde, installé en Grande-Bretagne, à Culham près d'Oxford.

Sur un plan général, les activités de l'Union européenne dans le domaine de la fusion sont coordonnées dans le cadre du traité EURATOM. Jusqu'à la fin du 4ème PCRD, les recherches correspondantes étaient conduites dans le cadre d'un programme spécifique fusion, la direction fusion de la DGXII assurant la coordination pour le compte d'EURATOM. La gestion du JET était assurée par le JET Joint Undertaking. Cette organisation a récemment changé.

D'une part le JET Joint Undertaking a été arrêté comme prévu le 31 décembre 1999.

D'autre part, dans le cadre du 5ème PCRD, le programme de recherche sur la fusion fait l'objet d'une " action clé fusion ". Afin d'être alignée sur l'organisation mise en place pour le reste des activités du PCRD, la gestion a été partagée entre plusieurs directions de la DGXII Recherche, ce qu'il convient de déplorer.

L'action clé fusion est mise en _uvre dans le cadre des activités EURATOM, sur la base de recommandations du Conseil consultatif EURATOM-Fusion (CCE-Fu).

Les recherches sont assurées par les " Associations ", organismes nationaux contractuellement associés à l'EURATOM, qui bénéficient à cette fin de financements à hauteur de 25 % du total par EURATOM et de 45 % s'il s'agit d'actions à support préférentiel, c'est-à-dire d'actions faisant l'objet d'une évaluation préalable.

Deux des principaux objectifs de l'action clé fusion du 5ème PCRD sont la pleine exploitation du JET et la consolidation des bases scientifiques d'ITER.

La plupart des activités transverses, telle que l'utilisation du JET, le programme des technologies de la fusion et la participation européenne au projet ITER sont gérées dans le cadre de l'accord EFDA (European Fusion Development Agreement), signé par l'EURATOM représenté par la Commission et plus de 20 organismes de recherche des pays membres de l'Union et d'autres pays européens. Ce regroupement d'activités dans le cadre de l'EFDA a permis de renforcer la coordination des recherches.

Les activités EDFA sont mises en place dans le cadre de contrats passés entre les laboratoires et la Commission.

La décision de construction du JET fut prise en 1978 par le Conseil des ministres de la CEE, sa construction en Grande-Bretagne durant de 1978 à 1983, date à laquelle le premier plasma a été obtenu. Seul instrument à fonctionner avec un mélange deutérium-tritium, le JET a une capacité unique et joue un rôle clé dans la préparation d'ITER.

Le Jet présentant encore un fort potentiel, son utilisation a été prolongée jusqu'à la fin 2002 et est envisagée jusqu'à la fin du 6ème PCRD. Un investissement supplémentaire a été proposé dans ce sens, consistant dans l'augmentation de puissance de chauffage du plasma, afin d'affiner les scénarios de fonctionnement d'ITER, de finaliser l'ingénierie de différents dispositifs essentiels de ce dernier et de progresser dans la recherche fondamentale sur la physique des plasmas.

Sur un plan juridique, le JET n'est plus une entité légale depuis le 1er janvier 2000, mais une machine utilisée dans un cadre fortement coopératif. A ce titre, les laboratoires signataires de l'EFDA envoient leurs équipes au JET participer à des campagnes expérimentales de quelques semaines, ces équipes revenant ensuite dans leur laboratoire d'origine pour analyser les résultats.

Dans cette nouvelle structure, l'opérateur de la machine est l'UKAEA, l'équivalent britannique du CEA, dans le cadre d'un accord spécifique avec la Commission, tandis que les personnels, qu'ils soient mis à disposition pour plusieurs années ou visiteurs de courte durée, gardent leur statut d'origine. Les taux d'indemnisation des personnels en mission à Culham sont les mêmes, quelle que soit leur nationalité d'origine.

Le budget du JET s'est élevé à 77 millions d'euros en 1999, assumés à 80 % par EURATOM, 10 % par l'UKAEA et 10 % par les organismes de recherche utilisateurs. Il est de 67,5 millions d'euros en 2000, financé à 73 % par EURATOM, à 21 % par un Joint Fund que se partagent à parts égales l'UKAEA et les Associations, et à 6 % par les organismes de recherche. La participation directe du CEA au Joint Fund représente 1,4 million d'euros.

L'une des difficultés actuelles provient de l'établissement du budget en euros, alors que les dépenses sont réglées pour la plupart en livre sterling, une monnaie qui s'est valorisée de 15 % par rapport à l'euro depuis l'établissement du budget pour la période 2000-2002.

Les retombées du JET sont considérables pour le Royaume Uni. L'ensemble des contrats passés entre 1984 et 1999 sous le JET Joint Undertaking, a représenté 1,2 milliard d'euros. Le Royaume Uni a bénéficié de 59 % du total, l'Allemagne de 15,8 % et la France de 8 %. S'agissant des seuls contrats de haute technologie, qui ont représenté 540 millions d'euros, soit 45 % du total, le Royaume Uni a bénéficié de 29 % du total, l'Allemagne de 27 % et la France de 15 %.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est interrogé sur le souhait prévisible du Royaume Uni de voir le JET pérennisé en tant que tel ou de le voir remplacé sur place par ITER, compte tenu des retombées très importantes dont l'économie locale bénéficie.

En tout état de cause, pour M. Jean JACQUINOT, il est bien clair qu'en cas de retard sur la poursuite d'ITER, le JET continuera d'être exploité.

M. Jérôme PAMELA a jugé raisonnable que l'exploitation du JET continue jusqu'à la production du premier plasma d'ITER. Au demeurant, pour le moment, rien n'indique qu'il existe une volonté politique de la part du Royaume Uni de réclamer l'implantation d'ITER sur son sol.

Pour sa part, M. Robert AYMAR a précisé qu'en 1978, au moment du choix du site d'Oxford pour le JET, le Royaume Uni s'est engagé par écrit à ne pas s'opposer à ce que l'équipement qui en prendrait la suite soit construit dans un autre pays.

*

M. Robert AYMAR, Directeur d'ITER, a rappelé qu'à la suite d'une proposition faite en 1986 par M. GORBATCHEV aux présidents MITTERRAND et REAGAN, une étude a été réalisée de 1988 à 1990 sur les perspectives de la fusion, qui a conclu à une communauté de vue sur la stratégie à suivre. Celle-ci repose sur la construction d'un appareil unique, de dimensions et de performances largement supérieures aux machines en fonctionnement. Cette machine intégrerait les différents objectifs physiques et techniques et permettrait d'atteindre un plasma en combustion, dans lequel la puissance dissipée dans le plasma par la réaction de fusion, soit 1/5ème de la puissance totale, maintient la température du milieu.

C'est pourquoi un accord international a été signé en 1992 entre l'Europe, les Etats-Unis, le Japon et la Russie afin de démontrer en commun la faisabilité scientifique et technologique de l'utilisation civile de l'énergie de fusion. Le même accord définit les objectifs détaillés, l'organisation et les moyens pour établir en six ans au plus le design détaillé et complet d'ITER.

Le projet, qui n'a pas de personnalité légale, est conduit par un Conseil et un Directeur, les contributions des partenaires étant égales et les bénéfices potentiels entièrement partagés.

Les six années d'études ont coûté 800 millions d'euros, essentiellement pour la recherche et le développement en technologie, les dépenses de recherche en physique n'étant pas comptabilisées. Elles ont été menées par une équipe centrale de 150 scientifiques répartis sur les 3 sites de Garching (Allemagne), San Diego (Etats-Unis) et Naka (Japon), et par des équipes nationales de chacun des quatre partenaires comprenant au total un nombre identique de chercheurs, soit un montant total de 2200 hommes x années.

Elles se sont conclues par la définition détaillée du projet ITER-FDA, dont le coût ressort à 6 milliards de dollars, égal au plafond fixé six années plus tôt.

En 1998, au moment de la décision et bien que le devis initial ait été respecté, une révision à la baisse des objectifs a semblé indispensable aux quatre partenaires, en raison des difficultés économiques et financières rencontrées en Europe et au Japon, de contraintes budgétaires accrues aux Etats-Unis et de la crise économique russe.

A la faveur de la reprise des réflexions, il est apparu clairement que la stratégie poursuivie visant l'obtention d'un plasma en combustion est une nécessité. Toutefois le nouvel objectif pour le gain en puissance a été fixé à 10 ou plus, le coût de la nouvelle machine, intitulée ITER-FEAT, devant être très inférieur, notamment grâce à la réduction de volume d'un facteur deux.

C'est alors que, malgré la révision à la baisse des objectifs, les Etats-Unis se sont retirés du projet. Ce retrait en 1999 ne se produit pas pour des raisons scientifiques mais politiques, du fait de conflits récurrents entre le Congrès et le Department of Energy. Pour autant, il ne fait pas de doute que les Etats-Unis réintègreront ITER, dès que la décision de construction sera prise.

En l'état actuel des choses, la Commission européenne ne semble pas avoir les atouts pour participer à la négociation autour d'ITER. Il paraît capital que les pays de l'Union fasse efficacement pression sur la Commission pour qu'elle soit plus active. Le rôle de la Présidence française est à cet égard déterminant dans les négociations, tant pour le lancement du projet que pour le choix du site.

*

Pour M. Dominique ESCANDE, Directeur de recherche au CNRS, la maîtrise de la fusion contrôlée passe sans aucun doute par la recherche fondamentale. Si elle se fonde sur des résultats incontestables, la proposition d'une nouvelle machine constitue néanmoins un pari.

La conception d'un réacteur à fusion de type tokamak suppose résolus différents problèmes de confinement, de stabilité magnétohydrodynamique, de modélisation du bord du plasma et du divertor utilisé pour évacuer l'énergie produite, de physique des particules rapides ou des chauffages additionnels ou bien encore des diagnostics, ainsi que la mise au point de scénarios de fonctionnement et de contrôle du plasma.

La réalisation d'ITER permettrait incontestablement d'avancer sur tous les problèmes cités, en comparant les performances réelles et les performances anticipées.

Au demeurant, il est indispensable d'aborder l'étape où l'énergie apportée au plasma vient essentiellement des particules alpha. Toutefois, le changement de taille du plasma et le chauffage par les particules alpha ont des conséquences qui ne sont que partiellement prédictibles.

Au delà d'ITER, peut-on imaginer quel pourrait être le réacteur industriel ? Il est à noter, à cet égard, qu'il existe des solutions alternatives de confinement magnétique torique, avec le stellarator ou le " reversed field pinch ".

Mais l'essentiel est bien d'aborder dans les prochaines années l'étude des plasmas dominés par les réactions de fusion. A cet égard, ITER-FEAT est le projet le plus avancé. Les thèmes de recherche correspondants suscitent des contributions croissantes du CNRS et des universités.

*

Sur la base des informations données sur Tore Supra, sur le JET, le projet ITER, un débat s'est engagé sur la finalité réelle d'ITER, à l'initiative de M. Jochen SCHNEIDER.

Cette installation doit-elle apporter la démonstration scientifique de la fusion contrôlée ou bien constituer une étape décisive relative à la faisabilité de réacteurs industriels ? Et s'il s'agit de recherche fondamentale, quelles sont les probabilités de réussite ?

M. René PELLAT a indiqué qu'il s'agit bien d'une démonstration scientifique à apporter avec ITER, démonstration qui constitue en tout état de cause un défi " honorable ", assorti d'un risque scientifique " normal ".

M. Jean JACQUINOT, pour justifier les recherches sur la fusion, a cité les besoins en énergie, ainsi que la nécessité de préparer une nouvelle option énergétique. Le coût de l'électricité produite grâce à la fusion devrait néanmoins être supérieur à celui du kWh nucléaire. Il a remarqué que les coûts externes sur la santé et l'environnement sont faibles, ce qui en fait une source d'énergie compétitive quand ces contraintes sont prises en considération.

Pour M. Jochen SCHNEIDER, il semble donc qu'en plus d'une question de recherche fondamentale d'intérêt scientifique, il s'agit de préparer la mise au point une nouvelle source d'énergie. Au reste, il ressort clairement des propos de M. René PELLAT que si la démonstration scientifique d'ITER n'est pas concluante, il sera mis fin au projet.

Pour M. Robert AYMAR, le projet ITER est incontestablement justifié par l'objectif d'apporter une démonstration scientifique. Il est clair que les responsables scientifiques des recherches sur la fusion n'ont pas en tête la possibilité d'un échec mais s'intéressent plutôt la suite à donner à ITER. Il existe une continuité d'ITER avec les machines précédentes, mais ITER n'ouvrira pas, à lui seul, la voie à un réacteur électrogène, même en cas de succès.

Des tests complémentaires seront nécessaires, de même qu'une ingénierie de développement.

Mme Claudine LAURENT s'est demandée si un tel projet serait proposé au cas où il n'aurait pas pour objectif la production d'électricité.

M. Jean JACQUINOT a répondu par la négative.

M. Roger BALIAN a estimé en conséquence qu'il s'agit d'un projet de nature scientifique mais de motivation non scientifique, qui n'appartient pas en tout état de cause au domaine de la science fondamentale.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est alors interrogé sur la capacité des spécialistes de la fusion à se donner des obligations de résultat et à atteindre leurs objectifs.

Selon M. Robert AYMAR, les objectifs annoncés ont été atteints par le passé.

Certes, les scientifiques américains s'étaient imprudemment fixé comme objectif en 1975 l'obtention d'un gain en énergie de 1 (facteur Q = puissance de fusion / puissance fournie), qu'ils n'ont pas pu atteindre avec l'appareil TFTR.

Pour leur part, les chercheurs européens ne l'ont pas fait, notamment pour le JET à qui n'était assigné qu'un but qualitatif.

Mais les paramètres techniques de fonctionnement qui avaient été fixés au départ ont tous été atteints.

Selon M. Robert AYMAR, aujourd'hui l'objectif Q=10 qui est explicitement annoncé pour ITER, peut être considéré en toute confiance car de nouvelles connaissances ont été acquises. Diverses expériences ont été réalisées pour étudier les paramètres d'ITER-FEAT. Pour cette installation, il s'agira seulement d'extrapoler la taille, une opération qui comporte des incertitudes mais dont les aléas pourront être surmontés.

La discussion a ensuite porté sur les objectifs techniques et les défis technologiques à relever pour la mise au point d'ITER.

Ainsi que l'a souligné M. Jérôme PAMELA, le projet initial d'ITER, intitulé ITER-FDR, avait pour but de parvenir à l'ignition. Le coût total de la machine a été jugé, par de nombreuses parties prenantes et en premier lieu par les Etats-Unis, comme trop élevé. Le projet actuel, intitulé ITER-FEAT, possède des caractéristiques techniques et des ambitions revues à la baisse, ce qui se traduit par un coût égal à 56 % du coût d'ITER-FDR.

Alors qu'il s'agissait de parvenir à un gain en énergie infini du fait de l'ignition, l'objectif est de parvenir avec une probabilité très forte à un gain de 10, ainsi que l'a précisé M. Robert AYMAR.

En réponse à une interrogation de M. René TRÉGOUËT, Sénateur, rapporteur, sur la possibilité de moderniser le JET et d'augmenter ses performances, M. Jérôme PAMELA a indiqué qu'il existe une limite absolue de confinement pour cette machine et une limite indépassable de performance.

L'un des paramètres essentiels pour se rapprocher du régime attendu sur un réacteur électrogène est le taux de chauffage du plasma par les particules alpha formées lors de la réaction de fusion. L'ignition correspond à 100 % de chauffage alpha et constitue un objectif un peu chimérique. Un réacteur devrait fonctionner avec environ 90 % du chauffage provenant des alphas. L'objectif fixé pour ITER-FEAT est de parvenir au moins à 67 % de chauffage alpha et ce dans des conditions stationnaires. Or le mieux que l'on pourrait atteindre avec le JET serait de 15 % voire de 20 %, mais dans des conditions très transitoires.

M. Gilles COHEN-TANNOUDJI, membre du groupe de travail, a remarqué que le magnétisme des hauts champs constitue d'une part une technique instrumentale d'une importance décisive pour de nombreuses disciplines y compris pour la fusion et d'autre part un domaine dans lequel la France a des positions très fortes.

M. René PELLAT a fait le même constat pour la cryogénie.

En réalité, la fusion contrôlée comporte des défis technologiques à relever qui intéressent l'industrie et exerceront un effet d'entraînement.

Selon M. Jean JACQUINOT, il s'agit avec ITER de gagner un facteur 6 environ sur le produit densité x temps de confinement x température, et de faire en sorte que l'énergie dégagée par l'hélium formé lors de la réaction de fusion soit utilisée pour maintenir le plasma en l'état. ITER recourra à la technologie des aimants supraconducteurs.

Pour autant, les retombées technologiques de la fusion ne sauraient justifier la recherche elle-même.

Par ailleurs, le rôle de l'informatique et des réseaux de télécommunications pour l'analyse et le transfert des données expérimentales sera essentiel, comme c'est déjà le cas au JET, au CERN et pour la mise au point du projet ITER.

*

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, sur les déchets et les autres risques générés par la fusion, M. René PELLAT a souligné qu'en l'espèce, il ne s'agit pas de construire un parc de réacteurs producteurs d'électricité, mais seulement de résoudre une question scientifique.

Si dans les années 1990, la communauté de la fusion a pu entretenir une certaine ambiguïté sur l'application industrielle de ses travaux, il est clair aujourd'hui qu'en cas de décision positive sur sa poursuite, ITER ne donnerait ses premiers résultats que vers 2010-2020 et qu'après ajustements et progrès divers, la démonstration complète de la faisabilité de la fusion contrôlée ne serait apportée que vers 2030.

Le passage éventuel à l'échelle industrielle nécessitera ensuite que soient résolus des problèmes techniques, notamment de matériaux, ainsi que soit obtenue une acceptabilité sociale de cette filière.

Au demeurant, si les déchets radioactifs issus des réacteurs électronucléaires comportent certains éléments d'une durée de demi-vie de plusieurs milliers d'années, le tritium utilisé comme combustible dans la fusion a une période d'une dizaine d'années. Au final, seules les impuretés activées par les neutrons produits en même temps que l'hélium lors de la réaction peuvent présenter une radioactivité gênante.

Ceci laisse penser que les problèmes de déchets seraient beaucoup moins difficiles à résoudre avec la fusion en cas d'application industrielle qu'avec la fission.

M. Jean JACQUINOT a souligné que le réacteur ITER ne produira pas de déchets radioactifs de haute activité et à vie longue. La décroissance des matériaux radioactifs devrait permettre de les recycler en partie après 100 ans.

M. Robert AYMAR, Directeur d'ITER, a explicité les autres avantages de la fusion, d'une part la faible quantité de matière fournie pour la réaction, d'autre la sûreté intrinsèque passive découlant de l'impossibilité de tout emballement de la réaction et de son arrêt naturel automatique en présence de toute perturbation extérieure non contrôlée et enfin la possibilité de minimiser les déchets radioactifs formés en choisissant avec soin les matériaux utilisés dans le réacteur.

Au demeurant, M. Jean JACQUINOT a souligné qu'en cas d'accident, les 300 MégaJoule du plasma se dissiperaient sur les parois de la machine, entraînant seulement un endommagement partiel de celles-ci et en aucun cas une catastrophe.

Par ailleurs, selon M. Robert AYMAR, la dangerosité des champs magnétiques est très faible et selon M. Jean JACQUINOT, on ne connaît pas d'accident dû à des champs magnétiques.

Il est à noter enfin que les recherches sur la fusion par confinement magnétique n'ont aucune application militaire possible, les densités d'énergie étant très faibles au contraire de celles que les armes requièrent.

*

La discussion a ensuite porté sur l'ampleur de la communauté des spécialistes de la fusion.

M. Roger BALIAN, membre du groupe de travail, a souligné la difficulté de qualifier de strictement scientifiques les recherches conduites sur la fusion, tant il est vrai que la motivation de nombreux physiciens travaillant dans ce domaine est d'en trouver des applications. Au reste, la fusion a souffert d'annonces prématurées, dont M. René TRÉGOUËT, Sénateur, rapporteur, a souligné que ce domaine n'avait pas l'exclusivité, compte tenu des imbrications croissantes de la science et de la politique.

M. René PELLAT a estimé que la fusion, après avoir attiré de très grands noms de la recherche, souffre d'une désaffection relative imméritée, alors que ce domaine a des points communs avec nombre d'autres disciplines, comme l'astrophysique ou les techniques de simulation.

Pour l'heure, la communauté scientifique de la fusion compte de 2000 à 3000 chercheurs dans l'Union européenne, un peu plus de 3000 aux Etats-Unis, de 1500 à 2000 au Japon, à quoi il faut rajouter les scientifiques russes et chinois du domaine.

Cette communauté comporte deux ou trois " chefs d'orchestre " dans le monde, dont le Haut-commissaire à l'énergie atomique.

*

Des précisions ont ensuite été apportées sur les discussions en cours dans le domaine de la fusion.

M. Robert AYMAR a indiqué qu'il n'existe pas de coordination technique directe des recherches sur la fusion assurée par l'Union européenne, l'intervention de celle-ci se limitant à un financement par EURATOM.

Il existe toutefois un Comité Consultatif sur la fusion (CCE-Fu), présidé par M. René PELLAT, qui réunit les dirigeants techniques et administratifs de la recherche dans ce domaine. C'est le comité EFDA (European Fusion Development Association) qui traite des aspects techniques, le JET étant d'ailleurs géré dans ce cadre. Par ailleurs, il existe des contrats d'association de laboratoires avec EURATOM. On estime que l'apport de l'Union européenne au financement des recherches sur la fusion atteint 40 % du total en Europe.

Il s'agit là sans aucun doute d'un atout pour l'Europe car la coordination n'est pas aussi importante dans le monde. L'activité d'ingénierie conduite pour le projet ITER est réalisée sous le patronage de l'AIEA (Agence internationale pour l'énergie atomique).

Le Japon qui devrait regrouper en une seule organisation les deux qui conduisent des recherches dans ce domaine, manifeste un grand intérêt pour ITER. Il en est de même de la part de la Russie.

*

L'organisation et le financement des efforts à fournir ont ensuite été discutés.

M. René PELLAT a souligné qu'il est indispensable de considérer le très long terme comme l'horizon de temps pertinent pour les recherches sur la fusion et de ne pas se tromper d'échéance. L'important aujourd'hui est de faire la démonstration scientifique que la fusion contrôlée est possible. Si cet objectif semble modeste comparé aux annonces souvent faites dans le passé, en revanche il faut rassembler des moyens importants et les concentrer sur une même installation. En tout état de cause, les recherches actuelles disséminées sur plusieurs installations ne pourraient en aucun cas fournir la preuve de la faisabilité.

Peut-on aujourd'hui être optimiste sur l'issue de la démonstration à apporter, a demandé M. Jochen SCHNEIDER ?

M. René PELLAT a déclaré qu'il est en tout état de cause " confiant ".

M. Jochen SCHNEIDER s'est ensuite interrogé sur la meilleure solution pour organiser les recherches sur la fusion, à savoir la création d'une organisation internationale comme le CERN ou bien le simple renforcement du réseau des institutions existantes.

M. René PELLAT a indiqué que les dépenses actuelles pour la fusion sont déjà importantes. Dans l'Union européenne, EURATOM consacre environ 200 millions d'euros par an, à quoi il faut ajouter les 250 millions d'euros annuels de salaires dépensés directement par les pays membres, soit un total de 450 millions d'euros. Les sommes consacrées annuellement à ces recherches atteignent le même montant au Japon et environ 250 millions de dollars aux Etats-Unis. Le total des dépenses atteint donc environ 1,2 milliard d'euros par an, ce qui devrait rendre possible la construction d'ITER dont le devis actuel est de 3,5 milliards d'euros, en parallèle avec la fermeture progressive de certaines installations actuelles.

M. Jean JACQUINOT a remarqué que, depuis 1984, quatre machines ont été arrêtées. Les machines actuellement en service, au demeurant spécialisées, sont dans une phase de maturité.

Si le projet ITER est effectivement lancé, différentes expériences ou installations seront progressivement fermées. Le JET devrait être prolongé pendant la période de test et de montée en puissance d'ITER, compte tenu de son utilisation par un ensemble de pays européens.

Moyennant ces ajustements, le fonctionnement d'ITER-FEAT serait compatible avec les sommes actuellement dépensées pour la fusion. En revanche, il faudra bien disposer d'un budget supplémentaire pour sa construction.

M. Robert AYMAR a fait remarquer que l'investissement de 3,5 milliards d'euros serait étalé sur une période de 10 ans, la montant de 350 millions d'euros ne paraissant pas hors de portée de l'ensemble des pays partenaires, Europe, Etats-Unis, Russie et Japon.

Pour le partenaire hôte qui devrait prendre à sa charge 25 % du coût en plus d'une contribution aux 75 % restant à partager à parts égales entre les autres partenaires, il y aurait une période délicate correspondant à une avance en trésorerie. Toutefois, les commandes à l'industrie nationale puis, après l'entrée en service, les revenus provenant de l'exploitation, viendraient compenser la charge initiale. En tout état de cause, il faut souligner que, dans le cas de la candidature de Cadarache, candidat de l'Europe, c'est toute l'Europe et non pas la France seule qui aurait à assurer le financement de la part européenne de la construction.

A cet égard, M. Jean JACQUINOT et M. Michel SPIRO ont souligné le rôle structurant d'un très grand équipement pour une discipline et pour les laboratoires qui l'utilisent. M. René PELLAT a cité l'exemple de l'ESRF qui a restructuré les laboratoires et d'Ariane qui a restructuré l'industrie et les moyens d'essai. Il a estimé que si le projet ITER se réalise, conformément aux v_ux de la communauté mondiale de la fusion, alors l'ensemble de la discipline se restructurera autour de lui.

*

La localisation d'ITER a ensuite été discutée à la demande de M. René TRÉGOUËT, Sénateur, rapporteur, qui s'est interrogé sur les critères de choix de l'un des trois pays candidats et l'importance du critère du financement.

M. René PELLAT a fait connaître sa satisfaction que la France propose Cadarache. Le Canada est un bon candidat du fait de ses apports en nature potentiels, à savoir une électricité bon marché et une offre de tritium, mais il souffre d'une absence de compétences dans le domaine. Le Japon présente plusieurs atouts, dont l'existence de trois sites potentiels, une industrie puissante, un consensus sur l'importance de la fusion et des financements importants. Mais la longueur des déplacements depuis les Etats-Unis et l'Europe constitue un handicap presque décisif. Au total, si l'Europe est " allante " sur le projet ITER, alors le site de Cadarache devrait avoir de bonnes chances de l'emporter.

M. Robert AYMAR, Directeur du projet ITER, a rendu compte des discussions en cours sur les mécanismes de financement. Si le coût global d'ITER est approximativement connu, soit 3,5 milliards d'euros, en revanche il n'existe pas pour le moment d'accord pour le mode de financement.

Deux points sont toutefois mis en avant dans les discussions. D'une part, les contributions en nature devraient être possibles de la part des pays membres. D'autre part, le pays hôte devrait assurer une contribution supérieure de 20 à 25 % à celle des autres. Au final, 75% du coût total devrait être partagé équitablement entre les pays membres et 25 % pris en charge à titre de contribution supplémentaire par le pays hôte pour compenser les retombées dont il bénéficiera.

Ainsi un pays hôte " non scientifique " devrait assumer 25 % du coût total. Un pays " scientifique " aurait à sa charge la somme de ces 25 % et du pourcentage correspondant à sa part de pays membre. En considérant Cadarache comme site européen, comme on doit le faire, le coût d'ITER serait supporté à 50 % environ par l'Europe. Mais le coût d'ITER pour l'Europe n'atteindrait que 25 % du total si la machine était installée ailleurs, bien que n'ayant pas les avantages de l'hôte.

Pour financer la contribution européenne à la réalisation d'ITER, il conviendra certainement d'ajouter à la contribution du budget EURATOM de l'Union européenne, une contribution supplémentaire directe des pays constitutifs de l'Union, et en particulier de la France si le site de Cadarache est retenu. Les montants relatifs n'ont pas encore été discutés mais l'expérience antérieure du JET pourrait servir de base.

En tout état de cause, il ne faut pas mésestimer le fait qu'une contribution financière à très long terme importante sera nécessaire.

A cet égard, M. René PELLAT a estimé que le soutien de l'Office parlementaire d'évaluation des choix scientifiques et technologiques représente un élément essentiel dans la candidature de la France, telle qu'elle est actuellement avancée.

M. Jean JACQUINOT a fait part du fort intérêt de la région Provence-Alpes-Côte d'Azur pour l'installation d'ITER à Cadarache, intérêt qui s'est traduit récemment par une visite d'un Vice-président de celle-ci. La municipalité est également très favorable. Le centre du CEA possède encore de vastes terrains libres. L'acceptation par la population devrait être acquise au vu de la bonne coexistence de celle-ci avec les dix-huit installations nucléaires de base existantes, deux autres étant en cours d'instruction.

Au reste, ITER, dont les risques de criticité sont nuls et les rejets tritiés très réduits, ne devrait pas nécessiter d'augmentation de l'autorisation de rejets tritiés du site. En tout état de cause, le plan particulier d'intervention ne devrait pas être modifié.

*

Après avoir remercié les participants, M. Christian CUVILLIEZ, Député, Rapporteur a invité M. Guy LAVAL, qui a accepté, à présenter son exposé sur les applications civiles du Laser MegaJoule dans le domaine de la fusion avec confinement inertiel, lors de l'audition ultérieure du 4 octobre 2000.

9. Fusion avec confinement inertiel, physique gravitationnelle et géologie sous-marine - mercredi 4 octobre 2000

Laser MégaJoule

· M. Guy LAVAL, Directeur de recherche CNRS, Conseiller du Haut-commissaire à l'énergie atomique

Projet VIRGO (Physique gravitationnelle)

· M. Alain BRILLET, OCA - co-Directeur du projet VIRGO

· M. Claude BOCCARA, Directeur de recherche, Ecole supérieure de physique et chimie industrielles de Paris (ESPCI)

· M. Michel DAVIER, Professeur à l'Université de Paris-Sud (LAL), Membre de l'Académie des Sciences

· M. Jacques DUPONT-ROC, Directeur scientifique adjoint- CNRS - Département Sciences Physiques et Mathématiques

· M. Daniel ENARD, OCA - Directeur technique du projet VIRGO

· Mme Elisabeth GIACOBINO, Directrice de recherche, Laboratoire Kastler-Brossel, Université Pierre et Marie Curie

· M. Jean-Marie MACKOWSKI, INPL- SMA-VIRGO

· M. François RICHARD, Directeur du Laboratoire de l'accélérateur linéaire (LAL)

· M. Michel YVERT, Laboratoire d'Annecy-le-Vieux de Physique des Particules (LAPP)

OPD (Ocean Drilling Program)

· M. John LUDDEN, Directeur de recherche, CRPG-CNRS, Nancy

· M. Philippe PÉZARD, Directeur de recherche, Insteem-CNRS

· M. Philippe VIDAL, Directeur adjoint INSU-CNRS

*

Après avoir accueilli et remercié les participants pour leur présence, M. Christian CUVILLIEZ, Député, rapporteur, a rappelé l'objet du rapport et les réflexions du groupe de travail, qui portent notamment sur les éventuelles différentes catégories de TGE à créer, sur la nécessité, à discuter, de rétablir un comité d'instruction des projets et sur les conditions du développement de coopérations européennes dans ce domaine.

La parole a ensuite été donnée à M. Guy LAVAL pour une présentation des applications civiles du Laser MegaJoule dans le domaine de la fusion avec confinement inertiel.

*

M. Guy LAVAL, Directeur de recherche au CNRS, Conseiller du Haut-commissaire à l'énergie atomique, a exposé les principes d'une utilisation du laser MegaJoule pour des recherches civiles relatives à la fusion contrôlée avec confinement inertiel ainsi que les conditions de mise en place d'un tel programme.

Grâce à ses 240 faisceaux, le Laser MegaJoule, qui sera opérationnel en 2008, pourra déposer une énergie de 1,8 MJ en quelques milliardièmes de seconde sur une cible centimétrique, recréant ainsi à une échelle réduite les conditions de pression et de température de la fusion. L'installation correspondante, au Cesta de Bordeaux, comprendra deux bâtiments principaux, l'un pour les équipements principaux et l'autre pour les expériences de validation de la chaîne laser qui se dérouleront pendant deux années à partir de 2001. Cette chaîne laser de validation, qui va entrer en fonctionnement dans les prochains mois, sera dotée du laser le plus puissant au monde, avant l'entrée en service du laser MegaJoule proprement dit et de son équivalent aux Etats-Unis, le NIF (National Ignition Facility).

La construction et l'utilisation du laser MegaJoule répondent à des objectifs militaires liés à la simulation des armes nucléaires. Il est prévu dans ce cadre qu'une partie des 600 tirs annuels soient utilisés pour l'étude de la fusion par confinement inertiel. L'absorption du rayonnement laser par une cible de deutérium et de tritium conduira à des températures de plusieurs millions de degrés et des pressions de plusieurs millions de bars, d'où la compression brutale des matériaux fusibles et le déclenchement de la fusion nucléaire, le temps de réaction étant limité par le temps de dégradation de la cible, lui-même fonction de l'inertie de la matière. Le gain attendu entre l'énergie fournie, soit 2 MJ, et l'énergie de fusion, est d'un facteur 10, le tout pour des quantités de matière très réduites.

La fusion par confinement inertiel ne fait à l'heure actuelle l'objet d'aucun programme financé de recherche civile, sauf aux Etats-Unis, ce qui a pour conséquence un retard important de cette voie de recherche par rapport à la fusion par confinement magnétique, la seule explorée dans bien des cas et en particulier au CEA.

Deux raisons sont à invoquer, l'une d'ordre politique dans la mesure où la physique correspondante est proche de celle des armes nucléaires, l'autre d'ordre technique et économique, puisque le rendement des lasers est faible, de l'ordre de 1 %, ce qui a pour conséquence que, même avec un gain d'un facteur 10, l'énergie récupérée sera très inférieure à celle tirée du réseau électrique.

Il faut rappeler également que d'autres voies comme les faisceaux d'ions lourds, mise en oeuvre en Allemagne à Darmstadt, ou la striction magnétique explorée aux Etats-Unis, peuvent être utilisées pour créer les conditions de température et de pression extrêmes que nécessite la fusion.

Au delà des études sur la fusion proprement dite, une installation comme le Laser MegaJoule présente un intérêt considérable pour la physique fondamentale, au regard de questions comme la dynamique des implosions, l'étude des interactions rayonnement-matière et les équations d'état. Pour d'autres disciplines comme l'astrophysique, un tel dispositif permet la simulation d'événements violents comme l'explosion d'étoiles super novae. Les conditions technologiques de mise en _uvre d'un tel équipement étant très complexes, les recherches correspondantes sont d'un intérêt majeur pour d'autres projets comme par exemple le projet VIRGO de détection des ondes gravitationnelles.

De fait les équipes de recherche intéressées par l'utilisation du Laser MegaJoule sont très nombreuses, situées principalement à l'Ecole Polytechnique, à Orsay, au CEA ainsi qu'en Europe.

Si le ministère de la Défense souhaite que les installations du Laser MegaJoule soient utiles à la recherche civile, ce qui est un atout pour un grand nombre de chercheurs intéressés par les lasers de puissance, il reste que l'organisation pratique pour l'accès aux expériences et la délimitation du périmètre classé " secret défense " s'avèrent complexes à mettre au point. Un banc d'essai est offert à cet égard par la première ligne de validation de la chaîne laser. Il importe de mettre au point cette organisation, qui passe avant tout par la création d'une structure commune CEA-CNRS-Universités chargée de l'animation et de la coordination des recherches civiles conduites sur le Laser MegaJoule.

Dans la discussion qui a suivi cette présentation, M. Guy LAVAL a précisé, à la demande de Mme Claudine LAURENT, que le nombre de chercheurs, dans le domaine civil, concernés par les applications du Laser MegaJoule à la fusion avec confinement inertiel s'élève à environ 150 personnes, et, à la demande de M. Roger BALIAN, que la proportion des tirs réservées aux applications civiles n'a encore fait l'objet d'aucune décision.

Elle pourrait toutefois atteindre 20 % du total si l'on se base sur l'exemple de l'installation Phébus pendant ses deux dernières années d'existence.

En réponse à une question de M. Claude BOCCARA, Directeur de recherche à l'Ecole supérieure de physique et chimie industrielles de Paris, sur la génération suivante des lasers, M. Guy LAVAL a estimé que l'avenir était celui des lasers avec pompage par diode, une voie explorée actuellement pour tenter de lever les deux goulots d'étranglement que sont le taux de répétition des tirs lasers et le rendement du pompage.

A la demande de M. Philippe LAREDO, membre du groupe de travail, M. Guy LAVAL a indiqué que les sauts technologiques à réaliser dans le domaine des matériaux concernent l'amélioration de leur tenue aux flux de neutrons et aux rayonnements, pour éviter l'endommagement de la chambre de combustion.

S'agissant de la communauté de chercheurs s'intéressant à la technologie et aux applications générales des lasers de puissance, M. Guy LAVAL a précisé qu'elle est importante, encore mal structurée comme on peut s'y attendre, mais en croissance rapide, comme en témoigne l'exploitation de l'installation LULLI, qui est quatre fois plus demandée qu'elle ne peut offrir d'accès. A cet égard, les travaux sur les lasers de puissance ouvrent des perspectives inattendues, comme les sources X pulsées et les lasers à rayons X.

A cet égard, un débat s'est engagé sur les perspectives des lasers à rayons X et leur intérêt comparé à d'autres techniques.

M. Robert COMÈS a estimé que les lasers à rayons X sont cantonnés au domaine des X mous et ne peuvent concurrencer le rayonnement synchrotron.

M. Guy LAVAL a indiqué que des projets existent toutefois pour atteindre une longueur d'onde de 4 Å.

Ceci a été confirmé par M. Jochen SCHNEIDER en mentionnant un projet de laser à 1 Å au centre de recherche DESY de Hambourg.

Au demeurant, pour M. Jochen SCHNEIDER, les lasers à électrons libres, qui représentent la prochaine génération de synchrotrons, devraient garder la prééminence par rapport aux lasers à rayons X, tant en longueurs d'ondes qu'en puissance de crête intégrée en flux par stéradian.

Mme Elisabeth GIACOBINO, Directrice de recherche au Laboratoire Kastler-Brossel, a signalé, pour sa part, la nouvelle voie des lasers à rayons X et des sources X incohérentes reposant sur la technologie du bombardement de cibles métalliques par des lasers ultra brefs.

M. Guy LAVAL a indiqué que les développements actuels des lasers ultra brefs permettent d'envisager la mise au point de sources gamma pulsées.

Ainsi donc, le domaine des lasers de puissance " fourmille d'innovations " et se révèle très attractif pour les étudiants et les jeunes chercheurs. Au demeurant, comme le montre le montage de sources lasers sur les lignes de lumière des synchrotrons, ces technologies sont bien davantage complémentaires que concurrentes.

Après avoir remercié M. Guy LAVAL pour la clarté de son exposé sur le sujet difficile des recherches civiles conduites sur une installation à vocation militaire, M. Christian CUVILLIEZ a donné la parole aux représentants du projet VIRGO.

*

M. Alain BRILLET, Directeur de recherche à l'OCA (Observatoire de la Côte d'Azur), principal initiateur et co-directeur du projet VIRGO, a indiqué que ce projet a pour objet la détection des ondes gravitationnelles venant de l'espace. Il s'est agi de construire un appareil cumulant les défis technologiques et pouvant fonctionner 24 heures sur 24, puisqu'il s'agit de détecter des événements très courts, de l'ordre du millième de seconde, survenant dans l'Univers à des moments totalement imprévisibles.

La formulation des ondes gravitationnelles, qui doivent entraîner une déformation de l'espace anisotrope, résulte de la théorie de la relativité générale.

Le long de deux directions perpendiculaires, les distances entre des points fixes devraient augmenter dans une direction et diminuer dans l'autre durant le passage de l'onde. Le principe de leur mise en évidence avec VIRGO repose sur les variations de phase qu'elles sont supposées entraîner sur deux faisceaux lasers séparés, parcourant de très longs chemins optiques à l'intérieur de deux cavités, puis recombinés et analysés dans un interféromètre de Michelson. L'appareil, dont la construction s'achève près de Pise dans la plaine de l'Arno, possède deux bras de 3 km de long chacun et a les dimensions de la ville voisine.

L'étude de faisabilité de VIRGO s'est déroulée de 1982 à 1989, la collaboration avec l'Italie ayant démarré dès le milieu de la période. Une fois conçu, le projet est entré dans une phase d'évaluation en deux parties. La faisabilité de l'appareil a été approuvée en un an tant du côté français, au CNRS qu'italien à l'INFN alors que les laboratoires de l'IN2P3 réalisaient simultanément les études fondamentales d'ingénierie. La deuxième évaluation, commencée en 1992 et concernant l'estimation des ressources requises, a débouché sur une décision positive en 1994 et la signature d'un accord de réalisation par le CNRS et l'INFN.

La réalisation s'est traduite par l'installation des infrastructures entre 1994 et 1998, celle des équipements scientifiques à partir de 1999. La construction devrait être achevée en 2002 sans dépassement du budget de construction établi en 1994, et l'acquisition des données commencer en 2003.

La période de conception et de réalisation se sera donc étalée au total sur 25 ans, tandis qu'une amélioration de l'appareil est d'ores et déjà prévue en 2006.

L'ambition du projet et le défi technologique à relever sont de pouvoir détecter une variation relative de longueur de 10-21. A titre de comparaison, s'il s'agissait de mesurer la distance de la Terre au Soleil, il faudrait, pour atteindre le niveau de performances requises par VIRGO, avoir une précision de mesure de l'ordre du diamètre d'un atome.

En l'occurrence, il existe plusieurs autres phénomènes beaucoup plus banaux et d'une intensité beaucoup plus forte que les ondes gravitationnelles pour faire varier les longueurs parcourues par les faisceaux laser, en particulier les bruits sismiques, les fluctuations de puissance et de fréquence du laser et les fluctuations d'épaisseur de l'atmosphère. Des progrès considérables ont donc dû être faits dans les lasers de puissance, l'optique, l'isolation sismique, les matériaux, les techniques du vide.

Au final, VIRGO résulte d'une collaboration internationale entre la France et l'Italie, avec 11 laboratoires parties prenantes et 200 chercheurs. Ce projet pluridisciplinaire, impliquant les 4 départements de physique du CNRS, aura nécessité un budget de 500 millions de francs sur une période de 20 ans, l'Italie finançant 55 % du programme. Le budget annuel de VIRGO s'élève à 55 millions de francs, dépenses de personnel incluses, pris en charge à égalité entre la France et l'Italie. Les emplois générés représentent 1000 hommes x ans pour le CNRS et l'INFN et plus de 500 hommes x ans pour l'industrie.

*

M. Daniel ENARD, Directeur technique de VIRGO, a ensuite précisé que l'investissement total de 500 millions de francs ne comprend pas les coûts de personnel, non plus que le coût des infrastructures hors projet comme la préparation du site directement pris en charge par l'Italie et celui des infrastructures de Lyon attachées à la réalisation des couches minces.

Le démarrage de l'exploitation en 2001 s'assortira de la création d'un consortium franco-italien à parts égales, sous la forme d'une société civile de droit italien, prenant à sa charge le budget annuel de 8 millions d'euros incluant les coûts salariaux des 50 personnes du site.

Les retombées du projet VIRGO sont de 50 millions d'euros, soit 65,6 % de l'investissement total en contrats industriels de chaudronnerie, d'optique de haute précision, de mécanique, de techniques du vide et de génie civil, ainsi que de 15 millions d'euros, soit 19,7 % de l'investissement total, en achats de composants optiques et électroniques du marché.

Au demeurant, la question de la gestion des très grands équipements doit être examinée dans le cadre de la très vive concurrence internationale qui existe dans ce domaine. Les temps de réalisation des projets conduits en Europe sont supérieurs à ceux de projets nationaux, américains ou japonais, si l'on met à part le cas du CERN comme l'a demandé M. Michel SPIRO.

En tout état de cause, comme l'a indiqué M. Daniel ENARD, le projet arrivant à maturité le plus tôt a plus de chance de récolter les résultats avant les autres.

Dès lors, comment améliorer la situation ?

En premier lieu, la règle obligeant à passer des marchés publics pour les commandes supérieures à 300 000 francs, constitue un tel facteur de lourdeur et de ralentissement que les chefs de projet sont nombreux à devoir consacrer, au détriment de leurs autres tâches, une part importante de leur énergie à cette question.

En deuxième lieu, le coût du personnel n'étant pas inclus dans le coût d'investissement, il n'est pas aisé d'une part de repérer les retards éventuels d'un projet sur lequel les personnels travailleraient plus longtemps que prévu et d'autre part d'éviter les réalisations effectuées en interne à des coûts supérieurs à ceux qui pourraient résulter de commandes à l'industrie.

Le plus important est de ne pas gérer un très grand équipement comme un laboratoire.

Un groupe de projet doit être créé, en extrayant les équipes responsables et en les dotant de capacités de décision, comme l'on fait dans l'industrie et aux Etats-Unis pour les grands instruments. Avec une équipe autonome aux commandes de chaque TGE, la réalisation de ceux-ci s'effectuera beaucoup plus rapidement.

*

Un échange de vues s'est alors amorcé sur l'importance de la structure juridique adoptée pour un TGE.

M. Roger BALIAN, membre du groupe de travail, a rappelé que la différence entre l'échec de la fusée Europa et le succès d'Ariane tient à la création d'un groupe de projet dans le second cas.

Mme Claudine LAURENT, membre du groupe de travail, a indiqué que le récent rapport de l'Inspection générale de finances et de l'Inspection générale de l'éducation nationale et de la recherche, a pointé lui aussi l'importance de la création de groupes de projets mais a aussi recommandé celle de groupes d'administration et de gestion du personnel.

Quant aux effets pervers des règles des marchés publics, il faut ajouter celle qu'en cas de marché public, les soumissions des entreprises se font généralement à des prix et à des délais supérieurs à ceux observés dans les commandes de gré à gré, ainsi qu'on l'a constaté avec le satellite Rosetta.

M. Philippe LAREDO, membre du groupe de travail, a fait état des conséquences négatives en terme d'augmentation du coût des fournitures, de l'impossibilité pour les laboratoires de l'INSERM de choisir leurs fournisseurs et au contraire d'intégrer le système de négociation globale de cet organisme.

M. Philippe VIDAL, Directeur scientifique adjoint de l'INSU, a fait connaître que le seuil de déclenchement de l'appel d'offres va heureusement être bientôt porté à 100 000 euros. Par ailleurs, l'avantage des consortiums est de permettre le recrutement de personnel à des niveaux de rémunération davantage en rapport avec les tarifs du marché que ceux du CNRS.

M. Robert COMÈS, membre du groupe de travail, a noté un blocage complet de l'administration publique, qui oblige à adopter des solutions du privé, alors qu'il serait bien préférable de la réformer. En outre, l'adoption de mécanismes de plus en plus complexes nuit à l'efficacité du contrôle.

M. Christian CUVILLIEZ, Député, Rapporteur, a estimé que le problème devra être posé, d'autant que l'appel à la concurrence risque d'être imposé de plus en plus par la Commission européenne.

M. Philippe LAREDO a indiqué que la complexité des règlements ou des procédures incite les responsables à se couvrir et à faire remonter les décisions dans la hiérarchie, ce qui ralentit encore davantage les décisions. Au demeurant, on peut se demander si l'abandon du statut de la fonction publique pour les personnels de certains organismes de recherche ne permettrait pas un changement dans la vie de ces organisations.

M. Roger BALIAN a souligné à cet égard les avantages du contrôle a posteriori qui est mis en _uvre au CEA et qui favorise incontestablement la rapidité de réalisation.

Mme Claudine LAURENT a estimé que l'évolution actuelle du marché du travail constitue une lourde menace sur les recrutements futurs des organismes de recherche. A la disparité des salaires avec le secteur privé, s'ajoutent les recrutements effectués en France par des pays étrangers comme l'Irlande pour accélérer la montée en puissance de leurs organismes de recherche.

M. Michel SPIRO a souligné que les TGE ajoutent à leurs mérites celui de fonctionner dans le cadre de structures plus efficaces, ce qui conduit à une meilleure utilisation de l'argent public.

M. Pierre POINTU a indiqué que si des règles strictes sont nécessaires dans les activités régaliennes de l'Etat afin d'éviter des débordements dangereux, d'autres règles, notamment le contrôle a posteriori, seraient nécessaires dans les activités où l'Etat réalise ou fait réaliser. En réalité, comme la fonction publique ne connaît pas l'usage de la sanction, le contrôle a priori, pourtant contre productif, reste nécessaire.

*

Mme Elisabeth GIACOBINO, Directeur de recherche au Laboratoire Kastler-Brossel, a ensuite replacé le projet VIRGO et la détection des ondes gravitationnelles dans un ensemble plus vaste de recherches.

La détection interférométrique des ondes gravitationnelles fait l'objet du projet franco-italien VIRGO mais aussi des expériences LIGO aux Etats-Unis, GEO600 en Allemagne et TAMA au Japon. L'Allemagne ayant ouvert son projet à une coopération avec le Royaume Uni, les deux partenaires français et italiens travaillent à l'heure actuelle à développer les interactions avec GEO600. Une coopération est d'ores et déjà prévue pour préparer la génération suivante des détecteurs.

Le projet VIRGO s'inscrit dans un ensemble de recherches relatives à la détection des événements violents survenant dans l'univers. Parmi les événements susceptibles de créer des ondes gravitationnelles détectables sur Terre, on peut citer l'explosion de supernovae ou d'hypernovae, observées dans les longueurs d'ondes des rayons X ou des rayonnements gamma, la coalescence de deux étoiles à neutrons ou de deux trous noirs s'effondrant l'un sur l'autre.

L'objectif de VIRGO est de faire coïncider la détection des ondes gravitationnelles avec d'autres mesures, comme celles de rayonnements électromagnétiques de longueurs d'ondes variées.

Afin de mieux comprendre les événements cités plus haut, les résultats de VIRGO seront donc ajoutés à ceux d'autres expériences comme le satellite Glast, les télescopes gamma au sol, le projet ANTARES ou le projet AUGER de détection de particules cosmiques.

Pour synthétiser les principaux aspects de VIRGO, M. Michel SPIRO a souligné que, si ce projet paraît être un " monoprojet ", onéreux et conduisant à une seule mesure, il est en réalité multidisciplinaire, met en _uvre l'ensemble des compétences de la physique et se trouve de surcroît en réseau avec de nombreuses autres disciplines.

Un autre aspect positif de VIRGO est évidemment constitué par ses retombées technologiques.

Il s'agit d'un outil qui permet de se servir de l'Univers comme moyen de test d'une théorie essentielle, celle de la théorie de la relativité générale. Pour autant, peut-on dire que cette dernière n'a qu'une valeur abstraite et qu'elle ne sert à rien de concret ? En réalité, il n'en est rien, puisque les systèmes de positionnement par satellite GPS recourent à des équations issues de la relativité générale.

Mme Claudine LAURENT s'est interrogée sur l'appartenance éventuelle des projets ANTARES, AUGER et GLAST à la catégorie des TGE et sur le degré d'avancement des processus de décision correspondants.

M. Michel SPIRO a indiqué que la participation française au projet Auger est de l'ordre de 13 millions de francs et celle au projet ANTARES de 70 millions de francs, pour un total dans ce dernier cas de 120 millions de francs. Compte tenu de leur ampleur limitée, ces participations sont gérées par l'IN2P3 et financées par ce dernier sur son propre budget. En tout état de cause, ces projets apparaissent comme dans la quasi-totalité des cas, comme des projets " bottom-up " initiés par les chercheurs eux-mêmes et non pas imposés d'en haut. On note dans le cas du projet ANTARES, initié par la France, de détection au fond de la mer de particules cosmiques, une participation régionale au financement à hauteur de 70 % du total. Quant au projet GLAST, issu d'une collaboration NASA/DOE/université de Stanford, la France y participe avec une coopération CEA-IN2P3-CNRS.

M. Philippe LAREDO s'est demandé si les instances nationales de la recherche sont habilitées à juger de l'opportunité des investissements que les régions décident de faire dans des grands équipements de recherche.

*

Après que M. Claude BOCCARA, a souligné que la métrologie développée pour le projet VIRGO a eu des retombées dans les laboratoires de recherche et que des solutions apportées dans le domaine des matériaux pour VIRGO trouvent des applications pour le Laser MegaJoule, M. Michel DAVIER, Professeur à l'Université Paris-Sud, a souligné que le projet VIRGO présente un intérêt multiple et rassemble des physiciens venant d'horizons divers, au premier chef l'optique, les lasers, la physique des particules et l'astrophysique.

Ce projet sert l'étude des interactions fondamentales, permet le test de la théorie de la relativité générale, utilise l'Univers comme laboratoire et assure la convergence de disciplines. En outre, VIRGO permet de développer la maîtrise de l'ultra vide, du contrôle commande de systèmes complexes, de l'informatique de l'acquisition et du traitement de données, ainsi que celle de la logistique et de la gestion de grands projets.

Le CNRS est incontestablement particulièrement performant et adapté à l'éclosion de projets pluridisciplinaires mais il convient de s'appuyer sur des structures adéquates pour leur réalisation. C'est en l'occurrence la raison d'être des instituts nationaux que le CNRS a créés en son sein, en particulier l'IN2P3 et l'INSU.

Ces instituts ont été créés en premier lieu parce que les disciplines correspondantes devaient s'appuyer sur des très grands équipements. Dès lors, il était indispensable de disposer d'une part de compétences techniques souvent supérieures à celles du secteur privé et d'autre part de capacités techniques et administratives de gestion de ces équipements.

L'IN2P3 effectivement comprenait des personnels à statut particulier. Ce corps, maintenant en extinction, devrait pourtant constituer une solution aux problèmes évoqués au cours de la présente réunion au sujet du recrutement et de la rémunération des personnels nécessaires au démarrage et à l'exploitation d'un futur TGE comme SOLEIL.

L'INSU possède également des compétences pour la conception, la réalisation, le suivi, la gestion et l'utilisation de TGE.

Mme Claudine LAURENT a estimé que l'IN2P3 et l'INSU sont de création ancienne et devraient évoluer, notamment pour ne pas réaliser dans leurs laboratoires ou faire réaliser dans les autres laboratoires du CNRS ce qui pourrait être mieux fait ailleurs et à un moindre coût.

Sur le point de savoir si les services techniques de l'INSU sont compétents et compétitifs, M. Michel DAVIER a répondu qu'effectivement, il existe au sein de l'INSU des capacités de conception, d'innovation, de suivi industriel et de gestion de projet qui répondent aujourd'hui comme dans le passé aux exigences de la mise en _uvre des TGE.

M. Robert COMÈS a observé que le recours à l'IN2P3 permet de gérer les personnels et de traiter les problèmes de terrain avec une efficacité largement supérieure à celle du schéma classique du CNRS et de ses délégations régionales.

Pour M. Philippe LAREDO, il importe de ne pas mélanger les questions de compétences et d'organisation. Les instituts nationaux du CNRS ont effectivement joué un rôle central dans le passé. On peut se demander si actuellement leur rôle n'est pas davantage un rôle d'organisation qu'un rôle de support technique.

M. Roger BALIAN a estimé que les instituts nationaux du CNRS conservent actuellement des compétences techniques et des compétences de fabrication.

Après avoir remercié tous les intervenants pour leurs informations sur le projet VIRGO, M. Christian CUVILLIEZ, Député, Rapporteur, a donné la parole aux représentants du projet ODP.

*

M. Philippe PÉZARD, Directeur de recherche à l'Insteem-CNRS, a indiqué que le programme ODP (Ocean Drilling Programme) se trouve actuellement à la veille d'un changement considérable d'ambition, puisque, à partir de la situation actuelle où des forages de 1000 à 2000 mètres dans le plancher océanique sont opérés avec un seul navire, il s'agit de passer à des forages de 5000 mètres dans les sédiments sous-marins, pour une longueur de tige de 11 kilomètres, réalisés à partir de deux nouveaux bateaux.

Le programme ODP portant sur la période 1983-2003 représente le principal effort mondial actuel de forage scientifique des fonds océaniques et s'inscrit dans la ligne de travaux effectués depuis le milieu des années 1960, au terme desquels plus de 2000 forages ont déjà été réalisés dans les océans. Les Etats-Unis assurent actuellement près de 60 % du financement total du programme.

Parmi les réalisations majeures du navire actuellement en service, le JOIDES RESOLUTION, on peut citer la mise en place de bouchons instrumentés au fond de la mer, servant à l'enregistrement de données sismologiques de façon à disposer d'images précises du globe, et l'échantillonnage des sédiments sous-marins à différentes profondeurs. Le programme ODP porte également sur l'étude des interfaces noyau-manteau ou croûte-manteau.

M. John LUDDEN, Directeur de recherche à l'INPG-CNRS a indiqué que le budget annuel du programme ODP atteint 45 millions de dollars. La France, le Japon, l'Allemagne et le Royaume Uni contribuent chacun pour 3 millions de dollars, à quoi il faut ajouter un montant identique fourni par un consortium d'autres pays européens. Les Etats-Unis financent pour leur part 60 % du total du budget.

Selon M. Philippe PÉZARD, s'il s'est essentiellement agi jusqu'à maintenant d'explorer les océans pour accumuler des informations pour la tectonique des plaques, l'objectif est désormais d'élargir les recherches à d'autres sujets.

L'objectif est certes d'apporter des explications à des questions fondamentales de la géologie, comme les transferts de chaleur et de matière, les transects terre-mer, la déformation de la lithosphère, la dynamique du manteau et du noyau.

Mais il s'agit aussi de contribuer à l'étude des grands problèmes environnementaux comme l'évolution climatique. Les évolutions climatiques sont en effet enregistrées dans les sédiments, par l'intermédiaire de la proportion d'isotopes de l'oxygène, de la formation du plancton et des poussières qui y sont prisonnières. Les carottages effectués près du fond de l'océan permettent l'étude du passé récent. L'observation des récifs coralliens fournit par ailleurs des informations précieuses sur l'évolution du niveau des océans, puisque les coraux croissent à une vitesse supérieure à celle des phénomènes géologiques pour retrouver le niveau de la surface.

Il s'agit encore, à l'aide de forages sous-marins, de mieux connaître la biosphère cachée dans les sédiments. La découverte d'une vie anoxique sous forme de bactéries enfouies à plusieurs centaines de mètres dans les sédiments s'avère fondamentale puisqu'elle peut être corrélée à des formes de vie sur d'autres planètes, comme Mars.

Les forages profonds ont également pour objet l'étude des hydrates de gaz présents dans des couches superficielles recouvrant par ailleurs du gaz libre.

Ainsi que l'a exposé M. John LUDDEN, le nouveau programme décrit sous le nom d'IODP (Integrated Ocean Drilling Program), qui débutera en 2003, prendra d'abord appui sur une version modernisée de l'actuel navire océanographique américain, opérationnel à partir de 2004, après une rénovation d'un coût de dix millions de dollars. Mais, pour l'étude des fonds marins à grande profondeur, le Japon développe un nouveau navire permettant des forages sous des hauteurs d'eau de plus de 4000 mètres, dont le coût de construction atteint plusieurs centaines de millions de dollars.

Enfin l'Europe a la responsabilité de développer des moyens de forage en eaux peu profondes. C'est ainsi qu'en plus des possibilités apportées par le navire océanographique polaire Marion Dufresne, des plates-formes seront également développées afin de pratiquer des forages en eaux peu profondes, par exemple dans l'Arctique.

Afin de préparer la participation européenne au programme IODP, un comité européen a été créé afin d'arrêter les priorités scientifiques et définir les développements technologiques nécessaires. L'objectif est d'obtenir la création d'un réseau thématique européen et in fine de trouver les 25 millions de dollars annuels que l'Europe devra apporter au programme IODP, soit deux fois plus qu'actuellement pour le projet OPD. La Commission européenne semble en tout état de cause favorable à l'inscription de ce domaine de recherche au 6ème PCRD.

M. Philippe VIDAL, Directeur adjoint de l'INSU-CNRS, a précisé les enjeux du changement de dimension du programme de forages profonds.

Les pays membres de l'Union européenne prennent actuellement à leur charge un peu moins du quart du budget d'ODP, soit au total 12 millions de dollars sur un total de 45 millions de dollars de coûts d'exploitation.

Le seul coût d'exploitation des deux futurs navires américain et japonais ressort à 140 millions de dollars par an. La France, l'Allemagne, le Royaume Uni doivent bien entendu accroître leur financement mais il reste indispensable que l'Union européenne engage un effort particulier.

A la demande de M. Jean GALLOT, membre du groupe de travail, M. Philippe PÉZARD a précisé que le coût total de fonctionnement d'une plate-forme de forage comprend deux tiers de coûts d'exploitation et un tiers de coût de personnel.

*

Après avoir remercié les participants pour leur contribution à l'information de l'Office, M. Christian CUVILLIEZ, Député, Rapporteur, a levé la séance.

10. Océanographie - mercredi 18 octobre 2000

IFREMER

· M. Jean-François MINSTER, Président-directeur général

· M. Daniel DESBRUYÈRES, Directeur du département de l'environnement profond

· M. Maurice HÉRAL, Directeur Ressources vivantes

· M. Philippe HUCHON, Professeur à l'Université Paris VI

CNRS

· M. Guy BOUCHER, INSU-CNRS

· Mme Pascale DELECLUSE, Laboratoire d'océanographie dynamique et de climatologie (LODYC) - CNRS / Université PARIS 6 / IRD

· Mme Laurence EYMARD, Présidente du groupe ad hoc Terre-Atmosphère-Océan-Biosphère du Comité des Programmes scientifiques du CNES

· M. Gérard JUGIE, IFRTP (Institut français de recherche et de technologie polaire) - CNRS / CNES / IFREMER / TAAF / Météo-France / EPF

· M. Laurent LABEYRIE, Laboratoire des sciences du climat et de l'environnement (LSCE) - CNRS / CEA, Directeur du programme IMAGES (International Marine Global Change Study)

· M. Christian LE PROVOST, Laboratoire d'études en Géophysique et océanographie spatiales (LEGOS) CNRS / CNES / Univ. Toulouse 3

· M. Frank ROUX, INSU, Chargé de mission pour la physique de l'océan et de l'atmosphère

· Mme Dominique VIOLLET, Chargée des relations avec les élus

CNES

· Mme Nicole PAPINEAU, Déléguée adjointe à l'observation de la Terre

· M. Philippe ESCUDIER, Chef de la division altimétrie et du projet JASON

· M. Arnaud BENEDETTI, Chargé des relations avec le Parlement

CEA

· M. Philippe JEAN-BAPTISTE, Direction des sciences de la matière

· M. Bernard SALANON, Direction de la stratégie

· M. Pierre TRÉFOURET, Cabinet de l'Administrateur général, chargé des relations avec le Parlement

*

M. René TRÉGOUËT, Sénateur, rapporteur, après avoir demandé à chaque invité d'indiquer brièvement son domaine de recherche, a donné la parole à M. Jean-François MINSTER pour une présentation générale de la recherche française en océanographie et de la politique de l'IFREMER (Institut français de recherche pour l'exploitation de la mer) dans le domaine des grands équipements.

*

M. Jean-François MINSTER, Président-directeur général de l'IFREMER, a indiqué que l'océanographie, avec 800 chercheurs appartenant au CNRS, aux universités, à l'IFREMER et à l'IRD (Institut de recherche pour le développement) et 1300 ingénieurs, techniciens, administratifs et marins, est un domaine de recherche où les grandes infrastructures jouent un rôle déterminant.

La mer et le littoral sont à l'évidence le siège d'activités économiques importantes, avec une valeur ajoutée cumulée de 100 milliards de francs par an et un chiffre d'affaires deux fois et demi supérieur. Si l'océanographie s'intéresse depuis toujours aux ressources vivantes, énergétiques et minérales tirées de la mer, elle porte une attention de plus en plus grande au rôle de la mer dans l'environnement planétaire et en particulier à son impact sur le climat.

Les moyens d'observation lourds jouent un rôle capital en océanographie et se composent de la flotte hauturière, des satellites, de la flotte côtière, des bassins d'essai et des réseaux de bouées d'observation.

La flotte océanographique hauturière représente un investissement cumulé de 500 millions de francs par navire, à financer pour la plus grande part sur les 5 ans de la construction et ultérieurement pour la modernisation, avec un coût annuel d'opération de 30 à 50 millions de francs, auquel il faut rajouter les coûts scientifiques. La flotte hauturière française comprend actuellement l'Atalante, le Suroît, le Thalassa et le Nadir, navires de l'IFREMER de plus de 50 mètres, et le navire polaire polyvalent Marion Dufresne, le plus grand du monde.

Le coût unitaire des satellites varie de 50 millions à 2 milliards de francs en investissement, pour une durée de vie moyenne de 5 ans, avec un coût d'opération de 30 millions de francs par an.

Les réseaux d'observation, principalement les bouées dont chaque exemplaire représente un investissement de 300 000 francs environ pour les engins modernes, peuvent atteindre un coût total d'investissement de 300 millions de francs, comme dans le cas des 3000 bouées du système ARGO, dont le coût annuel d'opération s'élève à 30 millions de francs.

Autre infrastructure indispensable, les moyens de calcul se chiffrent à environ 30 millions pour les investissements et à 20 millions de francs par an en exploitation, si l'on estime les besoins de calcul de l'océanographie au tiers de ceux de l'IDRIS.

A ces très grands équipements, il faut bien entendu rajouter d'autres grands outils, comme les bassins d'essais ou d'élevage, la flotte côtière avec ses navires de 20 à 40 mètres, dont 3 appartiennent à l'IFREMER, 4 à l'INSU, 2 à l'IRD (Institut de recherche pour le développement), 1 à l'IFRTP.

*

L'un des caractéristiques des navires océanographiques est la complexité de leur utilisation, qui nécessite non seulement une programmation soigneuse des déplacements et donc des expériences, mais aussi des équipements scientifiques diversifiés, des moyens de calcul et de transmission à bord, des équipes de soutien et, au final, des outils de gestion sophistiqués.

Les personnels navigants ou techniques s'élèvent à 10 pour l'IFRTP (Institut français de recherches et de technologies polaires), à 55 personnes pour l'INSU et à 220 inscrits maritimes pour l'IFREMER. Sur la base de 30 à 50 millions de francs par navire et par an pour l'IFREMER et de 40 millions de francs pour le Marion Dufresne, le coût annuel total de la flotte hauturière atteint donc 200 millions de francs par an. Le chiffre de l'IFREMER est resté stable depuis une dizaine d'années.

Grâce à une programmation complexe, avec des appels d'offres d'expériences scientifiques en novembre de chaque année, la flotte océanographique hauturière française fournit de 310 à 330 jours d'expérience par an, un chiffre supérieur aux moyennes de 300 des autres pays. Le Marion Dufresne offre quant à lui un nombre inférieur de 230 jours de recherche scientifique, en raison de ses autres types d'utilisation.

La production scientifique de la flotte hauturière représente environ 700 publications annuelles et de nombreuses thèses de DEA et de doctorat, soit la moitié du total des travaux français en océanographie.

Il est à remarquer que la pression de la demande est importante, avec une demande 3,5 fois plus forte que le temps navire disponible.

La situation actuelle de la flotte hauturière résulte d'un effort de rationalisation par remplacement et modernisation, effort qu'il convient de continuer. En 1980, la France possédait 8 navires. Avec une continuation des efforts de modernisation définis par le plan de 1985, la flotte ne comptera plus que 4 navires en 2003 mais ces 4 navires seront tous postérieurs à 1992. Il faut signaler à cet égard l'effort fructueux fait pour le Nadir par la marine nationale et l'IFREMER pour l'utiliser de concert, exemple probant de recherche duale.

Pour autant, pour poursuivre cette modernisation dans la durée, il reste à obtenir un financement annuel de 60 millions de francs. Après deux années d'interruption, le projet de loi de finances pour 2001 rétablit les autorisations de programme nécessaires, de même que le fera le projet pour 2002. Sur le long terme, une stratégie de capitalisation continue des autorisations de programme est préférable.

La couverture de tous les besoins en navires hauturiers exige au demeurant la mise en place d'une stratégie commune européenne voire mondiale. Les besoins très nombreux sont hors de portée d'un seul pays, portant en effet sur les navires brise-glace - l'Allemagne en possède un -, sur les navires foreurs - les Etats-Unis et le Japon en disposent -, sur les navires porte engins ainsi que sur des bâtiments polyvalents.

Peut-il y avoir une stratégie commune à tous les niveaux, pour l'investissement, l'opération et les objectifs scientifiques ?

Les investissements peuvent sans aucun doute faire l'objet d'une stratégie commune, une concertation internationale ayant déjà commencé à cet égard. Une des difficultés à lever est que les commandes ont souvent pour objet de soutenir les chantiers navals nationaux. Mais le cas du Thalassa, un investissement partagé avec l'Espagne, montre toutefois que des possibilités existent, essentiellement sans doute dans le cadre de coopérations à géométrie variable.

Une coopération européenne pour l'opération semble difficile et plus coûteuse a priori, en raison de l'inexistence d'un pavillon européen et de la multiplicité de statuts nationaux des gens de mer.

En revanche, une gestion scientifique commune plus poussée est certainement possible, avec notamment des appels d'offres communs, une répartition géographique harmonisée des missions et un échange plus important des temps d'accès aux navires en fonction des besoins de recherche.

Au surplus, il faut noter que 28 % des scientifiques embarqués sur les navires de l'IFREMER sont étrangers, la France détenant ainsi le record mondial d'ouverture de ses moyens océanographiques.

Au demeurant, l'effort de rationalisation des flottes hauturières allemandes et britanniques est inférieur à celui de la France.

*

Etroitement liés à la flotte océanographique, figurent différents types d'outils d'exploration.

La France possède deux sous-marins autonomes, le Cyana pour l'exploration des fonds jusqu'à 3000 mètres et le Nautile pour l'exploration à 6000 mètres, seuls les Etats-Unis et le Japon possédant des engins équivalents. Le Victor 6000 est un système téléopéré pour les grandes profondeurs, instrumenté et modulaire, de la catégorie des ROV (Remote Observation Vehicle), capables de rester plusieurs jours au fond.

L'observation in situ se fait également par des engins autonomes permettant de s'affranchir des navires, principalement des bouées, munis de capteurs et de dispositifs de transmission de données, dont la durée de vie est d'environ 4 ans et dont on cherche à abaisser le coût par une industrialisation.

Une des difficultés à résoudre est la pérennité de ces systèmes d'observation et celle de l'organisation à mettre en place pour une gestion à long terme des données.

*

Les satellites comprennent deux catégories, celle des observations pour la recherche et celle de surveillance opérant dans la durée.

Les satellites de recherche sont d'un coût élevé, en général supérieur à 500 millions de francs. Parmi ceux-ci, figurent les programmes GOCE relatif au champ de gravité, SMOS mesurant la salinité ou le projet VAGSAT mesurant la hauteur des vagues, dont la plupart sont développés dans le cadre de l'agence spatiale européenne ESA et éventuellement en coopération avec la NASA.

Il s'agit d'équipements qui connaissent une évolution technologique rapide, avec pour conséquence une taille et une masse de plus en plus réduites et une spécialisation accrue, ce qui induit une plus grande flexibilité de lancement et de gestion et donc un changement des méthodes de travail.

Les systèmes de surveillance mesurent par exemple la température de surface, la vitesse des vents ou les trajets des glaces de mer. Ils sont composés de série de satellites opérant dans la durée et sont toujours mis en _uvre dans le cadre de coopérations. Ils nécessitent des organisations pérennes et coopératives pour l'exploitation des données, comme EMEUTSAT, organisation européenne ou la NOAA américaine (National Oceanic and Atmospheric Administration).

*

A la demande de M. René TRÉGOUËT, Sénateur, rapporteur, qui s'interrogeait sur les procédures de concertation internationale pour les choix des thèmes de recherche, M. Jean-François MINSTER a indiqué que les programmes internationaux des Unions scientifiques internationales ont créé des comités scientifiques qui définissent par concertation une stratégie de recherche. Les instances nationales les reprennent dans des plans de réalisation nationaux et européens et en assurent le financement.

La stratégie d'investissement dans les satellites fait l'objet, de la part du CNES et de l'ESA, d'une définition progressive du type " bottom-up " à partir de colloques de prospective et ensuite d'une programmation soumise au comité des programmes scientifiques de ces organismes.

Quant aux données collectées par les satellites, leur utilisation s'appuie d'une part sur les investigateurs principaux, une vingtaine de chercheurs français dans le cas de TOPEX-POSEIDON, qui seuls disposent des données pendant une première période variable, et d'autre part sur une distribution ouverte ultérieurement à l'échelle mondiale.

Pour la flotte, la situation est plus floue, dans la mesure où une infrastructure comme un navire est moins attachée à une discipline qu'un satellite, grâce à son adaptabilité. Néanmoins, les instituts nationaux se concertent afin de développer la complémentarité de leurs moyens. En tout état de cause, les projets d'équipement de l'IFREMER sont visés par son comité scientifique.

*

La question des financements de l'IFREMER a fait ensuite l'objet d'un débat. A la demande de M. René TRÉGOUËT, Sénateur, rapporteur, M. Jean-François MINSTER a précisé qu'en tant qu'EPIC, l'IFREMER peut affréter ses navires à d'autres pays ou à des industriels, dans le cadre d'une démarche commerciale.

M. Philippe LAREDO s'est interrogé sur la date d'arrêt des autorisations de programme (AP) pour le renouvellement de la flotte, qui a interrompu le processus de capitalisation.

M. Jean-François MINSTER a indiqué que les AP, auparavant de 30 millions de francs par an, ont été mises à zéro pour 1999 et 2000 mais ont repris pour 2001 au niveau de 70 millions de francs et devraient se perpétuer au même niveau en 2002.

En tout état de cause, le renouvellement de la flotte exige une pérennisation des autorisations de programme à 60 millions de francs par an. Quant au financement du Marion Dufresne, il a été réalisé en partie par emprunt.

Plus généralement, la capitalisation des autorisations de programme est indispensable pour le financement de tous les systèmes d'observation in situ et les satellites. Il est donc crucial d'installer et de stabiliser un système durable.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé qu'il convient d'asseoir les plans à long terme d'autorisations de programme sur des décisions législatives claires.

En outre, il est indispensable de mettre au point une procédure pour les sécuriser à long terme, en dépit du fait que les techniques budgétaires actuelles ne facilitent pas les choses.

La réunion a ensuite été consacrée à l'exposé des perspectives de l'IFRTP dans le domaine de très grands équipements.

*

M. Gérard JUGIE, Directeur de l'IFRTP (Institut français pour la recherche et la technologie polaires), a indiqué que cet organisme gère 3 navires, d'une part le Marion Dufresne, bâtiment de logistique et de recherche scientifique d'une longueur hors tout de 120 m qui en fait le plus grand navire océanographique d'Europe, d'autre part la Curieuse, petit navire côtier assurant à la fois la logistique scientifique et les programmes de recherche océanographique et enfin l'Astrolabe, brise-glace de première catégorie.

Le Marion Dufresne, dont la construction a été décidée en 1991 et s'est achevée en 1995, assure une double mission de souveraineté sur les îles australes françaises Crozet, Kerguelen, Amsterdam, Saint-Paul, et de recherche scientifique.

A ces fins, armé par la Compagnie générale maritime CMA-CGM, il est affrété dans le cadre d'un GIP (Groupement d'intérêt public) par le Territoire des Terres australes et antarctiques françaises (Taaf) et par l'Institut français pour la recherche et la technologie polaires. Il est par ailleurs la propriété d'un GIE (Groupement d'intérêt économique) dont le TAAF détient la quasi-totalité des parts. Il est utilisé pour les missions de souveraineté par les TAAF et pour les missions scientifiques par l'IFRTP. Son utilisation comporte quatre rotations logistiques de desserte des archipels à partir de son port d'attache de la Réunion, dont une rotation légère en juillet-août correspondant à l'hiver austral.

En dehors des missions de souveraineté, le Marion Dufresne est utilisé, avec ses 650 m² de laboratoires scientifiques et ses divers apparaux, pour la recherche océanographique, en particulier pour les carottages de sédiments marins, qu'il est le seul au monde à pouvoir pratiquer sur des longueurs de 60 mètres, à toutes profondeurs.

Le Marion Dufresne, d'une polyvalence unique, peut accueillir 110 passagers, transporter 110 conteneurs, jouer le rôle de tanker, tout en comportant ses propres moyens de débarquement, à savoir deux vedettes, deux barges porte-conteneurs et un hélicoptère. C'est pourquoi il est parfois difficile de le remplacer pour la rotation de l'hiver austral.

Toutefois, pour accroître le temps dédié aux campagnes océanographiques, il serait possible de le remplacer par d'autres navires d'un usage moins onéreux, une rotation avec le Marion Dufresne revenant à 6 millions de francs, pour un coût journalier de 200 000 F.

M. Laurent LABEYRIE, Directeur du programme IMAGES (International Marine Global Change Study), a souligné que le Marion Dufresne est le seul navire au monde pouvant embarquer des équipes aussi nombreuses (plus de 50 scientifiques) pour des campagnes pluridisciplinaires de grande ampleur. De plus, le Marion Dufresne est le seul navire pouvant travailler dans un milieu aussi hostile que l'Antarctique.

Au demeurant, l'IFRTP dispose sur le Marion Dufresne d'un savoir-faire unique au monde pour réaliser des carottages de 60 m dans les sédiments.

Or l'analyse de ces sédiments à laquelle on procède en paléoclimatologie apporte des informations d'une importance exceptionnelle sur les parts respectives de la variabilité naturelle et de la variabilité récente, en partie anthropique du climat. Le rôle de l'océan dans l'évolution des teneurs de l'atmosphère en CO2 peut également être déterminé.

Par ailleurs, c'est avec les possibilités exceptionnelles de carottage de ce navire que l'on peut espérer étudier les monts sous-marins carbonatés très récemment découverts sur les marges océaniques de l'Europe entre 500 et 1500 m de fond. Ils sont couverts de coraux au milieu d'une faune très variée. Leur développement semble associé à la présence de grandes quantités d'hydrates de méthane. Ceux-ci sont d'autre part à l'origine, dans la région, d'éboulements sous-marins d'une ampleur considérable, à l'origine dans le passé, de tsunamis sur les côtes européennes. Une campagne soutenue par des financements européens est prévue pour l'étude de cette région en 2001.

Il est à noter que le Marion Dufresne a effectué en 1999 une campagne de prélèvements sur les côtes du Groenland et de la Norvège avec l'implication des chercheurs et le cofinancement de 13 pays, et qu'une campagne autour du Pacifique Nord est à l'étude pour 2001 ou 2002, en association avec le Japon, le Canada, les Etats-Unis et l'Allemagne.

Le Marion Dufresne voit toutefois son usage scientifique obéré par la nécessité de regagner tous les deux à trois mois La Réunion pour assurer ses campagnes de logistique.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est demandé à qui appartient la décision d'emploi du Marion Dufresne.

M. Gérard JUGIE a indiqué qu'un arbitrage interministériel récent a permis d'obtenir que le nombre de jours " scientifiques " du navire passe à 235 jours en 2001.

Toutefois, le transfert budgétaire qui devait accompagner ce transfert de charges n'a eu lieu que partiellement et par ailleurs, la maîtrise d'ouvrage appartient encore aux Taaf.

M. Robert COMÈS s'est demandé si, compte tenu de l'importance de la recherche océanographique, notamment pour la lutte contre l'effet de serre, il ne serait pas opportun de construire un nouveau navire scientifique, cette fois partagé avec la marine nationale.

M. Jean-François MINSTER a déclaré qu'en effet, les recherches océanographiques sont souvent duales. Au demeurant, la population à laquelle les Taaf devraient consacrer tous leurs efforts est bien scientifique, puisque seuls les chercheurs habitent ces territoires.

M. Philippe LAREDO a rappelé que la décision de construction du Marion Dufresne a été prise dans l'urgence, sans qu'un système de décision clair ait été défini sur son emploi. Le recours à l'emprunt a été au demeurant indispensable. Le fait que la CGM soit l'opérateur du navire complique encore la situation.

Au vrai, les difficultés d'une valorisation scientifique maximale du Marion Dufresne reflètent les inconvénients de la balkanisation de la décision sur la recherche. Pourtant, si ce navire n'avait eu qu'une vocation logistique, son coût n'aurait été probablement que de 250 millions de francs, au lieu des 540 millions finaux, qui résultent des multiples possibilités d'expérimentation scientifique dont il a été pourvu.

Quant à l'absence d'un mécanisme fiable de capitalisation des autorisations de programme, elle fait cruellement sentir ses effets.

Mme Sylvie JOUSSAUME, directrice adjointe du LSCE, a souligné une autre anomalie.

La délégation française aux négociations récentes de Lyon et à la future conférence de La Haye dite CoP6 sur l'application des mécanismes du Protocole de Kyoto ne comprend pas les experts français appartenant au GIEC-IPCC (Groupe international d'experts sur le climat - International Panel on Climate Change). Aussi le lien est-il ténu entre la science et la Mission interministérielle sur l'effet de serre (MIES).

M. Jean-François MINSTER notant que la délégation américaine comprend au contraire les spécialistes américains du climat, a estimé que la procédure actuelle de préparation des positions françaises et européennes à la négociation est insuffisante.

La parole a ensuite été donnée à M. Guy BOUCHER, pour une présentation des moyens de l'INSU-CNRS dans le domaine de l'océanographie.

*

M. Guy BOUCHER, chargé de mission à l'INSU, a fait le point sur les équipements lourds de l'océanographie au CNRS.

Les quatre navires de façade de 20 à 25 mètres nécessitent un renouvellement régulier. Les navires côtiers des stations, d'une longueur de 15 à 20 mètres, doivent être rénovés, pour un montant de 3 millions de francs par an, tandis qu'un bâtiment d'estuaire est à remplacer pour un montant de 15 millions de francs. Il faut également prévoir la construction d'un navire de 35 mètres pour les opérations sur le plateau continental, soit un investissement de 50 millions de francs.

Le réseau national des 14 stations marines joue par ailleurs un rôle clé pour l'enseignement et la recherche sur l'océanographie en France. Avec un budget annuel de 17 millions de francs, les stations marines disposent de 540 personnels statutaires, accueillent chaque année environ 500 chercheurs, fournissent près de 7000 semaines-étudiants par an et donnent lieu à 250 publications de niveau international.

Ce réseau nécessite d'être entièrement rénové. Les dépenses estimées s'élèvent à 10 millions de francs par an pour les locaux et à 10 millions pour les structures expérimentales. Il convient également de l'équiper de moyens modernes d'acquisition et de transmission de données, ce qui correspond à 5 millions de francs par an.

L'ensemble de ces dépenses de rénovation de la flotte côtière et des stations marines représente un montant de 100 millions de francs par an à renouveler sur 4 ans au moins.

Au vrai, la flotte océanographique de façade et le réseau national des stations marines constituent pour le CNRS un grand équipement de recherche et d'enseignement.

Cet équipement présente la spécificité d'être réparti sur l'ensemble des côtes françaises. Mais, comme tout grand équipement, il est utilisé par un nombre élevé de chercheurs, résidents ou visiteurs, français ou européens et permet des recherches expérimentales nombreuses et différenciées qui portent sur les modèles marins, la biologie fondamentale ou les biotechnologies.

M. Franck ROUX, chargé de mission à l'INSU-CNRS, a ensuite exposé le rôle de l'INSU dans la recherche océanographique. L'INSU, institut national sous la double tutelle du ministère de la recherche et du ministère chargé des universités, a la responsabilité de 5 programmes conduits en coopération avec des organismes nationaux, européens ou internationaux.

Ces programmes portent sur la climatologie et les processus à petite échelle, la biologie marine, l'étude des flux, les zones côtières et l'exploitation des données satellitaires. Ils représentent une dépense annuelle de 5 à 20 millions de francs, incluant les coûts de mise en _uvre éventuelle de très grands équipements.

L'INSU a mis en place, par ailleurs, un service d'observation de l'océan et de surveillance des eaux côtières. On peut s'interroger sur le point de savoir si la pérennisation d'un tel système doit être financée sur les crédits de la recherche. La transition des travaux du CNRS vers des réseaux opérationnels apparaît bien comme un problème critique.

La parole a ensuite été donnée à M. Philippe JEAN-BAPTISTE, représentant du CEA.

*

M. Philippe JEAN-BAPTISTE, Directeur de recherche au Laboratoire des sciences du climat et de l'environnement du CEA-CNRS, a indiqué que les connaissances et le savoir-faire du CEA dans le domaine des radio-isotopes et de la métrologie l'ont conduit à s'intéresser aux recherches sur le climat du passé, en apportant une contribution à l'analyse et à la datation des calottes polaires et des sédiments marins.

De plus, compte tenu de l'implication étroite des choix énergétiques et de la lutte contre l'effet de serre, le CEA a renforcé son engagement dans la recherche climatique au plan général.

A ce titre, le CEA est l'un des utilisateurs des très grands équipements des autres organismes de recherche, en particulier de la flotte hauturière de l'IFREMER et du Marion Dufresne. Le CEA est partie prenante du programme IMAGES de paléo-océanographie et du programme POLDER d'observation spatiale dont un volet concerne spécifiquement l'océanographie, à savoir la mesure de la productivité primaire océanique ou " couleur de la mer ", dont la connaissance est essentielle pour l'étude du cycle du carbone océanique.

En outre, le CEA participe aux travaux de modélisation climatique, qui tendent à inclure les couplages entre l'atmosphère, l'océan, la cyosphère, c'est-à-dire les glaces, la végétation et les cycles biogéochimiques, en particulier le cycle du carbone.

A ce titre, les travaux du CEA consomment près de 20 % du temps de calcul de l'organisme. Rappelons à cet égard que le coût d'un super-ordinateur s'élève à 40-50 millions de francs et le coût d'un centre de calcul à 100 millions de francs.

La mobilisation du CEA sur l'effet de serre est importante et bien comprise des médias, qui sollicitent régulièrement son point de vue. En revanche, ses spécialistes du climat sont, de son point de vue, insuffisamment sollicités par les négociateurs français travaillant sur les mécanismes d'application du Protocole de Kyoto.

*

Un débat est ensuite intervenu sur le thème des moyens de calcul.

M. Jean-François MINSTER a relevé la différence de stratégie entre la France et les Etats-Unis. La France a adopté le principe de centres de calcul nationaux interdisciplinaires, en dépit des difficultés causées par les incompatibilités éventuelles des codes de calcul pour passer d'un centre à un autre en fonction des plans de charge de ces derniers.

Les Etats-Unis, au contraire, ont mis en place des centres de calcul spécialisés pour les calculs de climat. Il semble opportun d'étudier à l'avenir des projets de centres de calcul dédiés.

M. René TRÉGOUËT, Sénateur, rapporteur, a indiqué que la mise en réseau des centres de calcul est toutefois une nécessité, comme le prévoit le CERN avec son projet GRID. La syndication paraît la voie de l'avenir.

Mme Pascale DELECLUSE, Directeur de recherche au Laboratoire d'océanographie dynamique et de climatologie (LODYC), a souligné que la mutualisation suppose des efforts de portabilité des codes de calcul et donc un accroissement des ressources humaines des laboratoires concernés, puisque ceux-ci doivent réaliser ces travaux en interne.

M. Franck ROUX, a estimé, qu'au-delà de la portabilité des codes qui est un problème résolu entre Météo-France et l'IDRIS par exemple, apparaissent, avec quelques années de retard, les questions posées par la valeur commerciale croissante des données océanographiques, à l'instar de ce qui est le cas pour la météorologie.

Mme Sylvie JOUSSAUME a précisé que les modèles climatiques recourent essentiellement au calcul vectoriel et que, donc, le recours aux techniques du massivement parallèle peut être difficile. Une autre difficulté essentielle du recours à une machine distante provient de la lourdeur des transferts de données, d'un volume considérable en climatologie.

Il paraît opportun dans ces conditions sinon de rassembler les moyens, au moins de les coordonner et de rationaliser les investissements du CINES, de l'IDRIS, des centres de calcul du CEA, de Météo-France et de l'ONERA.

Sur le sujet de l'opportunité de créer un centre de calcul dédié pour la climatologie, on peut remarquer que l'Allemagne en possède un, que le Royaume Uni envisage d'en créer un autre, que le Japon va disposer d'un accès privilégié à une machine surpuissante, qui fournira une puissance de calcul cent fois supérieure à celle de l'IDRIS, et enfin que les Etats-Unis travaillent à la mise en place d'un centre appartenant à plusieurs organismes.

Au demeurant, on pourrait s'inspirer de ce qui a été fait pour la physique des particules, avec la mise en place d'un centre de calcul commun au CEA et au CNRS, implanté à Lyon, qui constituera le relais français du projet GRID du CERN.

Mme Nicole PAPINEAU a exposé qu'il existe un groupe de travail INSU-CNRS / CNES sur les moyens de calcul et la gestion des bases de données, qui recommande d'adopter le principe d'une décentralisation.

M. Christian LE PROVOST, Directeur de recherche au Laboratoire d'études en Géophysique et océanographie spatiales, a précisé que la simulation à court ou à long terme du comportement climatique des océans exige le transfert et le stockage de très grands volumes de données. Les réseaux de transfert de données actuels sont insuffisants à cet égard.

M. René TRÉGOUËT, Sénateur, rapporteur, a souligné qu'il est urgent d'améliorer les choses.

M. Jean-François MINSTER et Mme Sylvie JOUSSAUME ont estimé que la mise en place de réseaux à hauts débits est indispensable mais que les puissances de calcul doivent également être augmentées. Comme la logique actuelle est une logique d'organismes, il convient d'accélérer les discussions en la matière.

*

Mme Nicole PAPINEAU, Déléguée adjointe à l'observation de la Terre au CNES, a indiqué que la communauté scientifique est étroitement associée au choix d'un satellite océanographique, tout au long d'un processus de décision au demeurant très long.

Le projet de satellite POSEIDON a démarré en 1981, en parallèle avec le projet américain TOPEX. Après qu'une convergence entre les deux et l'accord des deux communautés scientifiques ont été obtenus, la démonstration de certains dispositifs comme l'altimètre a été engagée et réussie.

Puis l'enjeu stratégique du lanceur, à savoir le recours à Ariane ou un lanceur américain, a été réglé au bénéfice du lanceur européen. La décision finale est intervenue en 1987 et le satellite a été lancé en 1992.

TOPEX-POSEIDON fonctionne toujours, une performance exceptionnelle puisque la durée de vie moyenne d'un satellite est de 5 ans. Ce satellite de topographie des océans joue un rôle important dans la recherche océanographique, en particulier pour les 15 investigateurs principaux qui ont eu un accès immédiat à ses données.

En conséquence, dès 1993, la communauté scientifique s'est préoccupée de son successeur, intitulé JASON, dont la construction a été arrêtée en 1996 et qui sera lancé au printemps 2001, au profit d'une communauté élargie à 70 investigateurs principaux.

A cette date, faute d'avoir décidé en 1993 de construire deux satellites comme c'était nécessaire, il sera déjà indispensable de prendre une décision pour JASON 2. Son financement devrait reposer sur un partage à parts égales entre les Etats-Unis et l'Europe. La part européenne serait répartie à égalité entre l'organisation internationale EMEUTSAT et le CNES comme chef de file français.

En réalité, le financement français, actuellement discuté par le Comité des directeurs des grands organismes scientifiques, pourrait provenir, selon un mécanisme à mettre en place, du budget du CNRS, du budget de la Défense pour le compte du SHOM (Service hydrographique de la marine), de l'IFREMER et de Météo-France.

Parmi les autres satellites intéressant la recherche océanographique et actuellement en fonctionnement, il faut également citer les satellites ERS-1, lancé en 1991, et ERS-2, lancé en 1995, de surveillance permanente et tout temps des océans, des terres émergées et des glaces polaires qui utilisent des techniques radar.

Quant aux projets de satellites servant les recherches de l'océanographie, ils sont nombreux.

Le satellite japonais ADEOS-2, embarquant l'instrument POLDER pour la surveillance du phytoplancton via le suivi de la couleur de l'eau, sera lancé à la mi-2001.

Le satellite ENVISAT, qui sera lancé en juin 2001, permettra l'observation de l'atmosphère, de la surface de la Terre et des océans.

Le satellite CRYOSAT, dont le lancement est prévu à la mi-2003, permettra l'étude des glaces.

SMOS, à lancer en mi-2005, mesurera l'évolution de la salinité des océans.

M. Philippe ESCUDIER, Chef de la division altimétrie et du projet JASON au CNES, a précisé que les mesures faites par TOPEX-POSEIDON concernent la surface des océans, mais qu'elles sont significatives de ce qui se passe sur la colonne d'eau correspondante. Ce satellite a notamment permis de montrer que les courants océaniques circulent autour de creux et de bosses, de même que les vents dans l'atmosphère circulent autour des dépressions et des anticyclones.

De telles mesures permettent en outre de remonter à la température et à la salinité des océans. Les mesures faites par TOPEX-POSEIDON sont une source d'informations irremplaçables pour les modèles climatiques.

Le défi technologique est celui de la précision des mesures. Le Gulf Stream correspond à une bosse d'un mètre seulement. Par ailleurs, la variabilité naturelle des océans, due aux effets de dilatation, est de l'ordre de 10 cm. Au reste, les variations de niveau des eaux pouvant résulter de l'effet de serre sont de l'ordre de 1 à 2 mm par an.

Le système DORIS mis au point par la France permet un positionnement absolu et donc la mesure du niveau des océans indépendamment du niveau des terres émergées. Le satellite TOPEX-POSEIDON permet ainsi de mettre en évidence les mouvements de la croûte terrestre. Ses acquis technologiques seront repris sur le système ENVISAT.

Le successeur de TOPEX-POSEIDON, JASON 1, aura la même fonction. Il est important de noter à cet égard que, si le projet ressort également d'une coopération franco-américaine, les rôles sont inversés par rapport à la situation antérieure, puisque la NASA fournira le lanceur et le CNES le satellite sur la base de la plate-forme multi-usages PROTEUS mise au point par Alcatel. JASON pèsera 500 kg contre 2500 kg pour son prédécesseur, avec un coût trois fois inférieur et des performances largement supérieures.

Au reste, l'ère de l'océanographie opérationnelle est proche grâce à la mise en service de satellites dérivés de la plate-forme PROTEUS.

*

Mme Laurence EYMARD a insisté sur l'importance de l'observation du niveau des mers. L'utilisation combinée de TOPEX-POSEIDON et du satellite ERS a permis d'atteindre une résolution suffisante pour suivre l'évolution de la circulation océanique à moyenne échelle, contribuant au développement de l'océanographie opérationnelle. ENVISAT emportant également un altimètre, le suivi altimétrique sera assuré mais il n'est pas prévu actuellement de mission altimétrique en orbite polaire au delà. Ce suivi du niveau des mers par deux altimètres est pourtant une priorité de la communauté scientifique. Parmi les autres priorités en matière d'observation spatiale de l'océan, le satellite ADEOS-2-POLDER permettra le suivi du plancton et la mission SMOS de mesure de la salinité est un ambitieux projet technologique.

On ne saurait trop souligner l'importance des mesures satellitaires pour l'alimentation des modèles et donc la nécessité à la fois d'un suivi continu dans le temps et d'émettre de nouvelles idées de mesures depuis l'espace.

Mais l'océanographie par satellite nécessite plus que jamais un cadre européen et international, puisque les contextes budgétaires ne sont pas favorables.

La parole a ensuite été donnée à M. Christian LE PROVOST, pour une présentation de l'océanographie spatiale opérationnelle.

*

M. Christian LE PROVOST, Directeur de recherche au Laboratoire d'études en géophysique et océanographie spatiales (LEGOS) du CNRS, a mis l'accent sur la notion fondamentale en océanographie de système intégré, qui comprend les navires de surface, les réseaux de mouillages et de bouées dérivantes et les satellites, l'ensemble permettant d'appréhender les évolutions climatiques à court et à long terme.

L'observation de l'océan, pour répondre aux besoins de couverture globale à long terme va reposer désormais sur des réseaux maintenus nécessairement en mode opérationnel.

La surveillance de la ceinture océanique équatoriale à partir d'un réseau de mouillages s'effectue dans le cadre d'une coopération internationale impliquant les Etats-Unis (NOAA), le Japon, le Brésil et la France. Comme les mesures satellitaires, les observations des bouées parviennent en temps réel dans les centres de traitement.

Le projet ARGO consiste en la création d'ici à 2003 d'un réseau de 3000 bouées dérivantes, destinées à la surveillance à long terme du contenu de l'océan en profondeur, celles-ci descendant périodiquement à 800 m puis à 2000 m et revenant ensuite en surface selon une technologie maîtrisée seulement par la France et les Etats-Unis.

Au final, les différentes observations faites par le système global alimenteront des centres qui en effectueront la synthèse. Ces centres sont en cours de création, dans le cadre de la concertation internationale GODAE (Global Data Assimilation Experiment).

Le projet français correspondant, qui s'intitule MERCATOR et est conduit par tous les acteurs concernés - CNES, CNRS/INSU, IFREMER, IRD, Météo-France, SHOM -, a pour objectif la création d'un centre qui, à l'image de Météo-France pour la météorologie, sera en mesure de prédire l'état de l'océan à 8 et 15 jours, afin de répondre aux besoins exprimés par les acteurs économiques.

En tout état de cause, l'évolution climatique de l'océan est complexe et doit faire l'objet d'une observation permanente et continue si l'on veut la comprendre et la prédire. La France dispose d'atouts considérables pour un tel projet.

La parole a ensuite été donnée à M. Maurice HÉRAL pour un exposé sur la recherche halieutique.

*

M. Maurice HÉRAL, Directeur des ressources vivantes à l'IFREMER, a précisé qu'une étroite coordination européenne régit la recherche halieutique réalisée en pleine mer et dans la zone économique de 200 miles.

Les campagnes correspondantes, cofinancées par l'Union européenne, représentent 20 % de l'activité de la flotte hauturière de l'IFREMER et sont concentrées sur le Thalassa, navire cofinancé par l'Espagne, qui en assume près de 70 %.

La recherche relative à la zone nationale de 15 miles est assurée par les trois navires de façade de l'IFREMER. L'un des trois navires, le Thalia, atteint l'âge limite de vingt années, et un autre, le Gwen Drez atteint 15 années de fonctionnement. Du fait de leur obsolescence, le renouvellement de ces navires d'environ 35 mètres est indispensable, en concertation avec l'INSU, pour un coût unitaire d'environ 50 millions de francs.

La recherche halieutique ne se limite plus ni à l'évaluation des stocks de ressources vivantes ni au contrôle des quotas de pêche.

Son objectif est aussi désormais de mesurer l'impact à long terme de la pêche sur les écosystèmes, en application de la convention de Rio de 1992 sur la biodiversité et d'évaluer les interactions entre la pêche, les autres activités humaines et le climat. Les recherches correspondantes déboucheront en 2002 sur une nouvelle politique européenne de la pêche et sur un code de conduite pour une pêche durable respectueuse de la biodiversité.

Les stations marines participent aux recherches halieutiques, notamment pour l'aquaculture et la conchyliculture. Le coût unitaire des systèmes expérimentaux permettant l'étude de la reproduction et des pathologies s'élève à 30 millions de francs. Ces systèmes devront davantage s'ouvrir à l'avenir, notamment aux universités, dans le cadre d'unités mixtes, et se fédérer dans un réseau européen.

En tout état de cause, les travaux scientifiques sont coordonnés par un conseil international de l'exploitation de la mer, qui porte une attention particulière au contrôle des populations. Les programmes nationaux en Europe sont financés à 70 % par la Direction générale Pêche de la Commission européenne, dans le cadre de contrats à 5 ans. La tâche primordiale est le recensement des ressources, puisque aussi bien 80 % des pêcheries européennes sont surexploitées.

M. Jean-François MINSTER s'est interrogé sur l'opportunité de pérenniser le financement actuel des recherches halieutiques par la DG pêche, suivant une procédure indépendante du financement des autres recherches.

*

M. Philippe HUCHON, Professeur à l'Université Paris VI, a ensuite exposé les grandes lignes des travaux réalisés par l'IFREMER en géosciences marines. Le premier objectif de ces disciplines est de répondre à un besoin d'exploration.

On peut dire à cet égard que l'océan est moins bien connu qu'une planète comme Mars. Des explorations récentes ont pu, par exemple, conduire à la découverte de récifs profonds.

Les géosciences marines répondent également au besoin d'observations sismiques globales et régulières ou à l'étude du champ magnétique terrestre.

En tout état de cause, les navires de la flotte hauturière de l'IFREMER sont indispensables pour installer et maintenir sur les fonds marins les capteurs de mesure, à l'aide d'outils téléopérés.

A cet égard, M. Jean-François MINSTER a signalé que la surveillance de la convention sur l'interdiction des essais nucléaires a nécessité la mise au point de mouillages acoustiques et d'hydrophones d'une très grande fiabilité. Il s'agit de systèmes in situ avec transmission des données par fibres optiques qui fournissent des mesures d'un intérêt scientifique certain, donnant un autre exemple d'une utilisation duale de dispositifs répondant initialement à une demande militaire.

M. Daniel DESBRUYÈRES, Directeur du département de l'environnement profond, a ultérieurement présenté les grandes lignes des travaux d'écologie et biologie marines conduits à l'IFREMER par une centaine de chercheurs.

La mer et les fonds sous-marins constituent le " grand égout " de l'humanité. Le principal objectif de la recherche est l'acquisition de données en vue de prévoir l'impact des activités anthropiques sur le milieu profond.

Une approche exploratoire est donc indispensable pour effectuer l'inventaire de la biodiversité, pour étudier la biomasse et la biosphère en sub-surface, y compris en dessous des sédiments. C'est dans le cadre de tels travaux qu'ont été découvertes, autour de sources hydrothermales, des molécules pré-biotiques, qui présentent un intérêt fondamental, notamment dans le domaine de la réparation des acides nucléiques et ouvrent peut-être des perspectives pour les biotechnologies.

Les submersibles habités ou non, sont l'outil principal de telles recherches. Une coopération bilatérale existe dans ce domaine avec les Etats-Unis. Depuis le 5ème PCRD, un financement européen a été mis en place, contribuant au paiement du temps navire et à la prise en charge du coût de mise en _uvre des submersibles.

Comme on l'a vu précédemment, la France est le seul pays de l'Union européenne à posséder des engins comme le Cyana pour l'étude des fonds à moins de 3000 mètres, le Nautile pour les profondeurs inférieures ou égales à 6000 mètres ou le ROV Victor 6000.

Les Etats-Unis possèdent d'une part un sous-marin scientifique allant jusqu'à 4000 mètres de profondeur et doté d'un bras plus efficace que celui du Nautile, d'autre part un ROV à 6000 mètres, et, enfin, un autre sous-marin de l'US Navy pour les profondeurs de 6000 mètres.

Le Japon possède deux sous-marins, l'un descendant à 3000 mètres et l'autre à 6000 mètres, ainsi qu'un ROV pour des profondeurs allant jusqu'à 11 000 mètres. Quant à la Russie, ses deux submersibles à grande profondeur ne semblent pas réellement opérationnels.

En tout état de cause, si certaines études physiologiques demandent une intervention humaine, il ne fait toutefois pas de doute que les robots vont continuer de se perfectionner. Il reste que les sous-marins et les ROV devraient continuer d'être des outils complémentaires.

*

La discussion a ensuite porté sur les menaces de pollution des fonds sous-marins.

En réponse à une question de M. Gilles COHEN-TANNOUDJI, membre du groupe de travail, sur l'intérêt scientifique de projets d'immersion dans les sédiments sous-marins de déchets radioactifs, M. Laurent LABEYRIE a souligné que les fonds sous-marins recèlent des fluides circulants avec des gradients de température importants et qu'en outre, le forage expose à la libération de méthane sous-marin.

M. Daniel DESBRUYERES a par ailleurs rappelé qu'une convention internationale interdit désormais l'immersion de déchets radioactifs. Au demeurant, il existe d'autres menaces, à savoir l'immersion à grande échelle de résidus d'incinération d'ordures ménagères (REFIOM)

A propos des menaces d'immersion ou de rejets en mer en tous genres, M. Jean-François MINSTER a indiqué que l'IFREMER est consulté pour toute opération touchant à l'environnement côtier. Sa doctrine est de préconiser le dépôt sur le continent si les déchets sont concentrés ou la dispersion en mer si ceux-ci sont peu concentrés.

M. Philippe JEAN-BAPISTE a signalé que semblent venir à maturité, aux Etats-Unis en particulier, les projets de capture, de liquéfaction et de stockage en mer du CO2 produit par des centrales électriques, dont les conséquences pourraient se révéler néfastes pour l'environnement marin.

En réponse à M. Roger BALIAN, M. Jean-François MINSTER a indiqué que les projets d'exploitation des nodules métalliques sous-marins ont fait long feu, pour des raisons économiques tenant à la baisse des cours des matières premières minérales et aux coûts élevés d'une exploitation à des profondeurs de plusieurs kilomètres de nodules dont la concentration ne dépasse pas 1 %.

Des projets d'exploitation d'autres types de dépôts métallifères existent dans les zones nationales de certains pays, ce qui rend d'ailleurs difficile l'accès des scientifiques à ces zones.

L'exploitation de l'énergie thermique des mers se heurte également à des obstacles économiques, bien que la faisabilité technique soit avérée, notamment autour des îles tropicales. Dans le secteur des énergies nouvelles renouvelables, l'éolien devrait apporter une meilleure réponse, mais les fermes " off shore " d'aérogénérateurs créent des conflits d'usage avec la pêche et le transport maritime.

*

A l'issue de la séance, M. René TRÉGOUËT, Sénateur, rapporteur, a remercié chaleureusement les participants et a estimé urgent d'améliorer les connexions du monde scientifique avec les autorités et les représentants politiques car ce sont bien les chercheurs qui éclairent l'avenir.

11. Météorologie - mercredi 25 octobre 2000

CNES

· M. Jean-Louis FELLOUS, Délégué à l'étude et à l'observation de la Terre

· M. Arnaud BENEDETTI, Chargé des relations avec le Parlement

CNRS

· M. Gilles BERGAMETTI, Laboratoire interuniversitaire des systèmes atmosphériques (LISA) - CNRS / Univ. Paris 7 / Univ. Paris 12

· Mme Laurence EYMARD, CNRS, Présidente du groupe ad-hoc Terre-Océan-Atmosphère-Biosphère du Comité des Programmes scientifiques du CNES

· M. Daniel GUEDALIA, Laboratoire d'aérologie - CNRS / Observatoire Midi-Pyrénées / Univ. Paul Sabatier Toulouse III, Président de la Commission spécialisée océan-atmosphère

· M. Franck ROUX, CNRS - INSU, chargé de mission pour la physique de l'océan et de l'atmosphère

· M. Michel VAUCLIN, Laboratoire d'études des transferts en hydrologie et environnement (LTHE) CNRS / Univ.Grenoble 1 / INP Grenoble / IRD

· Mme Dominique VIOLLET, Chargée des relations avec les élus

Institut Pierre-Simon Laplace (IPSL)-CETP, LMD, LODYC, LPCM, LSCE, SA-CNRS/Univ. P & M Curie Paris VI/Univ. Versailles-St Quentin-CEA-ENS-ORSTOM-CNES

· M. Gérard MÉGIE, directeur de l'IPSL

· Mme Danièle HAUSER, Centre d'étude des environnements terrestres et planétaires (CETP) - CNRS / Univ. Versailles, Présidente du comité scientifique du programme national de recherche sur l'atmosphère et l'océan

· M. Jean JOUZEL, Laboratoire des sciences du climat et de l'environnement LSCE-CNRS/CEA

· M. Hervé LE TREUT, Laboratoire de Météorologie dynamique - CNRS / ENS / Ecole Polytechnique / Univ.Paris 6

Météo-France

· M. Daniel CARIOLLE, Directeur de la recherche

Après avoir remercié les participants d'avoir accepté l'invitation de l'Office, M. Christian CUVILLIEZ, Député, rapporteur, a indiqué qu'après leur rapport sur le synchrotron qui a donné une deuxième chance au projet SOLEIL, les Rapporteurs de l'Office porte leur attention sur l'ensemble des très grands équipements (TGE) pour proposer des réponses à différentes interrogations sur la nécessité éventuelle de créer de nouvelles catégories d'équipements lourds pour la recherche en incluant par exemple les réseaux ainsi que sur l'opportunité de mettre au point des mécanismes de hiérarchisation des projets et d'introduire de nouveaux processus de coopération.

La parole a ensuite été donnée à M. Gérard MÉGIE pour une présentation générale de la météorologie et de la recherche sur l'atmosphère.

*

M. Gérard MÉGIE, Directeur de l'Institut Pierre-Simon LAPLACE, a indiqué que l'atmosphère est un milieu complexe qui est le siège de multiples interactions avec les océans et la biosphère. Une recherche interdisciplinaire est donc indispensable. A la nécessité d'une description des phénomènes globaux de l'atmosphère, s'ajoute celle de prendre en compte des mécanismes locaux. En outre, les échelles de temps à considérer vont du court terme, par exemple, pour les phénomènes de turbulences, au long terme, pour l'évolution de l'atmosphère. Par ailleurs, l'atmosphère est un milieu qui connaît des variations naturelles mais les conséquences des activités humaines se superposent à ces dernières. Enfin, l'étude scientifique de l'atmosphère met nécessairement en _uvre un couplage étroit entre les observations et les modèles qui intègrent ces dernières selon divers processus et qui présentent un degré de complexité extrême.

La recherche atmosphérique entreprend de répondre à plusieurs types de demandes. La prévision météorologique et ses débouchés opérationnels sont bien sûr le premier moteur des recherches conduites dans ce domaine. Mais l'étude du changement climatique et donc de l'environnement planétaire prend une importance accrue. Si l'évolution de l'atmosphère n'est pas la seule composante de l'évolution climatique, c'est toutefois la composante dont les changements sont les plus rapides et dont la compréhension est fondamentale dans la perspective de la lutte contre l'effet de serre. Par ailleurs, la recherche atmosphérique doit aussi répondre aux interrogations sur l'évolution de la couche d'ozone, sur la qualité de l'air et doit contribuer à la prévention des risques naturels.

La recherche atmosphérique représente une communauté d'environ 600 chercheurs et 400 ingénieurs, techniciens et administratifs, répartis entre le CNRS, les universités, le CEA, Météo-France, l'IRD (Institut de recherche sur le développement) et l'INRA.

Le budget total annuel consolidé de la recherche atmosphérique peut être estimé à hauteur de 1,2 milliard de francs. Ce montant approché inclut les dépenses de personnel, de fonctionnement et d'amortissement des équipements. Il sert à financer la conception et l'utilisation des outils et des réseaux d'observation de tous types, les travaux de modélisation et de simulation, ainsi que la programmation des instruments et des campagnes de mesure.

Quels sont les grands équipements de la recherche atmosphérique ?

Il en existe quatre types : la flotte aérienne, les satellites, les réseaux d'observation et les calculateurs.

La flotte aérienne a pour fonctions l'observation et l'échantillonnage. Les avions représentent la première composante de la flotte aérienne. L'investissement correspondant s'élève à 150 millions de francs, pour des équipements dont la durée de vie est de 5 à 10 ans. Les dépenses de fonctionnement s'élèvent à 15 millions de francs par an, en budget consolidé. Au total, sur période de 10 ans, la dépense consolidée s'élève à 300-400 millions de francs. Les ballons atmosphériques, seconde composante aérienne, entraînent une dépense de fonctionnement de 80 millions de francs par an, dont la moitié correspond aux activités de test des équipements satellitaires du CNES.

Les satellites météorologiques répondent au double objectif de l'observation globale et de la mise en cohérence des données. La dépense unitaire d'investissement varie de 50 millions à 3 milliards de francs selon le type de satellite, pour une durée de vie moyenne de 5 ans, qui va de 3 à 10 ans. L'intervalle de coût rend compte des différences de nombre et de complexité des fonctions des satellites. Le coût moyen annuel consolidé des opérations pour un engin de ce type est de l'ordre de 30 millions de francs.

Les réseaux d'observation ont pour objet la surveillance et la validation des modèles. Leur intérêt est de pouvoir fournir des séries longues, indispensables par exemple pour distinguer les parts respectives de la variabilité naturelle et de la variabilité anthropique du climat et approfondir la compréhension des systèmes incluant l'atmosphère.

En réalité, il est impossible de découpler l'approche par les observations au sol et l'approche satellitaire. L'investissement total qu'il est nécessaire de faire dans les réseaux d'observation atteint 100 millions de francs pour avoir des installations pérennes sur une dizaine d'années, le coût annuel de fonctionnement représentant quant à lui une dépense de 25 millions de francs en budget consolidé. Bien évidemment, les réseaux d'observation n'ont d'intérêt que s'ils sont insérés dans une coopération européenne et internationale.

Les calculateurs de puissance sont le quatrième type d'équipements lourds indispensables aux recherches atmosphériques. Leur fonction est de prendre en charge les modèles de simulation météorologique et de produire les prévisions correspondantes à court ou à long terme.

S'il est difficile d'attribuer à la seule recherche atmosphérique l'usage d'ordinateurs employés par ailleurs pour des études liées au couplage de l'atmosphère avec les océans et la biosphère, on peut néanmoins estimer le coût d'investissement cumulé à 40 millions de francs pour disposer, sur une durée de 5 ans, des ressources de calcul suffisantes, correspondant à une seule machine dédiée ou à du temps de calcul fourni par plusieurs ordinateurs distincts, comme c'est plutôt le cas actuellement. Du fait de l'explosion des besoins en temps de calcul, la durée de vie de cet investissement lourd ne peut excéder cinq années.

Les grands équipements de la recherche atmosphérique ont une fonction d'intégration fondamentale. Mais ils ne sauraient dispenser du développement d'outils de plus petites dimensions.

Les capteurs de télédétection sont omniprésents dans les satellites et la flotte aérienne, mais aussi dans les réseaux d'observation terrestre. L'augmentation de sensibilité de ces dispositifs est un objectif permanent, de même que l'élargissement de la gamme des mesures qu'ils peuvent effectuer. Les algorithmes de restitution des variables géophysiques à partir des mesures doivent aussi faire l'objet de développements constants, ce qui peut avoir des débouchés pour les services à forte valeur ajoutée dans le domaine de l'informatique.

Enfin, l'évolution technique doit être permanente dans le but de parvenir à une automatisation et à une miniaturisation accrues des composants et à une accélération de la transmission de données. Ces développements innovants trouvent un cadre optimal dans une coopération européenne et internationale, qui permet des progrès plus rapides et garantit la compatibilité des mesures.

*

Si l'on excepte les satellites, le plus souvent européens voire internationaux, les équipements de la recherche atmosphérique ressortissent d'investissements nationaux ou bilatéraux dans certains cas. La coopération européenne porte sur la coordination scientifique des outils en ce qui concerne les approches expérimentales, les codes de calcul et leur mise en oeuvre, ainsi que sur la définition d'une stratégie.

Au demeurant, les conventions internationales sur le changement climatique, la protection de la couche d'ozone ou les pollutions transfrontières induisent une liaison forte entre la recherche et la décision publique.

La recherche atmosphérique est ainsi étroitement liée à l'expertise, que celle-ci soit mise en oeuvre dans le cadre international de l'OMM (Organisation météorologique mondiale), du GIEC-IPCC (Groupe intergouvernemental d'experts sur le changement climatique - International Panel on Climate Change), du Programme des Nations Unies sur l'environnement, ou dans le cadre national. Il faut noter à cet égard une interaction forte entre la recherche atmosphérique et l'étude des conséquences économiques, sociales et juridiques du changement climatique.

Il faut également souligner l'accélération de l'ensemble du processus recherche - expertise - décision, qui correspond aux négociations sur l'application du Protocole de Kyoto. De nombreux points forts de la négociation, comme par exemple la notion de puits de carbone, font l'objet de controverses scientifiques quant à leur contribution réelle à la réduction des émissions de carbone. La recherche atmosphérique est directement interpellée à cette occasion, alors que le calendrier des décisions à prendre s'accélère.

Au total, il semble indispensable de rapprocher la recherche atmosphérique et l'expertise, de la décision politique. En prolongement d'une réflexion à conduire sur la nécessaire appropriation des résultats de la recherche par les responsables politiques, il convient de multiplier les lieux d'échange entre le monde politique et les chercheurs. Ces échanges conduiront d'ailleurs à la naissance d'idées nouvelles qui elles-mêmes se traduiront par le lancement de nouvelles études, selon un processus bénéfique à tous.

M. René TRÉGOUËT, Sénateur, rapporteur, a fait état des regrets de la communauté scientifique de l'océanographie de n'avoir pas été associée à la préparation de la conférence de La Haye.

M. Gérard MÉGIE a indiqué que la communauté des chercheurs en météorologie est dans la même situation.

Il existe une césure manifeste et dommageable entre les chercheurs et les experts scientifiques d'une part, et l'administration d'autre part, de sorte que la recherche amont et les études relatives aux mesures d'application du Protocole de Kyoto ne sont pas suffisantes.

Il convient donc de mettre en place un système de bouclage afin que la recherche éclaire efficacement la décision politique.

M. Jean JOUZEL, Directeur de recherche au Laboratoire des sciences du climat et de l'environnement (LSCE) - IPSL - CEA/CNRS, a confirmé qu'il n'a pas été invité à faire partie de la délégation française à la Conférence préparatoire de Lyon et à la Conférence de La Haye (CoP6) de novembre prochain, alors qu'il fait partie du GIEC.

M. Daniel CARIOLLE, Directeur de la recherche de Météo-France, a indiqué que si la responsabilité des négociations sur les mécanismes du Protocole de Kyoto appartient nominalement au ministère des affaires étrangères, au ministère de la recherche et à la MIES (mission interministérielle sur l'effet de serre), en réalité l'articulation entre les trois parties prenantes est difficile. Il faudrait en tout état de cause une organisation lisible des liens de la recherche et de l'expertise avec la décision.

M. Gérard MÉGIE a jugé cette organisation d'autant plus indispensable que de nombreux travaux de recherche sont encore à réaliser, non seulement dans le domaine du changement climatique, mais aussi pour accroître l'efficacité des mesures de protection de la couche d'ozone et de la qualité de l'air. A cet égard, la traduction des décisions communautaires en décisions locales s'avère complexe et difficile.

M. Jean JOUZEL a confirmé que Mme Sylvie JOUSSAUME, M. Hervé LE TREUT et lui-même représentent la France au GIEC-IPCC pour le changement climatique et qu'aucun d'entre eux n'a de contacts avec le ministère des affaires étrangères. Même si une visite de représentants de la MIES est annoncée au LSCE de Saclay, aucun scientifique français ne devrait être présent à la Conférence de La Haye. Il faudrait au contraire un lieu de discussion entre les négociateurs et les scientifiques.

M. René TRÉGOUËT, Sénateur, rapporteur, a indiqué à cet égard, que le groupe de prospective du Sénat consacrera l'une de ses réunions de 2001 à la question du changement climatique et que les experts français du GIEC y seront bien entendu conviés.

M. Daniel CARIOLLE a estimé que les différents secteurs socio-économiques de l'énergie, et en particulier l'industrie pétrolière sont plus impliqués dans les négociations sur le changement climatique que ne le sont les spécialistes des sciences du climat.

M. Gérard MÉGIE a noté à cet égard que la réactivité la plus forte aux données de la négociation se trouve du côté des industriels.

La parole a ensuite été donnée à M. Daniel CARIOLLE, pour une présentation générale de la recherche à Météo-France.

*

M. Daniel CARIOLLE, Directeur de la recherche de Météo-France, a commencé son exposé par la mise en évidence des interactions entre la recherche sur l'atmosphère et la météorologie opérationnelle. La météorologie opérationnelle fournit des données précieuses pour la recherche, tandis que cette dernière permet de faire progresser les prévisions.

Au reste, une organisation mondiale, l'OMM (Organisation Météorologique Mondiale), fondée en 1947 dans le cadre de l'ONU, a pris la succession de l'IMO (International Meteorogical Organisation) et assure la coordination de projets opérationnels et de recherches dans le domaine de la météorologie.

La coopération internationale en matière de météorologie date en réalité du milieu du XIXe siècle, quand, à la suite de l'ouragan du 14 novembre 1854, Le Verrier créa le premier réseau de stations météorologiques reliées par le réseau télégraphique et organisa, dès 1855, un échange régulier de données météorologiques entre divers observatoires européens.

L'échange de mesures météorologiques entre les pays est indispensable puisque les données nécessaires pour faire une prévision à 24 heures pour l'Europe de l'Ouest doivent s'étendre de l'Atlantique Nord au Golfe persique et pour une prévision à 72 heures du milieu du Pacifique à l'Indonésie en couvrant l'Amérique et l'Europe, et être mondiales pour une prévision à 120 heures. La tâche primordiale de l'OMM est d'organiser la répartition des efforts et de veiller au transfert des informations.

S'agissant de l'organisation française, les données collectées au sol, par les bouées ou les stations de radiosondages ainsi que les données collectées par la flotte aérienne convergent vers Toulouse, via le réseau opérationnel GTS et permettent l'élaboration de prévisions météorologiques, tout en étant archivées afin de constituer une mémoire de l'atmosphère sur une large plage de temps.

Au plan international, les données appartiennent aux Etats qui en assurent l'acquisition mais le cadre d'échanges mis en place par l'OMM permet un accès gratuit aux données essentielles des autres pays, au coût de mise à disposition près. Ce système ne supprime toutefois pas tout conflit d'intérêt entre les utilisateurs commerciaux des données météorologiques.

Les services météorologiques nationaux sont en réseau d'une part avec les activités opérationnelles comme la sécurité civile, les armées, l'aéronautique, la navigation maritime et le grand public, et, d'autre part, avec les équipes de recherche travaillant sur l'instrumentation, sur l'assimilation des données, sur la modélisation et la prévision, ainsi que sur le changement climatique.

Météo-France est un établissement public sous la tutelle du ministère des transports. Son centre de recherche, le CNRM (Centre national de recherches météorologiques de Météo-France), dispose sur le BCRD d'un budget annuel de 120 millions de francs et de 245 emplois scientifiques. Le CNRM possède d'une part de moyens lourds propres, à savoir un avion et une veine hydraulique, d'autre part de moyens partagés avec les autres services de Météo-France, en particulier son réseau synoptique et son super-calculateur, moyennant une contribution annuelle de 23 millions de francs par an pour l'accès à ce dernier, et, enfin, de moyens utilisés en coopération interorganisme, par exemple un avion de recherche avec l'INSU, le CNES, Météo-France et l'IGN, et de moyens utilisés en coopération internationale, par exemple certains codes numériques et les données satellitaires.

*

M. Daniel CARIOLLE a ensuite donné des exemples de synergies entre la recherche et l'opérationnel.

L'épisode d'orages de grêle intenses du 21 avril 1999 dans le Sud-Ouest s'est conclu par le dépôt d'une plainte contre Météo-France pour défaut de prévisions par un groupe de viticulteurs du Sud-Ouest. Si les radiosondages et les radars n'ont effectivement pu déceler une évolution très localisée, un modèle a été mis au point postérieurement et s'est avéré d'une précision suffisante. Il reste aujourd'hui à réduire les temps de calcul requis, qui sont du même ordre de grandeur que la durée de la prévision recherchée.

La deuxième tempête du 27 décembre 1999 avait vu les modèles incapables d'assimiler les données d'observation sur les vents et devenir inutilisables. Depuis lors, grâce aux nouvelles méthodes d'assimilation des données, les modèles ont été perfectionnés et sont désormais capables de prendre en compte des situations extrêmes telles que celles des tempêtes de la fin de l'année 1999.

En réponse à une question de M. Jean GALLOT, membre du groupe de travail, sur les apports des mathématiques aux modèles météorologiques, M. Daniel CARIOLLE a précisé que les méthodes de contrôle optimal ont été à l'origine mises au point par les mathématiciens de l'école française, notamment par l'équipe du Professeur LIONS puis appliquées au domaine de la météorologie dans les laboratoires universitaires, au CNRS et à Météo-France.

Inversement, la météorologie opérationnelle apporte une contribution essentielle à la recherche sur l'atmosphère. Par exemple, les calculs effectués à partir des radiosondages ont permis une nouvelle estimation des vents atmosphériques survenus dans le passé, avec une remontée à l'année 1945. La conclusion de ces travaux est qu'on ne peut déceler aucune tendance récente à l'augmentation des vents en surface et aux tempêtes.

Par ailleurs, les mesures de température issues du réseau météorologique opérationnel depuis 1865, ont permis, après les retraitements imposés par exemple par l'urbanisation, de déterminer l'ampleur du réchauffement planétaire.

*

Si la coopération internationale en météorologie a pour berceau l'OMM, une coopération européenne forte existe également, avec principalement l'existence du CEPMMT et d'EUMETSAT.

Le Centre européen pour la prévision météorologique à moyen terme (CEPMMT), issu d'une action Cost, rassemble 17 Etats membres et dispose d'un budget total de 235 millions de francs, la part de la France se montant à 16,4 % du total, soit 37 millions de francs inscrits au BCRD et transitant par le budget du ministère des affaires étrangères. Sa mission est la recherche sur les prévisions au delà de 5 jours.

EUMETSAT est une organisation intergouvernementale créée en 1986, afin de gérer le programme de satellites météorologiques Meteosat lancé initialement par l'ESA, qui rassemble 17 Etats membres européens et 3 Etats associés. Le siège de l'organisation se situe à Darmstadt, qui héberge également un centre de contrôle. Le réseau au sol d'EUMETSAT comprend une tête de réseau à Fucino en Italie et des stations relais à Bracknell, Toulouse et Rome.

Le budget d'EUMETSAT, de l'ordre de 1,6 milliard de francs par an, est financé par les Etats membres au prorata de leur PNB, soit 16,58 % pour la France. La participation française, qui est reconnue par le ministère de la recherche comme un TGE, atteint donc 263 millions de francs pour l'année 2000 dont 245 millions de francs figurent au BCRD.

Le développement, la fabrication et le lancement des satellites sont de la responsabilité de l'ESA, EUMESAT en prenant le relais dès la mise en orbite. Le septième exemplaire de la série des satellites Meteosat est actuellement en orbite géostationnaire à 0° de longitude, Meteosat-5 et Meteosat-6 opérant à 63° Est ou servant de satellite de réserve.

Le programme MSG (Meteosat Seconde Génération) prendra le relais de la série des satellites Météosat actuels en 2002 et assurera une continuité du programme de surveillance météorologique, avec les lancements de MSG-1 en 2002, de MSG2 en 2003-2004 et MSG3 en 2008-2009.

Parallèlement, EUMETSAT étudie le nouveau programme de satellites défilants sur orbite polaire EPS (European Polar Satellite). L'intérêt des satellites défilants, qui volent à une altitude inférieure, est de donner des mesures d'une précision meilleure que celle des satellites géostationnaires. Le programme EPS est conduit en coopération avec les Etats-Unis, afin d'optimiser le système. Les trois premiers satellites du programme EPS seront des satellites METOP.

En tout état de cause, l'utilisation des données satellitaires s'avère primordiale, non seulement pour la prévision météorologique mais aussi pour la recherche relative au climat, qui inclut nécessairement une dimension à long terme.

C'est pour tenir compte de cette nouvelle vision de l'exploitation des satellites que la Convention EUMETSAT va prochainement être modifiée afin d'inclure dans ses missions la surveillance météorologique à long terme.

La parole a ensuite été donnée à M. Jean-Louis FELLOUS pour un exposé sur les satellites météorologiques.

*

M. Jean-Louis FELLOUS, Délégué du CNES à l'étude et à l'observation de la Terre, a indiqué que le CNES est essentiellement une agence de recherche et développement qui développe de nouveaux outils et crée des systèmes en réponse aux besoins des différentes communautés d'utilisateurs ou de chercheurs.

Comment est déterminé le programme d'activité du CNES ?

S'agissant de la recherche sur l'atmosphère, le comité des programmes scientifiques du CNES s'appuie sur les recommandations d'un groupe ad-hoc intitulé Terre-Atmosphère-Océan-Biosphère qui le conseille sur les priorités, au terme de réunions annuelles et de séminaires de prospective dont le dernier s'est tenu en 1998 et le prochain devrait avoir lieu à la fin 2001 ou au début 2002.

Le CNES s'intéresse à la recherche sur l'atmosphère depuis l'origine puisque 95 % du signal reçu par tout satellite traduit l'état de l'atmosphère, un écran inévitable.

Au reste, parmi les premiers grands programmes du CNES, il y a eu la définition de satellites météorologiques géostationnaires, dont est issu le programme Meteosat, confié à l'ESA et ultérieurement transféré à EUMETSAT, qui couvre avec succès les besoins de l'Europe et de l'Afrique.

Par la suite, le CNES s'est efforcé de contribuer à l'amélioration des satellites météorologiques opérationnels. Actuellement, l'effort porte sur la mise au point de l'instrument complexe IASI proposé dès 1989 par le comité des programmes scientifiques, qui volera sur le satellite METOP, premier satellite européen polaire défilant, dont le lancement est prévu en 2005. Le développement du premier instrument IASI est financé par le CNES et EUMETSAT et la réalisation de deux modèles supplémentaires par ce dernier seul, pour un montant de 1,5 milliard de francs.

La réalisation de projets spatiaux en coopération internationale avec les Etats-Unis, le Japon et l'Inde constitue une autre voie de progrès pour la recherche atmosphérique. Au sein de l'ESA, où les programmes d'observation de la Terre sont facultatifs, le CNES s'engage généralement au delà de la répartition au prorata du PNB qui est de règle pour les programmes obligatoires, soit environ 16 % pour la France.

La parole a ensuite été donnée à Mme Laurence EYMARD pour une présentation des priorités de la recherche sur l'atmosphère dégagées par la communauté scientifique dans le domaine des satellites.

*

Mme Laurence EYMARD, Présidente du groupe ad-hoc Terre-Atmosphère-Océan-Biosphère du comité des programmes scientifiques du CNES, a précisé que ce groupe rassemble des chercheurs des différents organismes concernés par l'observation spatiale de la Terre. Les priorités qu'il a définies sont d'une part le développement des capteurs spatiaux, d'autre part la continuité des observations et enfin la participation à la mise au point de nouvelles missions de recherche.

S'agissant de l'observation de l'atmosphère et de la surface, un premier objectif est la détection et le suivi des constituants atmosphériques. Au delà des mesures de température et d'humidité, il convient de suivre en particulier l'évolution de l'ozone, des gaz naturels et des gaz anthropogéniques. Pour la haute atmosphère, le suivi du trou d'ozone et l'étude des échanges troposphère-stratosphère apparaissent d'une importance particulière.

L'étude des nuages représente un autre objectif, d'une part en raison de leur rôle dans le cycle de l'eau atmosphérique mais aussi du fait de leur rôle dans le bilan radiatif terrestre, deux rôles qui influent directement sur les prévisions météorologiques et climatiques.

Une autre priorité de recherche est la mesure du vent en air clair qui n'a pas encore été réalisée à partir des satellites.

L'hydrologie continentale est le dernier axe prioritaire en ce qu'elle concerne la biosphère et les contenus en eau superficielle.

La recherche sur les capteurs revêt dans ces conditions une importance particulière. La mise en évidence du profil atmosphérique suivant la température et les constituants requiert une combinaison de mesures dans la gamme de longueurs d'onde ultraviolet / visible / infrarouge et en micro-ondes. L'étude de l'humidité au sol dans le cadre du projet SMOS mettra en oeuvre des antennes interférométriques. Ce sont des lidars qui rendront possible la recherche sur les nuages élevés et le vent. Enfin, les travaux sur les nuages et les précipitations exigeront une combinaison de radars, de radiomètres micro-ondes et visible / infrarouge.

S'ils apportent une contribution essentielle à la météorologie opérationnelle, les satellites géostationnaires sont aussi des outils indispensables pour la recherche en ce qu'ils permettent d'améliorer la compréhension de l'atmosphère, et notamment de paramètres comme la couverture nuageuse, la température de surface ou l'humidité. Toutefois, les nouveaux outils que seront les satellites défilants apporteront d'autres informations précieuses, en établissant des profils de température et d'humidité et en ouvrant à l'observation les hautes latitudes.

Au vrai, la recherche exploite les mesures de plusieurs satellites combinés, dont les satellites géostationnaires et les satellites défilants qui sont complémentaires. En tout état de cause, il est indispensable d'opérer un suivi continu et étendu de la surface, du cycle de l'eau atmosphérique et des constituants sur toute l'épaisseur atmosphérique.

La communauté scientifique française s'implique intensément dans la préparation des multiples programmes prévus pour la période 2000-2005.

La France a joué un rôle considérable pour ENVISAT, dans les domaines de la chimie atmosphérique, de l'étude de la biosphère et de l'hydrologie, ainsi que dans la mise au point des procédures d'étalonnage et de validation. De même, son apport à IASI est déterminant pour la recherche des constituants gazeux. Pour le satellite ADEOS2, son rôle porte sur l'étude des aérosols avec l'instrument POLDER et sur la chimie atmosphérique. Pour ODIN, satellite opérationnel franco-suédois, la communauté française a travaillé sur la détermination de l'oxygène, de l'ozone et du chlore de la haute atmosphère. Sa contribution au programme franco-américain PICASSO-CENA a trait à l'étude des nuages élevés, pour le satellite AEOLUS à la mesure du vent en air clair grâce à un lidar spatial, pour le satellite SMOS à la mesure de l'humidité du sol et de la biosphère.

Les objectifs à long terme des satellites pour la recherche atmosphérique sont l'étude de nuages troposphériques, la chimie atmosphérique et le suivi du cycle du carbone.

Les autres systèmes d'observation que sont les réseaux au sol, les avions et les ballons, ont leur propre utilité mais servent également d'une part pour le test et la mise au point des capteurs utilisés dans les satellites et d'autre part pour la validation des mesures faites avec ces derniers.

L'utilisation des données recueillies par les satellites est en tout état de cause d'une importance primordiale pour l'assimilation et la validation des modèles atmosphériques, qu'ils soient à vocation météorologique ou climatique, ou bien qu'ils visent décrire la physique ou la chimie de l'atmosphère.

Au reste, l'exploitation des satellites génère de grandes masses de données, qui doivent être traitées et archivées. Ceci entraîne des besoins matériels considérables d'une part en puissances de calcul et en archivage et d'autre part en personnels qualifiés.

*

A la demande de M. René TRÉGOUËT, Sénateur, rapporteur, M. Jean-Louis FELLOUS a décrit les différentes structures de décision pour le lancement des satellites.

Dans le cadre de l'ESA (European Space Agency - Agence spatiale européenne), il existe, pour déterminer le programme de l'agence, un conseil de direction pour l'observation de la Terre, qui rassemble des représentants des 15 membres. Après confrontation des propositions soumises à ce conseil par l'exécutif de l'ESA avec les possibilités de financement offertes par les Etats, la conférence des ministres des pays membres de l'agence arrête le programme définitif.

Une évolution importante s'est produite en mai 1999 avec l'adoption demandée inlassablement par la France depuis 15 ans, d'un programme enveloppe d'observation de la Terre, suivant des modalités analogues à celles du programme scientifique obligatoire et dont le contenu précis est défini en cours d'exécution à partir des propositions de la communauté scientifique.

Auparavant, tous les programmes d'observation de la Terre de l'ESA étaient facultatifs. En pratique, chaque pays membre était désireux d'obtenir un retour industriel égal à sa participation à chaque projet, ce qui a pu conduire à l'élaboration de méga-satellites comme ENVISAT d'un coût de 2,5 milliards d'euros. Ce satellite utilise la plate-forme de grande taille COLUMBUS et emporte un grand nombre d'instruments, notamment pour l'étude des terres émergées et des océans, de la topographie de la surface des océans et la composition de l'atmosphère.

Avec le programme enveloppe, l'adhésion des pays est facultative au départ, mais leur participation, une fois décidée, devient ensuite obligatoire pour l'ensemble des projets individuels qui entrent dans l'enveloppe.

Dans l'adoption de ces projets comme GOCE, SMOS ou CRYOSAT, les avis du Comité scientifique consultatif d'observation de la Terre de l'ESA jouent un rôle essentiel. La communauté scientifique française, qui bénéficie de l'appui du CNES exerce une influence forte par ses propositions.

Les autres programmes font l'objet d'appels à propositions annuelles pour les petites et moyennes expériences. Pour la planification à long terme, les séminaires de prospective organisés sous la responsabilité du comité des programmes scientifiques du CNES, dont le dernier s'est tenu en mars 1998, permettent la discussion pendant trois à quatre jours des priorités à 4 ou 5 ans.

Deux filières prioritaires utiles à l'expérimentation de nouveaux instruments de recherche atmosphérique existent aujourd'hui au sein du CNES, celles des mini-satellites et celles de micro-satellites.

La filière des mini-satellites repose sur la plate-forme PROTEUS, de 400 à 500 kg, développée par Alcatel et qui sera utilisée par le satellite JASON dont le lancement est prévu pour mars 2001. Les projets engagés de mini-satellites sont le satellite d'astronomie COROT et le programme franco-américain PICASSO-CENA centré sur l'étude des nuages et des aérosols dont l'influence est essentielle sur le climat et qui mettra en _uvre un lidar. Le programme PICASSO-CENA qui est actuellement en cours de revue avec une confirmation attendue pour novembre, a subi un processus de décision complexe, puisqu'il lui a fallu être sélectionné aux Etats-Unis et en France. Le comité des programmes scientifiques du CNES l'a jugé prioritaire et le conseil d'administration a ensuite a autorisé l'engagement de cette mission pour un montant de l'ordre de 200 millions de francs, sous réserve de la confirmation à l'issue de la revue en cours.

En réponse à une question de M. René TRÉGOUËT, Sénateur, rapporteur, sur la coopération mondiale, M. Jean-Louis FELLOUS a indiqué qu'il existe des mécanismes de coordination internationale pour les projets, notamment pour les satellites météorologiques sous l'égide de l'Organisation météorologique mondiale, et dans le cadre du CEOS (Comité mondial des satellites d'observation de la Terre), qui participe avec de nombreux organismes internationaux à l'élaboration d'une stratégie intégrée d'observation globale (IGOS).

M. Gilles COHEN-TANNOUDJI a par ailleurs demandé des précisions sur le rôle des plates-formes.

M. Jean-Louis FELLOUS a indiqué que celles-ci comportent essentiellement les servitudes nécessaires au fonctionnement du satellite - moteurs, réservoirs, panneaux solaires, batteries, calculateurs et dispositifs de télécommunications -, les instruments étant en général localisés sur les faces regardant la Terre.

*

A l'invitation de M. Gilles COHEN-TANNOUDJI, une discussion s'est ensuite engagée sur la répartition des travaux de construction des satellites entre les différents pays coopérants.

M. Jean-Louis FELLOUS a précisé que les satellites proprement dits sont construits dans l'industrie, essentiellement dans les installations des grands maîtres d'_uvre qui disposent de salles blanches, locaux spéciaux indispensables à leur construction. En revanche, en ce qui concerne les instruments, certains laboratoires européens possèdent la capacité de fabriquer des éléments à plus petite échelle.

M. René TRÉGOUËT, Sénateur, rapporteur, s'est interrogé sur l'existence de clauses de juste retour.

M. Jean-Louis FELLOUS a précisé que pour les projets facultatifs de l'ESA, la mise en commun des ressources a comme contrepartie des dépenses effectuées au plan national. Pour le programme enveloppe, la contrainte liée à la proportionnalité des retours aux contributions est moins drastique, car elle ne s'applique pas à chacun des éléments du programme. En tout état de cause, avec ce nouveau cadre, le programme d'observation de la Terre de l'ESA devient plus attractif et, grâce à ces nouvelles dispositions, il se déroulera dans le cadre d'une coopération internationale accrue. Il faut toutefois remarquer qu'une coopération internationale en dehors du cadre de l'ESA peut quelquefois aller plus vite, en raison de procédures administratives moins lourdes.

Au reste, la coopération européenne s'inscrit dans certains cas dans une coopération internationale plus vaste.

Ainsi le programme EPS de l'ESA verra les satellites polaires défilants METOP se partager les tâches avec les satellites TIROS de la NOAA. Une coordination est également recherchée avec les satellites russes similaires. Il existe par ailleurs une coordination internationale au sein du groupe CGMS pour les satellites météorologiques géostationnaires, qui a permis d'optimiser l'utilisation des satellites METEOSAT avec les satellites américains, mais aussi avec les pays qui, comme l'Inde, la Russie, la Chine et le Japon possèdent des engins similaires.

Une des questions fondamentales dans le domaine des satellites météorologiques est celle de leur pérennité. Dans le cadre de systèmes opérationnels, les agences d'exploitation bénéficient de financements pérennes.

Au contraire, pour les satellites de recherche, dont la durée de vie est de 3 à 5 ans, il n'existe pas de continuité a priori, ce qui pose la question fondamentale de la mise en place de mécanismes permettant de passer sans hiatus de l'expérimental à l'opérationnel. A cet égard, le problème des satellites de recherche atmosphérique équivaut à celui qui a été évoqué précédemment à propos de certains grands équipements satellitaires pour l'océanographie.

S'il existe des mécanismes de concertation pour les programmes scientifiques entre les organismes français, il est urgent de mettre en place des financements pérennes pour les grands équipements qui jouent un rôle essentiel dans l'étude de l'évolution globale du climat.

M. René TRÉGOUËT, Sénateur, rapporteur a posé la question des conditions d'accès de la communauté scientifique aux données satellitaires.

M. Jean-Louis FELLOUS a indiqué que la règle est la mise à disposition de tous après une brève période de validation des données. En général, trois ans avant le lancement, un groupe d'utilisateurs principaux est sélectionné, qui, seuls, recevront les premières données, pendant trois à cinq mois, pour les tester. Au-delà de cette période, la diffusion n'est pas limitée. Il faut mentionner, à cet égard, que les Etats-Unis installent souvent les données de leurs nouveaux satellites sur le Web, avant que leur validité soit démontrée, ce qui a pu, dans le passé, conduire à des conclusions scientifiques hâtives, pour ne pas dire erronées.

Mme Claudine LAURENT, membre du groupe de travail, a précisé que les concepteurs des capteurs sont souvent ceux qui valident les données. Mme Laurence EYMARD a indiqué que ces derniers, souvent dénommés les Principaux Investigateurs (PI), appartiennent généralement à différents pays européens.

*

M. Jean GALLOT, membre du groupe de travail, a estimé que l'absence de contributions propres de l'Union européenne ou des organisations internationales rend difficile un financement pérenne des satellites de recherche atmosphérique. Il s'est en outre interrogé sur l'autorité qui assure la coordination des efforts des organismes français et qui contribue à la coordination européenne.

M. Jean-Louis FELLOUS a précisé que le mandat de représentation de la France à EUMETSAT est confié à Météo-France.

M. Daniel CARIOLLE a indiqué que les décisions sur les coopérations européennes en matière de météorologie, sont préparés en réunions interministérielles. Météo-France est sous la tutelle du ministère des Transports mais ses crédits sont inscrits au BCRD. L'inscription des crédits au BCRD leur donne une certaine stabilité et correspond à l'imbrication étroite entre l'opérationnel et la recherche.

M. Gérard MÉGIE a estimé que les décisions en matière de recherche scientifique sur l'atmosphère en aval des missions satellitales sont essentiellement nationales.

Le programme spatial est arrêté par le CNES en étroite liaison avec la communauté scientifique. La mise au point des capteurs et l'utilisation des données entraînent la nécessité d'une articulation du CNES avec les grands organismes de recherche, au premier rang desquels il faut citer le CEA et le CNRS. Il reste toutefois des progrès à faire pour que ces derniers allouent aux différents projets des moyens suffisants, notamment en équipes de chercheurs.

Au niveau européen, il reste également des progrès à faire pour améliorer la coordination et l'implication européennes pour l'exploitation des données. On peut regretter à cet égard qu'il semble très difficile de mobiliser 30 à 50 millions de francs pour travailler sur la validation des données d'ENVISAT, alors que ce satellite représente un investissement de 2,5 milliards d'euros. A cet égard, l'Union européenne ne semble pas intéressée par le lancement pourtant indispensable d'un programme de validation des données.

M. Philippe LAREDO, membre du groupe de travail, s'est interrogé sur l'opportunité qu'il y aurait de voir l'Union européenne contribuer à des actions sur le recueil des données. En réalité, l'Union européenne intervient par l'intermédiaire de programmes dont la durée est, par essence, limitée dans le temps. Une tâche comme le recueil des données, qui doit s'effectuer sur une longue durée, doit être, au contraire, de la responsabilité des organismes de recherche.

M. Gérard MÉGIE a estimé qu'un programme comme ENVISAT, décidé à l'échelle européenne, fait preuve d'un manque de coordination pour la validation et l'exploitation des données. A l'heure actuelle, l'Agence spatiale européenne ne finance que les six premiers mois de la phase de validation. Plusieurs pays, notamment la France et l'Allemagne, ont marqué leur intérêt pour poursuivre cet effort. Mais, même si l'Union européenne ne peut fournir tout le financement nécessaire, il serait certainement opportun d'inclure cette problématique dans les priorités du Programme Cadre de Recherche et Développement européen, pour s'assurer que les 2 milliards d'euros dépensés par l'Europe pour ENVISAT sont correctement rentabilisés sur le plan scientifique.

M. Philippe LAREDO, relevant que l'espace est un domaine où l'Europe coordonne ses investissements, s'est demandé si ce modèle ne pourrait pas être transposé à d'autres secteurs de la recherche.

M. Jean GALLOT s'est interrogé sur la possibilité effective du ministère des affaires étrangères de s'engager dans des coopérations européennes ou internationales de grande ampleur, sans qu'un financement préalable existe au niveau budgétaire. En tout état de cause, selon l'article 42 de la Constitution, le Parlement devrait être appelé à voter, en dernier ressort, les engagements de dépenses correspondants.

*

Une discussion est ensuite intervenue sur le montant du budget consolidé de la recherche sur l'atmosphère.

M. Jérôme PAMELA a posé la question de la part du fonctionnement et de l'investissement dans le budget de 1,2 milliard de francs annoncé en début de réunion.

M. Gérard MÉGIE a souligné que l'investissement dans un satellite fluctue en fonction des années et du type de satellite programmé. En effet, un micro-satellite correspond à un montant de 50 à 60 millions de francs et la part française dans un projet bilatéral de mini-satellite peut s'élever à 200 millions de francs. Quant aux parts respectives de la recherche et de l'opérationnel, elles peuvent varier d'un satellite à l'autre. Au final, le montant de 1,2 milliard de francs correspond à un budget consolidé moyen, susceptible de varier de 15 % environ d'une année sur l'autre.

M. Jean-Louis FELLOUS a précisé les montants des différentes composantes de cette évaluation budgétaire. La contribution française au programme enveloppe d'observation de la Terre de l'ESA représente un montant annuel de 200 millions de francs par an. L'investissement dans un mini-satellite, soit au total 300 millions de francs, est réalisé environ tous les deux ans. Le budget d'investissement d'un micro-satellite s'élève à 50-60 millions de francs.

*

Une discussion est ensuite intervenue sur l'importance du traitement des données.

Comme l'a indiqué Mme Laurence EYMARD, on assiste depuis 20 ans à une croissance très rapide du nombre de satellites, croissance qui devrait encore s'accélérer dans les dix prochaines années. Des choix sont désormais indispensables pour rentabiliser les investissements, ceci passant l'augmentation des effectifs de chercheurs en charge de l'exploitation des données et de leur utilisation. En particulier, il apparaît de nouveaux métiers dans la recherche d'aujourd'hui, comme ceux de la gestion des données.

M. René TRÉGOUËT, Sénateur, rapporteur, a remarqué que cette exigence relative aux satellites se retrouve au CERN et qu'en conséquence, le rapport de l'Office insistera sur la nécessité d'accorder plus de moyens non seulement pour les investissements dans les réseaux à hauts débits mais aussi pour la gestion et le stockage des données.

M. Philippe LAREDO a souligné qu'il n'existe pas de perspectives de carrière intéressantes pour les spécialistes de l'archivage, de la conservation et de la mise à disposition des données. En réalité, il s'agit là d'un problème majeur pour l'ensemble des très grands équipements scientifiques.

M. Gérard MÉGIE a estimé que pour qu'un archivage de données soit utile, il faut que leur mise en forme corresponde aux besoins de la recherche. Il faut donc des personnels spécialisés mais au contact des chercheurs des disciplines concernés. Un archivage mal conçu et géré par des personnels éloignés de la recherche reviendrait à faire des investissements inutiles en " cimetières de données ".

*

A l'instigation de M. M. Christian CUVILLIEZ, Député, rapporteur, un débat s'est amorcé sur l'évolution des crédits du CNES.

M. Jean-Louis FELLOUS a indiqué que ceux-ci ne connaissent pas de baisse tendancielle.

M. René TRÉGOUËT, Sénateur, rapporteur, a toutefois noté une baisse de ces crédits de 300 millions de francs deux années de suite.

M. Jean-Louis FELLOUS a précisé que cette baisse n'affecte toutefois pas la ligne budgétaire consacrée aux programmes spatiaux en sciences de la Terre.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé que la participation française d'un milliard de francs dans la station spatiale internationale peut sembler trop élevée, eu égard à celle des autres pays.

Les efforts de la France dans le spatial pourraient être effectués prioritairement au profit de " l'espace utile ".

En réalité, au plan mondial, il est trop facile pour les Etats-Unis d'accorder une place à l'Union européenne dans les projets coûteux sans retombées immédiates et de ne pas la convier à participer à des projets à retours sur investissement rapides.

M. Christian CUVILLIEZ, Député, rapporteur, a confirmé que cette répartition des investissements dans le spatial fait partie inhérente des réflexions de l'Office.

La parole a ensuite été donnée à M. Jean JOUZEL, pour une présentation des acquis de la paléoclimatologie.

*

M. Jean JOUZEL, Directeur de recherche au Laboratoire des sciences du climat et de l'environnement LSCE-CNRS/CEA, a indiqué que l'étude de la variabilité du climat nécessite l'observation du passé. L'étude des climats du passé est en effet pertinente vis-à-vis de son évolution future. A cet égard, les recherches portent à la fois sur les océans, sur les glaces polaires et sur les continents.

Ainsi que cela a été rapporté lors de l'audition sur l'océanographie par M. Laurent LABEYRIE, des modifications dans la circulation océanique ont pu entraîner dans le passé des variations considérables de température, allant jusqu'à 10 à 15 ° C sur une année, au Groenland ou dans l'Atlantique Nord.

L'étude de la variation de la composition des glaces fait actuellement l'objet de deux grands projets. Le premier est celui d'un forage réalisé par un groupe de pays européens dans les glaces de l'Antarctique, à une profondeur de 3 km, afin d'étudier les variations dans le passé de l'ozone et de la météorologie de l'Antarctique. Le deuxième grand projet est la station permanente franco-italienne DOME CONCORDIA dans l'Antarctique, qui sera totalement opérationnelle en 2003. Chacun de ces deux projets représente une dépense de 170 à 180 millions de francs, correspondant essentiellement à des coûts de logistique.

Au plan scientifique, l'étude de la variabilité du climat dans le passé présente une continuité avec celle du climat actuel et avec les travaux de prédiction du changement climatique. Par ailleurs, il s'agit non seulement de mettre en évidence les variations rapides mais également les variations à long terme du climat en réaction à l'effet de serre et aux autres forçages climatiques. La modélisation est un outil essentiel de la valorisation des mesures.

La paléoclimatologie répond à la nécessite de disposer de séries de données remontant bien avant les cent dernières années pour lesquelles on dispose au demeurant de mesures directes.

Au reste, l'un des résultats essentiels du prochain rapport du GIEC-IPCC, à paraître début 2001, est que les dix dernières années du XXe sont bien les plus chaudes du dernier millénaire.

Une fois les données acquises, l'étape suivante est la plus difficile.

Il s'agit en effet d'attribuer quelles sont les parts respectives des variations naturelles du climat et des variations anthropogéniques. En tout état de cause, la prédictibilité du climat repose sur des structures permanentes, océaniques et atmosphériques qu'il est capital de mettre en évidence, et, à cet égard, l'étude du climat du passé est fondamentale.

La parole a ensuite été donnée à M. Hervé LE TREUT, pour un exposé général sur la modélisation de l'atmosphère.

*

M. Hervé LE TREUT, Directeur de recherche au Laboratoire de Météorologie dynamique, a indiqué que la modélisation numérique du climat et du changement climatique a pour objectifs, d'une part la prévision à échéance de quelques mois, un enjeu économique direct pour différents secteurs d'activité comme par exemple l'agriculture, et d'autre part, l'étude du risque climatique associé à un changement global qui pourrait résulter de l'effet de serre, de l'augmentation de concentration des aérosols, de la déforestation et de l'érosion des sols. Il s'agit dans ce dernier cas de détecter les changements éventuels et de déterminer leur échéance et leurs amplitudes.

Les difficultés scientifiques à lever pour réaliser des modèles climatiques sont nombreuses. La première provient de la complexité des systèmes naturels. A cet égard, il convient désormais de décrire les phénomènes de chimie de l'atmosphère et l'implication des phénomènes biochimiques de la biosphère. Un autre défi de la modélisation est d'augmenter la résolution des modèles et de passer d'une échelle globale à une échelle régionale. Par ailleurs, les simulations peuvent obliger à un couplage complexe de différents modèles. Enfin, les indéterminations statistiques peuvent limiter les intervalles de confiance des résultats.

En tout état de cause, il existe des incertitudes sur les mécanismes fondamentaux retracés par les modèles, incertitudes fondamentales auxquelles s'ajoutent des incertitudes techniques.

C'est pourquoi il convient de pouvoir déceler les manipulations intellectuelles auxquelles l'interprétation de leurs résultats peut donner lieu, en particulier dans les négociations internationales.

En conséquence, la présence de scientifiques dans les délégations est indispensable pour proposer des simulations et décrypter les différences de résultats.

La réalisation d'un modèle climatique relatif à l'océan ou à l'atmosphère compétitif au plan mondial est en tout état de cause une opération lourde que l'on peut chiffrer à 100 hommes x ans. Mais derrière tout modèle, il faut une crédibilité scientifique forte et des expériences nationales lourdes. C'est à ce prix que l'on peut espérer peser dans les groupes scientifiques mondiaux tels que le GIEC ou dans les négociations internationales. A cet égard, il faut garder des rapports étroits entre la recherche scientifique et les systèmes opérationnels.

Une des conditions à remplir pour l'avenir de la modélisation est de pouvoir disposer de personnels spécialisés, non seulement dans la conception des modèles mais aussi dans leur exploitation et leur maintenance.

Par ailleurs, il faut également prendre en compte une accélération des besoins en puissances de calcul pour les travaux de modélisation.

Les calculateurs actuellement disponibles en France ont des vitesses de calcul de l'ordre du Gigaflops, soit un milliard d'opérations par seconde. Le projet japonais vise les 40 Teraflops, soit quarante mille milliards d'opérations par seconde, à échéance de 2 à 3 ans. Les Etats-Unis mettent actuellement en place un projet de calcul massivement parallèle atteignant aussi les teraflops, à échéance de 3 à 4 ans.

Il s'agit en effet de rendre compte dans les modèles atmosphériques des mouvements de convection dans l'atmosphère, ce qui représente une nouvelle donne dans la modélisation climatique et une condition pour être crédible dans les négociations internationales.

La France, l'Allemagne et le Royaume Uni qui n'ont pas encore lancé de projets pour des calculateurs de ce type, pourraient se trouver hors du jeu, à la fois au plan scientifique et au plan des négociations, si la situation n'était pas corrigée rapidement.

*

La discussion est alors revenue la question des puissances de calcul.

M. Daniel CARIOLLE a indiqué que l'Institut Max Planck travaille sur un projet de ce type. L'Union européenne dispose d'une communauté forte dans le domaine des algorithmes. Mais en tout état de cause, l'Europe a un grand handicap, c'est de ne plus disposer d'un constructeur d'ordinateurs de puissance. L'obligation d'acheter aux Etats-Unis et au Japon un calculateur géant ne facilite pas, bien au contraire, la bonne fin d'un projet scientifique.

M. René TRÉGOUËT, Sénateur, rapporteur, a posé la question des conséquences d'une absence de crédibilité scientifique dans les négociations sur le climat.

M. Hervé LE TREUT a souligné que les modèles actuels décrivent la circulation atmosphérique à des échelles supérieures à 100 km. La prise en compte des mouvements de convection, essentielle à l'avenir, nécessitera une résolution de 10 km sur 10 km. Seuls de nouveaux calculateurs permettront de résoudre de tels modèles. La puissance des calculateurs créera en définitive deux catégories de modèles et donc entraînera l'apparition de deux catégories d'expertise.

Mme Sylvie JOUSSAUME, membre du groupe de travail, a remarqué que l'investissement de la recherche américaine ou japonaise en calculateurs de puissance recouvre les intérêts de l'industrie informatique de ces pays, ce qui constitue un avantage certain par rapport aux pays européens.

De surcroît, la France connaît une dispersion de ses investissements informatiques dans trois centres informatiques, l'IDRIS, le CINES et le centre de calcul du CEA à Grenoble. Faut-il rassembler les moyens nationaux dans un grand centre pluridisciplinaire ou faut-il au contraire des centres spécialisés par discipline ? Dans ce dernier cas, il serait envisageable de créer des centres de calcul disciplinaires européens.

En tout état de cause, il est indispensable que la communauté scientifique pilote un tel choix. Il existe un comité consultatif interorganisme des sciences de la planète et de l'environnement. Des comités similaires existent dans d'autres sciences.

*

Un débat est alors intervenu sur l'importance du niveau de la recherche dans les négociations internationales.

M. Gérard MÉGIE, à cet égard, a cité l'exemple de la négociation en cours pour la définition des mécanismes du Protocole de Kyoto.

Des résultats scientifiques récents mais contestés réévaluent à la hausse l'importance des puits de carbone présents sur le sol américain, dont l'action compenserait et même au delà les émissions de CO2 du pays. Ces résultats ont bien entendu été mis en avant par les Etats-Unis.

Il est donc vital de pouvoir réfuter, le cas échéant, de tels arguments avec des outils crédibles comme des modèles de dernière génération, sauf à affaiblir gravement la position européenne.

Pour M. Philippe LAREDO, l'horizon des interventions de l'Union européenne dans les projets est de 10 ans. La machinerie européenne ne sait pas aller plus vite. De même, la coordination des disciplines est un processus toujours très long. En conséquence, dans tout projet d'une envergure et d'une importance capitales, il faut une discipline moteur pour aller vite.

M. Hervé LE TREUT a précisé que le Japon souhaite développer ses liens avec la communauté scientifique des modèles climatiques et pourrait ouvrir ses calculateurs de puissance à des utilisateurs extérieurs. Par ailleurs, l'Union européenne a formé le projet de mettre en commun les différents modèles européens.

M. Gilles COHEN-TANNOUDJI a espéré qu'il puisse y avoir un rééquilibrage de la faiblesse européenne dans le " hardware ", à savoir les calculateurs, grâce à ses atouts dans le " software ", à savoir les compétences scientifiques dans les disciplines de base et la modélisation.

M. Gérard MÉGIE a souligné l'importance économique et politique d'une négociation comme celle de La Haye.

M. Philippe LAREDO a alors jugé que les décisions pour l'exploration de la planète Mars d'un coût de quelques milliards de francs sont hors de proportion avec les investissements indispensables pour la météorologie, de l'ordre de 200 millions de francs.

Il convient donc de mettre fin à un tel déséquilibre.

Mme Claudine LAURENT a estimé qu'il s'agit non seulement de problèmes d'investissement en matériels divers mais également de problèmes d'effectifs de chercheurs.

M. Christian CUVILLIEZ, Député, rapporteur, a souligné à cette occasion le caractère stratégique des très grands équipements.

M. Daniel CARIOLLE a souligné que les efforts des pouvoirs publics doivent porter non seulement sur les calculateurs mais aussi sur les réseaux à haut débit. En cas de coopération avec d'autres pays pour l'accès à des calculateurs de puissance, il est nécessaire de faire transiter rapidement des volumes considérables de données.

Au reste, dans les négociations internationales, ce sont les pays qui apportent le plus au niveau scientifique qui emportent les décisions. Or, si la France a du mal à constituer de grosses équipes dans le domaine de la recherche sur l'atmosphère, c'est parce qu'il n'y a pas de création d'emplois dans la recherche. Certes on pourrait encourager le passage de chercheurs actuellement en poste d'une discipline à une autre, mais une telle opération prend du temps, ses résultats n'étant d'ailleurs pas garantis.

En définitive, il faut souligner que si le ministère de la recherche peut effectivement décider d'encourager un projet de recherche sur l'atmosphère en lui accordant une subvention d'investissement, toute embauche de personnel est absolument interdite, alors que les besoins sont très importants pour assurer une présence au niveau souhaitable et peser sur les négociations internationales en cours.

La parole a ensuite été donnée à M. Daniel GUEDALIA, pour une présentation du rôle des réseaux d'observation dans la recherche météorologique.

*

M. Daniel GUEDALIA, Directeur de recherche au Laboratoire d'aérologie et Président de la Commission spécialisée océan-atmosphère, a exposé que les réseaux d'observation ont pour objet la réalisation d'observations systématiques de la composition de l'atmosphère, sur des périodes de plus de dix ans, un domaine qui n'est pas couvert par les services opérationnels. Ces réseaux font le plus souvent partie de réseaux internationaux et débouchent sur la création de bases de données permettant l'évaluation des tendances climatiques à long terme, l'identification de la contribution anthropique et l'étude et la compréhension des processus.

La France participe à quatre réseaux internationaux de surveillance de l'atmosphère et reçoit à ce titre la responsabilité des mesures dans plusieurs stations réparties en métropole et dans les DOM-TOM. Le premier est le réseau NDSC de surveillance de la stratosphère, tant ce qui concerne le climat que la concentration de l'ozone et d'autres paramètres. Le deuxième est le réseau RAMCES de surveillance des concentrations des gaz à effet de serre. Le troisième est le réseau AERONET de surveillance des teneurs en aérosols, dont on sait qu'ils jouent sur le bilan radiatif de la Terre.

La France appartient également au réseau international IDAF attaché à la détermination de la composition chimique des précipitations tombant au sol au voisinage de la ceinture tropicale, qui comprend des écosystèmes très évolutifs. Grâce à la modélisation, les informations recueillies permettent de reconstituer les mécanismes à l'oeuvre dans la stratosphère, la convection étant très forte dans les régions tropicales.

La France participe également à l'initiative franco-allemande MOZAIC qui s'attache à mesurer la concentration en ozone troposphérique grâce à des capteurs installés sur 5 Airbus A-340 appartenant à quatre compagnies aériennes différentes. Ainsi sont collectées des informations le long des routes aériennes et autour des aéroports desservis par cette flotte aérienne.

La pérennisation des mesures faites par ces réseaux est une question essentielle. Le coût de fonctionnement pour la France de ces réseaux s'élève à 25 millions de francs par an. L'investissement peut être chiffré à un montant de 100 millions de francs, réalisé sur une période de 5 à 10 ans. Il est à noter que ces réseaux bénéficient d'un personnel scientifique dédié, le corps du CNAP, qui pourrait être réactivé afin d'affecter des physiciens dans les services responsables des observations.

Au reste, la coopération scientifique pour la mise en oeuvre de ces réseaux est la norme, au plan international, comme au plan national, l'INSU jouant un rôle déterminant à cet égard.

La parole a ensuite été donnée à M. Frank ROUX pour une présentation du rôle de l'INSU dans la recherche sur l'atmosphère.

*

M. Frank ROUX, chargé de mission à l'INSU pour la physique de l'océan et de l'atmosphère, a indiqué que l'INSU (Institut national des sciences de l'univers) est l'agence de moyens et de programmation de la recherche en sciences de l'univers menée au sein non seulement du CNRS, mais aussi des universités, des grands établissements et des observatoires des sciences de l'univers.

L'INSU assure la mise en place et le suivi de la plupart des programmes nationaux de recherche en sciences de l'univers, au moyen d'appels d'offres ciblés et d'une programmation pluriannuelle. Au demeurant, l'INSU gère les grands instruments de recherche, comme la flotte côtière nationale, les avions de recherche, les télescopes et les réseaux d'observation. L'INSU comporte trois divisions, astronomie-astrophysique, terre solide et océan-atmosphère. La division océan-atmosphère correspond à un budget de 55 millions de francs hors salaires et comprend 850 chercheurs, 800 personnels ITA répartis dans 35 laboratoires, groupes et équipes de recherche.

Les programmes scientifiques pluri-organismes de l'INSU, relatifs à la recherche sur l'atmosphère portent sur les thèmes suivants : atmosphère et océan à multi-échelles, chimie atmosphérique, dynamique du climat, télédétection spatiale, processus biogéochimiques dans l'océan et flux, hydrologie.

Parmi les équipements lourds utilisés par l'INSU, il faut citer les avions partagés avec le CNES et Météo-France, dont le rôle est essentiel pour simuler les observations spatiales.

Mme Danièle HAUSER, Présidente du comité scientifique du programme national de recherche sur l'atmosphère et l'océan, a ensuite détaillé un exemple de programme national de l'INSU, à savoir le programme " atmosphère et océanographie multi-échelles ".

Les objectifs directs du programme sont la météorologie des moyennes latitudes, la météorologie en zone tropicale, l'étude des interactions des nuages et des aérosols avec le rayonnement pour l'établissement du bilan radiatif, les processus et les mesures atmosphériques pour l'hydrologie et la météorologie urbaine. Dans le cadre de ce programme, un appel d'offres est effectué chaque année, les projets soumis étant examinés par un comité scientifique.

Les points communs aux expériences du programme sont de faire appel à toute la gamme des moyens de mesure, à des modèles numériques et à une coopération interorganisme et internationale.

Une discussion est alors intervenue sur la flotte aérienne.

*

M. Daniel CARIOLLE a souligné les difficultés rencontrées pour le renouvellement des avions de la météorologie.

Les avions de recherche météorologique ont une durée de vie d'environ 15 années. Il se produit donc un pic dans les besoins de financement, mais ce pic reste inférieur aux montants habituels des TGE et il est difficile pour les organismes de recherche de les financer par eux-mêmes.

Or les deux principaux avions actuellement en fonctionnement, pour environ 500 heures de vol par an, vont bientôt s'arrêter en raison de leur vétusté, de leur inadaptation à la nouvelle réglementation technique et de l'obsolescence de leurs équipements scientifiques. Face à cette situation, il n'existe pas de financement récurrent.

Le dossier de remplacement a lancé en 1997. Le premier nouvel avion devrait être de type ATR-42 ou équivalent, spécialisé dans l'étude de la troposphère à moins de 6000 mètres. Le financement de cet avion sera abondé par Météo-France principalement sur ses ressources propres, le coût total de la plate-forme, au demeurant d'occasion, et du chantier intérieur, atteignant 100 millions de francs. Seuls 20 millions de francs ont été inscrits au BCRD pour cette opération.

L'achat du second avion, un Mystère 20 rénové appartenant à l'IGN, nécessite un financement additionnel de 50 millions de francs, qui n'est pas encore trouvé.

M. Gérard MÉGIE a indiqué que du fait de la non-appartenance de la flotte aérienne à la catégorie des TGE, le montant manquant de 50 millions devrait être trouvé par des redéploiements internes de crédits des organismes. A priori, le CNRS devrait apporter 35 millions et le CNES 10 millions.

M. Gilles BERGAMETTI, Directeur de recherche au Laboratoire interuniversitaire des systèmes atmosphériques, a indiqué que la France est impliquée dans des campagnes de mesure internationales, qui supposent l'apport non seulement de compétences scientifiques mais aussi de moyens de mesure mis dans le " pot commun ".

Après les atermoiements des dernières années sur la flotte océanographique auxquels il a été heureusement mis fin, de nouvelles difficultés se produisent sur les équipements absolument indispensables que sont les avions.

Cette situation entrave le rôle de la France dans les programmes internationaux. Au demeurant, le retard de la France vis-à-vis des Etats-Unis pour la flotte aérienne excède de loin les écarts de PNB.

M. Daniel GUEDALIA a estimé que le statut d'un pays dans le domaine de la recherche sur l'atmosphère est fonction de sa flotte aéroportée. A titre de comparaison, le Brésil possède deux avions de recherche, la plupart des pays européens en ont plus de deux.

Pour compter dans la recherche mondiale sur l'atmosphère, il faut non seulement des compétences scientifiques mais aussi des moyens logistiques.

M. Gérard MÉGIE a souligné qu'en l'absence de moyens propres, il est difficile pour la France de proposer d'intensifier les recherches conduites en coopération. S'il existe une démarche européenne commune pour la définition des capteurs, en revanche en l'absence d'un pays moteur, il n'existe pas de stratégie générale et commune de développement de la flotte aérienne.

A cet égard, Mme Claudine LAURENT s'est interrogée s'il ne serait pas possible d'associer d'autres disciplines à l'exploitation de la flotte aérienne, afin de faciliter son renouvellement.

M. Daniel CARIOLLE a indiqué que l'IGN dispose pour sa part de ses propres avions pour l'observation et la photographie. Par ailleurs, la flotte aérienne météorologique a pu être utilisée lors du naufrage de l'Erika, pour la mesure de l'étendue des nappes de fioul et l'étude de leur mouvement. Les avions sont également utilisés pour des missions de consultance relative à des sites industriels ou d'aérologie locale. Mais ces missions additionnelles restent, dans les faits, marginales par rapport à celles relatives aux programmes de recherche.

M. Frank ROUX a indiqué que l'envoi des avions sur les zones révélées comme importantes par les travaux de modélisation pourrait se faire à l'avenir, alors que ce n'est pas possible actuellement.

M. Daniel CARIOLLE a regretté qu'il n'existe pas de programme européen d'avions gros-porteurs pour la météorologie, à l'instar de celui dont les Etats-Unis se sont dotés pour l'étude des cyclones.

M. Jean-Louis FELLOUS a fait état de l'intérêt du CNES pour la flotte aérienne, dans la mesure où celle-ci est d'un apport capital pour le test des capteurs, la validation des données et plus généralement le soutien aux campagnes de mesures satellitaires.

Mme Sylvie JOUSSAUME a attiré l'attention des Rapporteurs sur la nécessité de pérenniser les moyens humains de la recherche sur l'atmosphère.

La France est impliquée dans le réseau international RAMCES de surveillance des gaz à effet de serre. Pour ce faire, elle utilise son réseau permanent d'observation qui constitue un atout pour le moment, par rapport à la situation existant dans d'autres pays, où le régime est celui de contrats. Toutefois, faute d'une gestion prévisionnelle efficace des personnels assurant la bonne marche de ces réseaux, cet atout risquerait de disparaître rapidement.

Concernant les réseaux d'observation, M. Gérard MÉGIE a rappelé que le réseau européen de surveillance des gaz à effet de serre a fonctionné pendant 5 ans sur crédits du PCRD, une situation insatisfaisante du fait de sa précarité.

L'idéal serait bien évidemment qu'une nouvelle approche stratégique se mette en place, incluant notamment des infrastructures, et mettant fin aux effets pervers de la situation actuelle où l'insuffisance de moyens de fonctionnement menace la pérennité de l'investissement.

Il reste que pour certains chercheurs, les travaux correspondants n'appartiennent pas à la catégorie de la " belle recherche " et rencontrent des difficultés pour susciter des vocations.

En tout état de cause, les investissements nationaux, les partenariats et la coordination européenne, tous moyens indispensables, supposent des moyens humains suffisants.

On ne peut que regretter à cet égard, que la météorologie ne dispose pas de personnels pouvant prendre en charge des problèmes scientifiques et la gestion des données, comme cela existe pour les réseaux de surveillance sismique et volcanologique.

M. Daniel GUEDALIA a souligné l'intérêt de la notion de TGE en ce qu'elle garantit des financements pluriannuels. Or la France est en pointe dans la recherche sur l'atmosphère et le changement climatique. Quelles que soient les coopérations internationales souhaitables, il convient de dégager des financements nationaux.

M. René TRÉGOUËT, Sénateur, rapporteur, a estimé que les financements doivent s'inscrire dans la durée et que la meilleure façon d'y parvenir est d'utiliser la loi.

Cette problématique est au coeur de la réflexion de l'Office.

M. Gilles BERGAMETTI a prédit la disparition des services d'observation dans les deux ans si aucune action n'est entreprise d'ici là. Or la France a des obligations contractuelles par exemple pour la surveillance du CO2. Par ailleurs, la France a une avance réelle dans les réseaux d'observation qui pourrait bénéficier aux autres pays. L'intérêt scientifique, les contraintes internationales et le rayonnement de sa recherche commandent que la France donne à ses réseaux de surveillance les moyens de survivre et, au delà, de se développer.

M. Pierre POINTU a remarqué que, dans tous les domaines et en particulier dans celui de la science, les décideurs sont plus sensibles à la novation qu'à la capitalisation des connaissances et à leur valorisation.

M. Daniel CARIOLLE a estimé qu'il existe un réel problème de visibilité des réseaux pour la décision. La loi sur la qualité de l'air, prise en application de la directive européenne, a prévu des financements pluriannuels pour les dispositifs de surveillance. On pourrait souhaiter une démarche équivalente pour la surveillance climatique.

M. Pierre POINTU a noté l'intérêt paradoxal des contraintes officielles pour avancer dans le domaine de la science.

M. Christian CUVILLIEZ, Député, rapporteur, a remarqué qu'il s'agit alors de recherches finalisées, pilotées par des obligations de résultats, qui sortent alors du domaine de la recherche fondamentale.

Pour M. Daniel GUEDALIA, on ne peut dire que la météorologie, même dans le cas de la surveillance, ne justifie pas de recherches fondamentales. En l'occurrence, il s'agit d'un type particulier de recherche fondamentale, à savoir une recherche fondamentale à applications immédiates.

Mme Sylvie JOUSSAUME a estimé que la météorologie est une discipline où la pression de la demande de résultats est supérieure à celle à laquelle sont soumises les autres disciplines. Il importe toutefois de ne pas perdre de vue l'impératif d'y conduire une recherche fondamentale.

*

Pour clore la réunion, M. Christian CUVILLIEZ, Député, rapporteur, a remercié les invités et les membres du groupe de travail pour leur participation et a remarqué que les contacts avec les différentes disciplines révèlent tous des appels à moyens énormes, une situation analogue à celle qui obligerait à faire " entrer la Mer rouge dans un trou de sable ", lui-même en constant rétrécissement.

Pour répondre simultanément à toutes les demandes, sans doute faut-il une coopération accrue et des financements autres que le financement budgétaire.

Au reste quel pourrait être le schéma d'investissements pluriannuels ?

Il appartiendra au Rapport de l'Office de présenter différentes hypothèses.

12. Astronomie, astrophysique et planétologie - mercredi 8 novembre 2000

CEA

· M. Joël FELTESSE, Chef du DAPNIA (Département d'Astrophysique, de Physique des particules, de Physique Nucléaire et de l'Instrumentation Associée), Direction des sciences de la matière

· M. Laurent VIGROUX, Chef du SAp (Service d'Astrophysique), Direction des sciences de la matière

· M. Pierre TRÉFOURET, Conseiller au cabinet de l'administrateur général

CNES

· M. José ACHACHE, Directeur général adjoint scientifique du CNES

· M. Richard BONNEVILLE, Délégué à l'exploration et à l'étude de l'Univers

· M. Arnaud BENEDETTI, Chargé des relations avec le Parlement

CNRS

· M. Michel BLANC, Directeur du Laboratoire d'astrophysique de l'Observatoire Midi-Pyrénées

· Mme Geneviève DEBOUZY, Directrice scientifique adjointe de l'INSU-CNRS

· M. Bernard FORT, Directeur de l'Institut d'astrophysique de Paris

· M. Jacques HAISSINSKI, Professeur à l'université Paris-Sud et chercheur au LAL, Orsay

· M. Jean-Marie HAMEURY, Directeur de l'Observatoire de Strasbourg

· M. Olivier LE FEVRE, Directeur de recherche, Laboratoire d'Astrophysique de Marseille (LAM), Représentant de la France au Conseil de l'ESO

· M. Jean-Loup PUGET, Directeur de l'Institut d'astrophysique spatiale d'Orsay

· M. Christophe SOTIN, Professeur de géophysique à l'université de Nantes

· Mme Dominique VIOLLET, Chargée des relations avec les élus

ESA

· M. R-M. BONNET, Directeur du programme scientifique

M. Christian CUVILLIEZ, Député, rapporteur, après avoir remercié les participants de bien vouloir présenter leur point de vue sur la problématique des TGE en astronomie, astrophysique et planétologie, a exposé que l'étude du rôle des très grands équipements scientifiques et technologiques conduit directement à une réflexion sur la nomenclature des TGE et son éventuelle réforme, sur l'évaluation des grands investissements de recherche et leur hiérarchisation.

En tout état de cause, un vote positif sur les crédits de la recherche pour 2001 a pu être émis car le budget marque une inflexion satisfaisante en faveur de la recherche. L'augmentation des crédits reste toutefois ciblée sur les sciences du vivant et les sciences et technologies de l'information et de la communication, tandis que les autres domaines n'enregistrent qu'une stabilité de leurs financements.

Les efforts devront donc être amplifiés l'année prochaine.

M. Christian CUVILLIEZ, Député, rapporteur, a ensuite donné la parole à M. Jean-Marie HAMEURY pour une présentation générale des TGE de l'astronomie, de l'astrophysique et de la planétologie.

*

M. Jean-Marie HAMEURY, Directeur de l'Observatoire de Strasbourg, a indiqué que l'astrophysique est utilisatrice de moyens spécifiques mais aussi de moyens de calcul lourds communs à l'ensemble des disciplines scientifiques pour effectuer des simulations numériques dont l'utilisation croît rapidement.

Au reste, un TGE en astronomie, astrophysique ou planétologie correspond à un investissement supérieur à 100 millions de francs, toujours réalisé en coopération internationale, au plan européen sinon mondial.

Dans le budget annuel consolidé de l'astronomie au sens large, qui s'est élevé à environ 1,5 milliard de francs en 1998, la part des TGE représente 770 millions de francs, soit un peu plus de la moitié.

Les TGE spatiaux comptent pour 570 millions de francs par an, dont 400 millions de francs de contribution à l'ESA (European Space Agency - Agence spatiale européenne), et les TGE au sol pour 200 millions de francs par an, dont 130 millions de francs de contribution à l'ESO (European Southern Observatory).

La dépense des autres pays européens pour leurs TGE de l'astronomie est du même ordre de grandeur, ce qui peut s'expliquer par le fait que les contributions aux organismes internationaux sont le plus souvent proportionnelles au PIB des pays impliqués. Les Etats-Unis accordent toutefois une place relative plus importante que l'Europe à leurs TGE de l'astronomie.

Au vrai, les TGE constituent un élément clé de la visibilité internationale de l'astronomie française.

70 à 75 % des publications scientifiques les plus citées de la discipline sont issues de travaux conduits dans leur cadre. En tout état de cause, les concepts de TGE de l'astronomie résultent bien entendu des travaux de la discipline mais ces instruments contribuent en retour à structurer cette dernière. On vérifie le rôle de structuration de la recherche en astronomie dans tous les pays, et en particulier avec les demandes actuelles de la Grèce, du Portugal et du Royaume Uni d'intégrer l'ESO, ainsi qu'avec la réalisation de l'instrumentation focale dans les instituts nationaux, en partenariat industriel.

La procédure de définition et de décision d'un TGE est du type " bottom up ".

Une initiative individuelle ou d'un groupe de chercheurs est relayée par un laboratoire ou un groupement de recherche et soumise à l'appréciation d'un des séminaires de prospective qui rassemblent toute la communauté scientifique tous les 4 ou 5 ans. Le dernier en date de ces séminaires qui a eu lieu à Arcachon, a permis de réaliser un couplage satisfaisant entre la prospective de l'astronomie au sol et celle de l'astronomie spatiale. Une fois validé par la communauté scientifique, le projet est transmis aux agences, comme l'ESO ou l'ESA, et aux tutelles, qui, à leur tour, évaluent le projet à l'aide d'experts internationaux.

L'internationalisation des grands instruments de l'astronomie permet à la France avec une contribution limitée, environ 18 % environ du budget de l'ESA notamment, d'accéder à un ensemble de moyens d'observation qui couvrent toutes les longueurs d'onde, une nécessité absolue pour obtenir une information globale sur les objets observés.

Ainsi, une radiogalaxie comme Centaurus A apparaît comme un ensemble d'étoiles et de poussières en lumière visible. L'observation en infra rouge pénètre les grands nuages de poussière et met en évidence la structure géométrique de la galaxie. La radiométrie X et gamma révèle la présence d'objets cataclysmiques aux conditions physiques extrêmes, comme les trous noirs dont les effets ne sont pas observables aux autres longueurs d'onde.

Au reste, l'internationalisation présente un autre avantage, celui de soumettre les projets de TGE à une évaluation critique élargie, ce qui garantit la compétitivité des projets qui sont sélectionnés au terme de processus rigoureux.

La parole a ensuite été donnée à M. Jean-Loup PUGET, pour une description des questions scientifiques qui requièrent l'utilisation de très grands équipements.

*

M. Jean-Loup PUGET, Directeur de l'Institut d'astrophysique spatiale d'Orsay, a replacé les questions scientifiques majeures de l'astronomie dans la problématique générale de l'évolution de la matière vers la complexité, une vision au demeurant anthropique de l'histoire de l'univers.

Selon le modèle actuel de formation de l'univers, après le Big Bang, une inflation de l'univers est intervenue avec une phase de nucléosynthèse, puis de recombinaison des noyaux et de réionisation. Ensuite se sont produites successivement la formation de galaxies, de systèmes planétaires et enfin l'apparition de matériaux biologiques puis d'une vie intelligente.

Les questions clés de l'astronomie peuvent être situées le long de ce trajet évolutif, comme l'a montré le colloque de prospective d'Arcachon.

Le point de départ est constitué par l'étude du corps noir cosmologique et la formation des grandes structures. Les autres sujets essentiels sont l'étude de la formation et de l'évolution des galaxies, des étoiles, des systèmes planétaires et enfin la compréhension de l'environnement spatial et la prévision.

S'agissant des moyens d'observation indispensables à l'astronomie, il faut disposer d'une panoplie d'instruments recouvrant la plus large gamme possible de longueurs d'ondes.

A cet égard, l'une des étapes de la formation de l'univers pour laquelle on ne dispose que d'un nombre d'observations réduit est celle de l'univers primordial.

L'expérience FIRST/PLANCK, dont le lancement est prévu pour 2007, sera consacrée à l'étude des anisotropies du fond cosmologique, grâce à des observations en infrarouge lointain et en ondes submillimétriques. Il s'agira là d'un TGE européen, leader mondial dans un domaine où la NASA a longtemps occupé la première place. Le satellite correspondant possèdera des dimensions importantes, soit un diamètre de 4 m et une hauteur de 6 m.

Par ailleurs, l'étude détaillée de la formation et de la distribution des grandes structures de l'Univers sera réalisée depuis le sol par le VLT (Very Large Telescope) dont le quatrième télescope est entré en service en septembre 2000, en particulier avec l'instrument VIMOS construit par la France.

Ces études compléteront les premières cartographies de la matière noire entreprises par les équipes françaises à partir de la distorsion gravitationnelle des images des galaxies du fond de l'Univers. Pour ces programmes, la simulation numérique joue déjà un rôle crucial qui s'étendra à d'autres chapitres de l'astronomie - création d'univers primordiaux virtuels, vie et mort des étoiles, formations des systèmes planétaires -.

La formation et l'évolution des galaxies constituent un deuxième grand champ d'étude pour l'astronomie. Il s'agit d'observer les composantes des galaxies, à savoir les étoiles, les gaz stellaires, les poussières de galaxies, dans une gamme très étendue de longueurs d'ondes. Là aussi, une panoplie d'instruments au sol ou spatiaux est nécessaire.

Le télescope spatial NGST (New Generation Space Telescope) qui succédera à HUBBLE, fournira des relevés dans le proche infrarouge avec une sensibilité de 100 fois à 10 000 fois plus grandes que toutes les autres instrumentations actuelles. Ce gain en puissance d'observation correspondra au plus grand saut de l'histoire de l'astronomie et devrait permettre d'observer les premières étoiles qui se sont formées à la fin de l'âge sombre qui suivit le découplage de la matière et de la lumière du Big Bang.

Le projet ALMA de grand interféromètre millimétrique permettra d'obtenir des images de même résolution que le NGST et d'explorer les sources de gaz et de poussières qui donneront naissance à ces premières étoiles.

La complémentarité entre le projet spatial NGST et le projet sol ALMA est parfaite pour suivre le recyclage de la matière gazeuse dans les premiers âges de l'Univers.

Le satellite FIRST/PLANCK fournira une cartographie détaillée de la lumière émergente du Big Bang au moment où elle se découple définitivement de la matière. Cette carte caractérise une étape clé de l'histoire de l'Univers, qui recèle les signatures de la nature physique de l'univers primordial et de la physique des plus hautes énergies, au delà de celles explorées dans les plus grands accélérateurs de particules.

Le projet international GAIA qui suivra au delà de 2010, devrait permettre de décrire la structure de notre galaxie et la distribution des étoiles avec une précision qui se rapproche de celle avec laquelle nous connaissons le système solaire.

L'étude de l'environnement des trous noirs massifs au centre des galaxies est faite avec le satellite XMM d'observation de l'Univers en rayonnement X, lancé en décembre 1999 par Ariane 5, et prendra une nouvelle dimension avec le projet INTEGRAL d'observation de l'Univers en rayonnement gamma, dont le lancement est prévu en avril 2002.

En tout état de cause, la recherche sur les galaxies bute actuellement sur trois questions principales, qui sont, d'une part la compréhension du processus de formation des étoiles, d'autre part l'évolution cosmologique de ces structures et enfin la nature du halo de matière noire qui est à l'origine de la condensation du gaz et des étoiles. Ceci nécessite de comprendre le processus de formation des étoiles et de leur distribution dans des dynamiques. La modélisation sur la base des observations est ici encore indispensable et se révèle particulièrement complexe dans la mesure où il s'agit le plus souvent de la description physique d'un effondrement complexe avec dissipation d'énergie.

En définitive, la nécessité de combiner des observations faites sur un large spectre et donc, le plus souvent, par un ensemble d'instruments distincts, a puissamment poussé l'astronomie à développer des TGE sur une base internationale. S'il y a coopération globale, il reste une compétition au niveau des instruments eux-mêmes et de l'exploitation scientifique des données recueillies.

Sur un plan concret, les TGE au sol sont construits dans le cadre de sociétés internationales qui ont démontré leur aptitude à gérer les grands contrats industriels afférents.

La construction des TGE spatiaux ressortit d'un autre mode d'organisation. La maîtrise d'_uvre des satellites est assurée par des agences spatiales. La construction des charges utiles, à savoir les instruments d'observation proprement dits, est prise en charge par de grands laboratoires spécialisés. On constate à cet égard que la structure des EPST (établissements publics scientifiques et technologiques) qu'ont ces grands laboratoires, est mal adaptée à la gestion des grands contrats industriels.

M. Jean GALLOT, membre du groupe de travail, s'est interrogé sur la charge financière représentée par les TGE de l'astronomie et s'est demandé si, en complément au système des contributions au prorata du PIB, il était possible d'y accéder selon d'autres mécanismes.

M. Jean-Marie HAMEURY a précisé, à ce sujet, que s'ajoutent aux dépenses de participation aux TGE, les frais de réalisation de l'instrumentation focale, qui représentent une part non négligeable des dépenses du CNES.

Mme Claudine LAURENT, membre du groupe de travail, a ajouté que la réalisation d'un instrument focal ouvre le droit à une utilisation accrue du TGE lors de son entrée en service.

La parole a ensuite été donnée à M. Michel BLANC pour un exposé sur les méthodes de l'astrophysique.

*

M. Michel BLANC, Directeur du Laboratoire d'astrophysique de l'Observatoire Midi-Pyrénées, a indiqué que l'astrophysique est un carrefour interdisciplinaire.

L'étude de l'univers primordial met en jeu la physique des champs et des particules. Le découplage de la matière et du rayonnement et la nucléosynthèse sont le domaine de la physique des interactions du rayonnement et de la matière, de la physique atomique et de la physique gravitationnelle. La synthèse des noyaux lourds et la formation des étoiles et des galaxies correspondent également à ces deux dernières disciplines. L'étude de la formation des matériaux planétaires, des systèmes planétaires et des planètes est du ressort des sciences de la Terre et de la physique gravitationnelle.

La chimie, la biologie et les sciences de l'environnement sont mises en _uvre pour l'étude de l'émergence des matériaux biologiques, des environnements planétaires et des habitats pré-biotiques.

Enfin la physique des plasmas, la physique spatiale sont indispensables pour l'examen de l'écosphère humaine dans le système solaire et la météorologie de l'environnement spatial.

Sur le strict plan de l'observation, les différentes gammes de longueur d'onde donnent chacune des informations irremplaçables. Si l'on considère par exemple le processus de formation des galaxies, celui-ci s'effectue par un effondrement des nuages interstellaires, le centre donnant lieu à la création d'une étoile, entourée d'un disque planétaire qui, lui-même, donne naissance aux planètes. L'étude de l'étoile considérée s'effectue dans le visible et l'ultraviolet. Les gaz et les poussières entourant l'étoile s'analysent dans l'infrarouge et les ondes radio.

Ainsi, c'est avec différents instruments que l'on peut percer les secrets des objets célestes. D'une manière générale, la technique la plus performante pour l'observation est l'interférométrie, qui constitue la voie d'avenir tant pour les observations au sol que pour les observations spatiales.

Les expériences critiques pour l'avenir couvrent trois domaines, d'une part la formation des étoiles et des systèmes planétaires, d'autre part l'exploration planétaire et enfin le système Soleil-Terre.

S'agissant de la formation des étoiles et des systèmes planétaires, le principal objectif de l'observation au sol est l'observation des étoiles, de gaz et des poussières interstellaires dans plusieurs longueurs d'ondes, avec la meilleure résolution possible. C'est l'objectif du VLT déjà en fonctionnement et du projet ALMA. Différents satellites s'attacheront à la détection systématique des étoiles. COROT a pour objet l'étude des planètes de la taille de la Terre, GAIA celui de la cartographie de l'ensemble de la galaxie, DARWIN l'interférométrie spatiale en vue de pouvoir séparer les planètes des étoiles.

A plus long terme, il conviendra d'explorer les témoins les plus " froids " et les plus " chauds " de la formation initiale du système solaire que sont les comètes, les astéroïdes et Mercure, ainsi que les sous-systèmes de planètes géantes comme Saturne. Le programme de l'ESA devrait permettre de couvrir tous les souhaits de la communauté scientifique.

Ce sera l'objectif de ROSETTA que d'étudier le noyau et l'environnement de la comète Wirtanen, qui devrait être lancé en janvier 2003 par une fusée Ariane 5 pour un rendez-vous en 2011. L'étude de Saturne sera réalisée par l'orbiteur CASSINI et celle de l'atmosphère de Titan par la sonde HUYGENS, les deux éléments ayant été lancés en octobre 1997 et devant atteindre Saturne en 2004.

La détection des planètes utilise des méthodes sophistiquées comme la vélocimétrie avec effet Doppler. C'est ainsi que le système planétaire Upsilon Andromède a été détecté, montrant que des planètes géantes peuvent se trouver au plus près de l'étoile, au contraire de ce que l'on trouve dans le système solaire où elles sont à l'extérieur.

Au demeurant, l'exploration planétaire a comme premier objectif la découverte du système solaire avec des robots. Les objectifs sont d'approfondir les connaissances d'une part sur la structure et la dynamique interne des planètes grâce aux méthodes de la sismologie et des champs planétaires, d'autre part sur la morphogenèse des surfaces planétaires par l'établissement d'une cartographie globale et des études de terrain, et enfin sur la caractérisation géochimique et minéralogique des matériaux par des études in situ et grâce au retour d'échantillons au demeurant indispensable pour disposer de toute la puissance des outils analytiques disponibles.

L'exploration de Mars a pour objectifs principaux, l'étude des paléoclimats et des habitats planétaires. Il apparaît nécessaire à cet égard de comprendre le rôle des atmosphères comme réacteurs chimiques. L'exploration de Mars et la mission HUYGENS sur Titan, la plus importante lune de Saturne, fourniront des informations importantes à cet égard. Par ailleurs, il convient également de rechercher l'eau liquide ainsi que des habitats pré-biotiques.

Ce sera l'un des objectifs du programme Exploration de Mars puisque tout laisse à penser qu'il existe des réservoirs d'eau. La mission Mars Global Surveyor avait mis en évidence des anomalies intenses de champs magnétiques sur Mars. Par ailleurs, il existe des traces de ruissellement d'eau sur Mars, dont certaines sont très anciennes et peuvent témoigner de l'existence d'un climat relativement doux sur cette planète au début de son histoire et dont d'autres, semblant plus récentes, pourraient résulter d'un impact météorique.

Un autre projet pourra être ensuite l'exploration du satellite Europe de Jupiter qui abrite peut-être des océans sous-glaciaires.

L'autre ensemble des expériences critiques porte sur l'étude du système Soleil-Terre. Le satellite SOHO permet l'étude du soleil et de son atmosphère. Pour l'étude de la couronne solaire qui est indispensable, on ne pourra éviter de lancer une sonde solaire.

S'agissant des interactions Terre-Soleil, les deux paires de satellites jumeaux CLUSTER 2, lancés pendant l'été 2000 et en cours de recette actuellement permettront de mesurer les courants dans l'espace, et de progresser dans la compréhension des interactions entre les vents solaires et la magnétosphère, en vue de parvenir ultérieurement à une météorologie spatiale prédictive. Il s'agit là du programme européen " Space Weather ".

En réponse à une question de M. Christian CUVILLIEZ, Député, rapporteur, M. José ACHACHE, Directeur général adjoint scientifique du CNES a indiqué que la décision sur le projet Retour d'échantillons de Mars n'est pas définitivement engagée et qu'il est encore temps d'entendre des avis complémentaires.

La parole a ensuite été donnée à M. Roger BONNET.

*

M. Roger M. BONNET, Directeur du programme scientifique de l'ESA (Agence spatiale européenne - European Space Agency) a indiqué que la France contribue à environ 30 % du total du budget de l'ESA.

Le budget total de l'ESA représente pour l'année 2000 un montant de 2,7 milliards d'euros, soit près de 17,1 milliards de francs. Il est consacré à hauteur d'environ 20 % aux programmes obligatoires que sont le programme scientifique, le programme de recherche technologique (TRP Technology Research Programme) et la participation au financement de l'infrastructure administrative et technique de l'agence. Les programmes facultatifs représentent 76 % des dépenses totales. Le complément à 100, soit 4,5 % du budget total, correspond aux programmes réalisés pour des tierces parties et financés par celles-ci.

La participation de la France au budget des activités obligatoires de l'ESA s'élève à 17,3 % du total, une part au demeurant proportionnelle à son revenu national selon la clé de répartition adoptée en 1975. La participation de la France au budget des programmes facultatifs est de 32,9 %.

Au total, la contribution française s'est élevé en 1999 à 722 millions d'euros (4,7 milliards de francs). L'Allemagne assure la deuxième contribution à l'ESA avec un montant de 682,2 millions d'euros.

Quelle est la part du programme scientifique, un programme au demeurant obligatoire, dans l'activité de l'ESA ? Elle est de 13,2 %, soit un montant annuel de 357,6 millions d'euros en 1999, qui vient au 4ème rang des dépenses totales de l'agence.

Tableau 2 : Répartition du budget 2000 de l'ESA par programmes

 

millions d'euros

%

Lanceurs

529,5

19,6

Observation de la Terre

491,0

18,1

Vols habités

486,7

18,0

Programme scientifique

357,6

13,2

Dépenses générales

284,3

10,5

Divers

198,7

7,3

Télécommunications

176,2

6,5

Microgravité

103,7

3,8

Navigation

79,9

3,0

total

2 707,6

100,0

Depuis 1995, le budget du programme scientifique de l'ESA décroît. Au final, en 2000, il ne représente que 15 % du programme scientifique de la NASA.

Tableau 3 : La science spatiale en Europe et aux Etats-Unis

2000

science spatiale

budget total

science spatiale en % du budget total

NASA (millions de dollars)

2 059

13 600

15,1 %

ESA (millions d'euros)

358

2 700

13,2 %

Europe (ESA + budgets nationaux européens)

600

4 000

15 %

Le budget 2000 de la science spatiale à l'ESA, qui s'établit à 358 millions d'euros, correspond à un budget enveloppe avec lequel il convient de financer un nombre maximal d'équipements.

Le programme scientifique de l'ESA sert 2250 scientifiques en Europe, dont 400 chercheurs français. Il faut toutefois noter que la dépense par scientifique en France est inférieure à celle qu'elle est dans d'autres pays, notamment en Suisse, aux Pays-Bas et en Allemagne.

Depuis 30 ans, les projets de science spatiale de l'ESA ont démontré le bénéfice scientifique d'une coopération multinationale et permis à l'Europe d'être leader dans différents domaines et dans le peloton de tête, tous projets scientifiques confondus. Ainsi, le projet INTEGRAL d'observation de l'Univers en rayonnement gamma devrait permettre à l'Europe, en coopération avec la Russie, de détenir la première place mondiale dans ce domaine. Les programmes ISO, FIRST et PLANCK ont installé l'Europe à la première place mondiale en astronomie infrarouge. Le projet BEPI COLOMBO devrait également démontrer le leadership européen en physique héliosphérique. Au total, les domaines traités par l'ESA sont l'environnement spatial de la Terre, l'interaction Soleil-Terre, le milieu interplanétaire, la Lune, les planètes et autres objets célestes, les étoiles et l'univers.

La programmation des objectifs scientifiques de l'ESA résulte d'une consultation des communautés scientifiques des différents pays et se traduit par des priorités établies par celles-ci. Une programmation à long terme est faite tous les dix ans. Quelques programmes nouveaux peuvent toutefois être inclus tous les deux à trois ans. La convention de création de l'ESA a créé un Comité du programme scientifique, le SPC, qui établit les priorités entre les différentes disciplines et rapporte au Conseil et au directeur général de l'ESA.

Le programme cadre Horizons 2000 comprend des projets de grande ampleur d'un budget de 550 millions d'euros environs, des projets de taille moyenne et flexibles d'un budget d'environ 180 millions d'euros et des programmes de taille réduite, à but technologique correspondant à des budgets de 80 à 100 millions d'euros.

Au plan thématique, ces programmes sont répartis entre l'astrophysique, l'exploration du système solaire et la station spatiale internationale.

Tableau 4 : Programme Horizons 2000 pour l'astrophysique

 

 

Origine, évolution et structure de l'Univers

Lois de la physique fondamentale

Origine et évolution des étoiles et des systèmes planétaires et détection des planètes telluriques

1999 : XMM Newton - détection des objets chauds de l'univers

2002 : INTEGRAL (avec la Russie) - Observation et analyse des sources cosmiques les plus énergétiques

2002 : AGILE - le rayonnement gamma dans l'univers

 

2004 : STEP - vérification des théories fondamentales de la relativité

 

2007 : PLANCK - étude de la texture de l'Univers à partir du Big Bang

2007 : FIRST - étude de l'évolution des étoiles et des galaxies

2009 : NGST - étude de l'origine et de l'évolution des premières galaxies

2009 : HST/NGST - étude des toutes premières galaxies, des étoiles et des systèmes planétaires

2009 ( ?) : HYPER - Interférométrie de très haute précision par senseurs à atomes froids

2009 : GAIA - pointage précis des étoiles, de leurs déplacements et de leurs distances dans notre galaxie et détection de planètes extra-solaires

2009 : LISA - détection des ondes gravitationnelles des trous noirs massifs et des systèmes binaires

 

? : XEUS - caractérisation des premiers objets chauds dans l'Univers

? : IRSI-DARWIN : identification et caractérisation d'exoplanètes telluriques et recherche de signes de vie possibles

Tableau 5 : Programme Horizons 2000 pour l'exploration du système solaire

Exploration du système solaire

Etude du Soleil et de son influence sur la Terre

1997 : (CASSINI)-HUYGENS - exploration de Titan, la plus grosse lune de Saturne

1990 : ULYSSE (en cours) - observation du Soleil et de l'héliosphère dans sa troisième dimension

 

1995 : SOHO (en cours) - observation permanente du Soleil depuis son noyau jusqu'aux couches externes de la couronne

 

2000 : CLUSTER (en cours) - étude tridimensionnelle de l'environnement électromagnétique de la Terre

2001 : SMART-1 - propulsion ionique et science de la Lune

? : SOLAR ORBITER - observation à très haute résolution de la surface du Soleil et de l'héliosphère proche

2003 : Mars Express - planétologie comparée et exobiologie

 

2003 : ROSETTA - étude de la matière primitive du système solaire, rendez-vous avec la comète Wirtanen

 

2007-2009 : BEPICOLOMBO - exploration de Mercure

 

Tableau 6 : Programme Horizons 2000 pour la science dans la station spatiale internationale

2005 : ACES - métrologie temporelle

SPORT - étude de la polarisation du rayonnement cosmologique

SOVIM/SOLSPEC/SOLACES - contrôle continu de la constante solaire

2010 : EUSO - détection des rayons cosmiques à très hautes énergies et des neutrinos

LOBSTER - cartographie et variabilité du ciel en rayons X

MOSS - oscillateurs micro-ondes et supraconducteurs

? : XEUS - observatoire international pour l'astronomie X

S'agissant de la Station spatiale internationale, M. R.M. BONNET a déclaré que ce programme a été lancé sur des critères politiques.

En Europe, c'est l'Allemagne qui y joue un rôle prédominant au travers des programmes optionnels, auxquels la France participe aussi mais avec un moindre engagement.

Au demeurant, la Station spatiale internationale constitue une opportunité pour la science spatiale, dans la mesure où sa mise en oeuvre y est facile.

Sur un plan organisationnel, la programmation de l'ESA et les programmations nationales gagneraient à être mieux coordonnées.

Mais la difficulté fondamentale que rencontre l'ESA est bien sûr l'insuffisance de ses financements par rapport à la NASA.

Le budget de la science spatiale de l'ESA représente 15 % de son équivalent à la NASA. Le budget total de l'ESA représente 17 % de celui de la NASA.

On peut redouter en conséquence une colonisation de l'espace par les Etats-Unis. A titre d'exemple, la NASA consacre 450 millions de dollars par an à ses programmes pour Mars, ce qui peut faire dire que " Mars sera l'Amérique et non pas une nouvelle Amérique ".

Un autre risque est celui de la dépendance technologique. Ainsi, la propulsion nucléaire sera indispensable pour envoyer des sondes au-delà de Jupiter. Aucun autre programme n'est à l'étude en dehors des Etats-Unis.

En réalité, l'avantage primordial des Etats-Unis dans le domaine spatial est l'apport du programme spatial militaire qui alimente de facto le programme scientifique civil.

Sur un plan général, il est important de remarquer qu'il n'y a pas de disproportion marquée entre l'Europe et les Etats-Unis pour les dépenses de recherche et technologie civiles. En revanche, pour la recherche et la technologie militaire, les dépenses américaines sont 4 fois supérieures aux dépenses européennes.

Tableau 7 : Comparaison des dépenses américaines et européennes en recherche et technologie civiles ou militaires 4

 

PIB

dépenses R & T civiles

dépenses R & T militaires

total

Etats-Unis

(milliards de dollars - 2000)

9425

59,7

42,6

102,3

Europe des 15

(milliards d'euros - 1998)

8413

48,0

9,2

57,2

Union européenne

(milliards d'euros - 2000

 

3,6

0

3,6

Cette problématique est particulièrement sensible dans le domaine spatial.

Tableau 8 : Comparaison des budgets spatiaux 5 américains et européens 6

1ers budgets 1998

budgets spatiaux civils

budgets spatiaux militaires

total

Etats-Unis

(milliards de dollars)

13,5

12,5

26,0

Europe y compris ESA (milliards d'euros)

4,02

~ 1

~ 5

ESA

(milliards d'euros

2,9

0

 

Au demeurant, la NASA n'est pas la seule source des efforts américains en faveur de l'espace. En réalité la NASA pilote l'emploi de 12 milliards de dollars du programme, le DOD (Department of Defense) et le DOE (Department of Energy) ayant, pour leur part, la maîtrise d'une enveloppe de 13 milliards de dollars.

Dans le but de diminuer cette disparité, on peut estimer que l'Union européenne devrait soit augmenter ses financements de recherche et de technologie civiles soit se lancer dans des programmes militaires.

L'ESA coopère principalement avec les Etats-Unis. Il convient d'élargir la coopération avec d'autres pays comme la Russie, le Japon et la Chine.

Cette orientation est d'autant plus indispensable que l'on constate un essoufflement de certains pays qui ne parviennent que difficilement à financer un instrument, en plus de leur contribution nationale. Les charges utiles, c'est-à-dire les instruments d'observation, voient leurs coûts augmenter considérablement, en raison de l'émergence de technologies nouvelles de plus en plus onéreuses.

Il semble en conséquence indispensable que l'Union européenne apporte à l'ESA des financements complémentaires.

*

Un débat s'est alors engagé sur l'implication de l'Union européenne.

M. Michel SPIRO s'est demandé si l'intervention de l'Union européenne est réellement nécessaire, dans la mesure où elle risque d'alourdir les procédures de décision.

M. José ACHACHE a rappelé qu'il existe un facteur 5 entre les investissements de l'Europe et ceux des Etats-Unis. De surcroît, les budgets de l'ESA sinon du CNES sont constants.

L'Union européenne devrait donc jouer un rôle d'ajustement. Les programmes scientifiques spatiaux de l'Europe au sens large, c'est-à-dire en regroupant l'ESA et les programmes nationaux ne représentent que 25 % du budget équivalent de la NASA.

M. R.M. BONNET, soulignant que la Station spatiale internationale est une réalisation à vocation politique, a estimé que l'Union européenne devrait s'impliquer dans son financement, de manière à permettre aux pays qui n'ont pas participé à son financement de l'utiliser.

S'agissant de l'insuffisance de la coordination entre l'ESA et les programmes spatiaux nationaux, des progrès sont certes réalisés et la coordination avec le CNES est sans aucun doute de qualité. Mais l'ajustement des projets se fait le plus souvent au coup par coup et a posteriori, comme des exemples récents l'ont malheureusement démontré.

M. José ACHACHE qui a souligné la bonne coordination entre le CNES et l'ESA, a estimé toutefois non optimale la coordination pour les programmes sur Mars.

*

En réponse à une question de M. Christian CUVILLIEZ, Député, rapporteur, sur l'évolution défavorable du budget du CNES pour 2001, M. José ACHACHE a précisé qu'à la suite d'un délai supplémentaire obtenu par l'ESA pour le remboursement de sa dette, le CNES s'est trouvé disposer d'une trésorerie supplémentaire de 300 millions de francs en 2001. Le secrétariat d'Etat au Budget en a conclu qu'il était possible de diminuer du même montant les crédits du CNES. Le problème créé par cette disposition est l'effet de cliquet qui se traduit par la difficulté bien connue de retrouver un niveau antérieur plus favorable. C'est en réalité la deuxième année que le budget du CNES est en baisse.

Une évolution en cours, importante et positive, doit toutefois être mentionnée.

Un document sur la stratégie spatiale européenne a en effet été demandé par les ministres des 15 à la fois à la Commission européenne et à l'ESA. Ce document commun doit être approuvé en novembre par le Conseil Recherche de l'Union européenne et par un Conseil ministériel exceptionnel de l'ESA.

Le partage des rôles reviendrait à donner un rôle accru à l'ESA en tant qu'agence de service et à assigner à l'Union européenne la charge d'assurer le développement technologique et la compétitivité économique de l'Europe spatiale.

Dès lors, l'Union européenne assurerait le soutien de base correspondant en mettant en place, dans le cadre du 6ème PCRD, des contrats de recherche pour les activités au sol, le développement de charges utiles et des instruments, ainsi que pour les technologies de base relatives aux détecteurs, aux capteurs et aux nouveaux instruments.

Ainsi une complémentarité sera définie entre l'ESA et l'Union européenne, avec toutefois une complexité supplémentaire due au partage des tâches dont on aurait pu imaginer qu'elles seraient toutes confiées à l'ESA moyennant une contribution budgétaire globale.

M. Michel SPIRO a effectivement émis la crainte que le travail de consultation des communautés scientifiques réalisé par l'ESA ne soit dupliqué par l'Union européenne.

M. Philippe LAREDO a jugé que l'Union européenne pourrait apporter un autre regard.

M. Roger BALIAN a fait valoir que la maîtrise du processus pourrait échapper aux scientifiques.

M. José ACHACHE a estimé que la participation de l'Union européenne dans des programmes spatiaux devait en priorité se porter sur l'infrastructure non scientifique Galileo, dans la mesure où il s'agit d'un enjeu de souveraineté et de compétitivité.

En complément à cette intervention indispensable, la contribution du PCRD est essentielle pour que l'Europe ait une force de proposition au-delà des 12-15 ans qui viennent, grâce à des avancées technologiques pour la résolution des détecteurs et la propulsion.

Mme Claude LAURENT, membre du groupe de travail, a fait état de la définition en cours de thématiques et d'actions clé en prolongement du rapport BUSQUIN sur l'espace européen de la recherche.

Faut-il des actions clé pour la recherche et la technologie de l'astronomie et de l'espace ?

M. R.M. BONNET a estimé que seules les communautés scientifiques, qu'il faut consulter à cet effet, peuvent donner une réponse à cette question et proposer des axes de recherche et de développement technologiques.

Sans doute est-il possible de parvenir à un partage des rôles entre l'Union européenne et l'ESA. Mais le facteur essentiel est que l'effort technologique massif fait par les Etats-Unis bénéficie de leur politique spatiale de défense.

M. Michel BLANC a estimé que l'intervention de l'Union européenne dans le domaine spatial peut être analysée de deux points de vue.

D'un point de vue citoyen, les objectifs de développement économique, de souveraineté et les enjeux scientifiques afférents exigent que l'Union européenne se saisisse du spatial. Du point de vue scientifique, la démarche de l'ESA est à préserver car s'il s'agit essentiellement d'une agence de mise en _uvre. Mais il existe en amont de son activité et même du développement technologique des étapes critiques au plan scientifique et technique. De même, en aval, les données collectées par les outils spatiaux exigent des traitements multiples et une valorisation dans des outils de modélisation et de simulation complexes.

M. Jean-Loup PUGET a confirmé l'importance d'une aide de l'Union européenne pour les actions en amont des outils spatiaux mais celle-ci est également indispensable pour l'aval.

Les agences nationales assument en effet avec difficulté les tâches indispensables de constitution de bases de données à partir des mesures réalisées, de conservation et de distribution des données, tâches que les Etats-Unis remplissent mieux et plus aisément, à tel point que l'accessibilité des données des satellites de l'ESA est souvent meilleure par l'intermédiaire des Etats-Unis que par les pays européens.

M. Laurent VIGROUX, Chef du service d'astrophysique du CEA, a indiqué que la Commission européenne joue un rôle pour la mise en réseau des laboratoires et le financement de postes de post-docs. En tout état de cause, une démarche commune avec l'ESA aurait plus de poids.

M. Jacques HAISSINSKI, Professeur à l'université de Paris-Sud et chercheur au LAL, a estimé pour sa part que l'Union européenne qui manque de relais dans les organismes de recherche et dans les laboratoires, pourrait rencontrer des difficultés pour distribuer de façon optimale des crédits de soutien à la recherche et au développement en instrumentation spatiale.

M. José ACHACHE a précisé que selon un partage normal des tâches, c'est le CNES qui réalise les missions spatiales et le CNRS qui exploite les données issues de celles-ci.

Il apparaît toutefois qu'un problème se pose d'une part pour l'archivage des données, dont les volumes sont considérables notamment pour l'observation de la Terre, mais aussi, d'autre part, pour leur traitement, leur stockage, leur mise à disposition, voire pour leur interprétation.

Si l'on transpose ce schéma à l'Union européenne, il convient que la Direction générale Recherche de la Commission européenne joue un rôle d'appui en aval de missions au demeurant conduites par l'ESA.

Il reste que la Commission connaît des problèmes de fonctionnement pour soutenir la recherche et les équipes de scientifiques. La communauté scientifique du spatial en a la conviction. Il est en conséquence nécessaire que la Commission améliore à la fois l'efficacité et la transparence de ses procédures de soutien à la recherche.

M. Philippe LAREDO a émis un point de vue totalement opposé à ce sujet. De nombreux scientifiques pensent au contraire qu'il est plus difficile d'accéder aux autorités françaises de la recherche qu'à celles de la Commission européenne. Au surplus, c'est souvent la France, qui, au motif de renforcer les contrôles, introduit des lourdeurs voire des blocages supplémentaires dans les procédures communautaires.

M. José ACHACHE a rétorqué que la règle de l'accès à un financement dans le domaine de la recherche est la revue des projets par les pairs. Il convient en tout état de cause que la Commission européenne érige cette démarche en principe incontournable et général.

M. Philippe LAREDO a souligné que la règle de l'expertise par les pairs peut connaître des distorsions lorsque les experts sont nommés pour cette tâche par des instances politiques.

M. Richard BONNEVILLE, Délégué à l'exploration et à l'étude de l'Univers au CNES, après avoir rappelé les montants des participations de la France aux programmes obligatoires ou facultatifs de l'ESA, a détaillé le programme du CNES d'exploration de Mars, programme intitulé PREMIER qui comprend trois volets.

Le premier volet est la mission Mars Express Orbiter de l'ESA, prévu pour 2003, focalisée sur la cartographie et la recherche d'eau de la planète Mars.

Le deuxième volet est un programme multilatéral, regroupant 11 pays européens avec une participation américaine de faible ampleur, dont l'objectif est de déployer 4 atterrisseurs Netlanders sur Mars pour installer un réseau de mesures géophysiques. Le coût de ce programme est de 600 millions de francs, que la France prend à sa charge à hauteur des 2/3.

Le troisième volet est le retour d'échantillons, dans le cadre d'une coopération NASA-CNES. Les Etats-Unis allouent un budget annuel de 450 millions de dollars à ce programme, sur la période 2001-2012. La participation française s'élève à 2,5 milliards de francs pour la période 2000-2012.

En définitive, le programme PREMIER devra tenir compte de la réévaluation faite par les Etats-Unis de leur propre programme.

La méthode retenue par la NASA est en effet de procéder par étape afin de valider chacune des opérations nécessaires au retour d'échantillons. Des missions auront lieu en conséquence en 2005, 2007 et 2009, avant la mission retour d'échantillon proprement dite, repoussée à 2011.

Au demeurant, le programme PREMIER correspond à la recommandation des scientifiques français spécialisés en planétologie. Il faut à cet égard noter l'effet fédératif de ce projet pour les sciences du vivant et les sciences de la Terre.

M. José ACHACHE a confirmé le soutien unanime de la communauté scientifique à ce programme.

Il a ensuite souligné que la France consacrera au projet de retour d'échantillons de Mars un somme dix fois inférieure à celle des Etats-Unis.

En tout état de cause, si la France est isolée dans ce domaine, c'est que les autres pays européens n'ont pas décidé pour le moment d'y participer.

Mais la France s'affirme comme un partenaire clé des Etats-Unis pour ce projet, car si sa contribution financière est largement minoritaire, elle détient un verrou avec la mise à disposition d'Ariane 5 en 2007. Il conviendra de veiller à ce que la France conserve une part significative du programme après la revalidation en cours aux Etats-Unis. Il est acquis que l'agence spatiale italienne y participera.

Par ailleurs, le coût total de la mission Mars Explorer de l'ESA atteindra 180 millions d'euros.

La parole a ensuite été donnée à Mme Geneviève DEBOUZY pour une présentation des TGE de l'astronomie au sol.

*

Mme Geneviève DEBOUZY, directeur scientifique adjoint de l'INSU, a exposé que les très grands équipements au sol de l'astronomie et de l'astrophysique, comprennent d'une part la participation française à l'ESO (European Southern Observatory), d'autre part les instruments de l'INSU que sont l'IRAM (Institut de radioastronomie millimétrique), le CFHT (télescope Canada-France-Hawaii) et enfin les projets VIRGO et AUGER déjà présentés aux Rapporteurs.

L'ESO comporte un siège à Garching en Allemagne, et deux sites d'observation au Chili, l'un à La Silla et l'autre au Paranal. La participation française à l'ESO, organisation intergouvernementale créée en 1962 et rassemblant 8 pays européens, est de 26,2 % du budget de l'organisation.

Les 14 télescopes optiques et le radiotélescope de La Silla sont désormais complétés par le VLT (Very Large Telescope) situé sur le mont Paranal. Le VLT est un ensemble de 4 télescopes couplés de 8 m de diamètre chacun, récemment entrés en fonction.

La France a joué un rôle clé pour la fabrication des miroirs, avec 5 des 11 contrats de réalisation du VLT, et est l'un des leaders pour la mise au point du fonctionnement du VLT en mode interférométrique, une technique qui associe les 4 télescopes du VLT à 3 petits télescopes mobiles additionnels et permet d'obtenir une très haute résolution angulaire.

Les objectifs à court terme de l'astronomie française à l'ESO sont d'une part l'exploitation du VLT et d'autre part la finition du VLTI qui devrait s'achever en 2002-2003.

Le moyen terme de l'ESO est la réalisation du projet ALMA constitué par un réseau de 64 antennes de 12 mètres de diamètre chacune, fonctionnant en mode interférométrique dans le domaine millimétrique, réseau implanté dans le désert d'Atacama.

Ce projet sera mené à bien en partenariat entre l'ESO et les Etats-Unis, le Japon négociant actuellement sa participation. Son coût total atteindra 550 millions de dollars, dont la moitié à la charge de l'Europe. Ses objectifs scientifiques concernent toutes les thématiques de l'astronomie et de l'astrophysique, en particulier la cosmologie et l'étude des grandes structures, la structure et la dynamique des galaxies, la planétologie.

Le projet ALMA est en cours de finalisation, une phase de pré-étude devant s'achever fin 2001, la phase de réalisation devant ensuite être soumise à approbation courant 2001. En tout état de cause, l'ESO souhaite élargir le nombre de pays membres, la participation du Royaume Uni étant au premier chef indispensable.

M. José ACHACHE a averti, à cet égard, que la réalisation d'ALMA risquait d'être compromise par les risques sismiques de magnitude 9 et de forte probabilité pesant sur le désert d'Atacama.

Mme Geneviève DEBOUZY a poursuivi sa présentation des TGE de l'astronomie au sol par une présentation des grands équipements de l'INSU, l'IRAM et le CFH.

L'IRAM est un institut plurinational, fondé en 1974 par le CNRS et la Max Planck Gesellschaft, rejoints ensuite par l'IGN espagnol en 1990. L'IRAM dispose de deux très grandes installations, d'une part l'interféromètre du plateau de Bure situé près de Grenoble, et d'autre part une antenne de 30 m en Espagne dans la Sierra Nevada.

L'expérience acquise par l'IRAM, notamment pour la réalisation de l'interféromètre, le traitement des données et les développements instrumentaux dans le domaine de la radioastronomie millimétrique, constitue un atout majeur de la France pour la réussite du projet ALMA. Au reste, des liens très étroits entre ALMA et l'IRAM sont envisagés, qui reviendront à européaniser ce dernier.

Le CFHT (télescope Canada-France-Hawaii) en service depuis 1979 à Hawaii, est constitué d'un télescope de 3,6 m de diamètre.

Le CFHT connaît depuis quelques années une spécialisation progressive dans l'imagerie grand champ, avec la caméra grand champ MEGAPRIME dans le visible. Il est envisagé de réaliser une caméra grand champ infrarouge WIRCAM en coopération internationale.

Le programme scientifique du CFHT est assuré jusqu'en 2008. Au delà, la réflexion est ouverte sur son avenir, qui doit s'envisager sur un plan international en tenant compte des discussions actuelles sur les grands " collecteurs ".

La parole a ensuite été donnée à M. Laurent VIGROUX pour une présentation des activités du CEA dans le domaine de l'astrophysique et de la planétologie.

*

M. Laurent VIGROUX, Chef du Sap-DAPNIA a indiqué que le CEA ne possède pas en propre de TGE dans le domaine de l'astrophysique et de la planétologie mais qu'il coopère étroitement avec le CNES et l'INSU pour la conception et l'utilisation de leurs grands équipements au sol ou dans l'espace, son intervention se partageant à égalité entre ces deux catégories. Le CEA est ainsi intervenu pour les programmes ISO, SOHO, XMM, INTEGRAL et FIRST.

Au vrai, les TGE sont des moyens absolument vitaux dans un domaine comme l'astrophysique.

Le but du DAPNIA est au premier chef la recherche fondamentale mais aussi la valorisation des résultats acquis par le développement d'applications technologiques. Ainsi, en prolongement de la mise au point de détecteurs infrarouges pour les satellites d'observation, des caméras thermographiques seront mises au point pour l'armée. Des dispositifs de mesure des températures ou des détecteurs de rayonnements X durs pour le projet INTEGRAL trouveront des applications au LETI pour la microélectronique. Les travaux conduits pour le VLT en matière de cryomécanismes ont trouvé des applications dans d'autres domaines.

Le DAPNIA s'attache ainsi à mettre en oeuvre, depuis 20 ans et avec constance, la même démarche d'interactions positives entre la recherche et les applications industrielles. En tout état de cause, un TGE doit utiliser une filière technologique disponible ou recourir aux résultats de programmes militaires, même si l'on doit dépasser les niveaux de performances existants pour aboutir au prototype souhaité.

La parole a ensuite été donnée à M. Jacques HAISSINSKI, pour une présentation de la convergence de la physique des particules et de l'astrophysique et du rôle des programmes spatiaux dans ce domaine.

*

M. Jacques HAISSINSKI a indiqué que la convergence de la physique des particules avec l'astrophysique s'inscrit dans un mouvement qui a d'abord conduit des chercheurs à passer de la physique nucléaire à la physique des particules puis à l'astrophysique. Cette seconde transition a commencé en France vers la fin des années 1980, plus tard qu'aux Etats-Unis. Mais cette convergence résulte surtout du fait que de nombreux thèmes de recherche sont communs à la physique des particules et à l'astrophysique.

Ainsi la matière obscure, qui représente la plus grande fraction de la matière dans l'univers, consiste probablement en de nouvelles particules qui ne sont pas encore découvertes mais dont la recherche est en cours.

Un autre des sujets essentiels de la cosmologie est la compréhension de la violation de la symétrie matière-antimatière. L'univers en son début était symétrique mais ensuite la matière a dominé l'antimatière, selon un processus dont l'étude est cruciale non seulement pour la cosmologie mais aussi pour la physique des particules.

Par ailleurs, la théorie de l'évolution de l'univers fait intervenir une phase d'expansion rapide dite " inflation " dont l'existence n'est pas encore fermement établie mais qui, si elle est confirmée, a eu pour origine un champ analogue à celui qui est au c_ur des recherches actuelles en physique des particules.

Enfin, la physique des particules est fondamentalement une physique des hautes énergies qui nécessite le recours à des dispositifs expérimentaux mettant en oeuvre des énergies de plus en plus élevées pour observer les particules à une échelle de plus en plus réduite. Pour effectuer des tests de la théorie de l'unification des forces fondamentales telle qu'elle est prédite par la théorie, il faut atteindre des niveaux d'énergie extrêmes, seuls observables dans l'univers premier.

Un autre facteur de convergence a son origine dans le rayonnement cosmique. Des particules comme le positon, le muon, le pi et les particules étranges ont été découvertes par des observations faites sur ce rayonnement cosmique. De fait, le rayonnement cosmique joue un rôle très important dans la connaissance des particules. Par la suite, ce rôle a diminué mais aujourd'hui se développe un nouveau domaine de recherche, appelé " physique des astroparticules ", qui, outre les rayons cosmiques au sens traditionnel du terme, fait aussi intervenir les photons, les neutrinos et certaines antiparticules.

En définitive, cette nouvelle discipline qui résulte de la convergence de la physique des particules et de l'astrophysique assigne un rôle de plus en plus important à l'observation spatiale.

Dans certains cas, c'est parce qu'il est indispensable de procéder à des observations au delà de l'écran que constitue l'atmosphère, par exemple pour étudier la composante antimatière du rayonnement cosmique. Dans d'autres programmes de recherche, ce sont d'autres raisons spécifiques qui conduisent à utiliser des appareillages spatiaux, ainsi pour effectuer la détection d'ondes gravitationnelles dans un domaine de fréquences complémentaires de celui de VIRGO ou pour observer des supernovae très lointaines.

En conséquence, il est tout à fait clair que le spatial jouera un rôle de plus en plus important dans les domaines de la cosmologie observationnelle et de la physique des astroparticules.

La parole a ensuite été redonnée à M. Jean-Marie HAMEURY pour une présentation des moyens que requiert l'astronomie pour une exploitation performante des observations.

*

M. Jean-Marie HAMEURY a souligné que si les TGE de l'astronomie sont irremplaçables pour collecter des observations, il est non moins indispensable de disposer en aval des compétences et des moyens pour les traiter.

Le traitement des données d'observation s'effectue soit dans les instituts de recherche utilisateurs des TGE soit d'une manière coordonnée dans le cadre d'une expérience particulière comme ISO.

L'archivage des données s'effectue ensuite dans des centres spécialisés comme le centre CDPP pour les données de physique des plasmas ou encore les centres MEDOC et BASS2000 pour les données solaires spatiales (SOHO) et sol. La France enregistre toutefois un important retard par rapport aux Etats-Unis dans ce domaine.

Les observations sont mises à disposition de la communauté astronomique après une période dite " propriétaire " d'un an généralement, pendant laquelle un usage exclusif est réservé aux équipes ayant réalisé les observations. La diffusion élargie des données, conforme à la tradition de la recherche, s'avère ultérieurement positive en augmentant le retour scientifique des TGE.

Les centres de données généralistes comportent des services à forte valeur ajoutée. La France a joué un rôle de pionnier dans ce domaine en mettant en place le CDS, centre d'aiguillage et de référence pour la communauté scientifique internationale.

L'ensemble des centres de données permettent une forte valorisation pour un coût consolidé modeste de l'ordre de 1,5 % du budget total de l'astronomie pour la part française.

L'accroissement du volume des données d'observation et la réalisation prochaine ou en cours de très grands relevés couvrant une fraction significative du ciel dans plusieurs domaines de longueurs d'onde allant du domaine radio à celui des rayons X changent les dimensions du problème et des besoins.

L'idée s'impose donc en Europe et aux Etats-Unis de réaliser un Observatoire virtuel, c'est-à-dire une gigantesque base de données répartie, permettant d'accéder à l'ensemble des données d'observations, avec des formats intégrés de données et des dispositifs efficaces de navigation d'un centre à un autre. Le volume des données correspondant aux plusieurs milliards d'objets de l'Observatoire virtuel est de l'ordre du Petaoctet (1015 octets). Doté en outre d'outils d'analyse et d'interprétation, un tel Observatoire virtuel est indispensable pour valoriser les investissements faits dans l'astronomie au sol ou dans l'espace.

La France a des atouts importants pour participer à la réalisation de l'Observatoire virtuel, du fait de son rôle moteur au niveau international pour les bases de données, pour l'intégration de données hétérogènes, et du fait de l'originalité de ses archives de données et de ses outils d'analyse mondialement reconnus.

Ainsi, il est indispensable de soutenir le développement de l'Observatoire virtuel.

M. Jean-Marie HAMEURY a ensuite traité de la dimension européenne de l'astronomie. Les agences telles que l'ESA et l'ESO y jouent un rôle considérable.

L'Union européenne intervient, pour sa part, au travers de 5 projets et d'un programme.

Le projet OPTICON s'intéresse, dans le domaine optique, au futur de très grands projets, à la coordination de télescopes moyens, au développement d'instruments et de logiciels ainsi qu'aux archives et aux bases de données. Le projet ASTROVIRTEL s'attache à permettre un accès aux archives HST, ESO et à développer des outils de recherche de données ou " data mining ". Le programme Canaries permet un accès croisé à l'ensemble des outils du site financés par d'autres pays. Deux autres programmes de même nature existent dans le domaine des ondes radio, avec une implication française modeste.

Le programme " Access to Research Infrastructures " de prise en charge des frais de mission pour l'accès aux TGE reste d'une ampleur modeste. Quant aux bourses post-doctorales, l'Union européenne n'en finance actuellement aucune autour des TGE, alors qu'il s'agit d'un élément essentiel pour leur exploitation optimale.

Au total, la contribution de l'Union européenne pour le financement des TGE de l'astronomie apparaît très modeste. Or la recherche est tout autant structurée par les TGE que ceux-ci résultent de ses besoins. Par ailleurs, les retombées des TGE en matière industrielle et économique sont loin d'être négligeables, de même qu'ils représentent des outils de formation efficaces, permettant à des étudiants formés à des techniques de pointe de faire bénéficier des entreprises françaises de leurs compétences.

M. Robert COMÈS a précisé que le programme " Access to Research Infrastructures " finance non seulement les frais de mission mais également les redevances d'utilisation. Par ailleurs, la difficulté d'obtenir des post-docs dans les TGE provient essentiellement de la diminution du nombre de physiciens dans tous les pays. Mais il est vrai que le financement de bourses de thèses a été supprimé par la Commission européenne à l'occasion du 5ème PCRD.

M. Joël FELTESSE, Chef du DAPNIA au CEA, a estimé que l'explosion des données collectées par les nouveaux détecteurs est un problème commun à différentes disciplines scientifiques et que le soutien de l'Europe s'impose pour mettre en place les ressources nécessaires à leur exploitation.

M. Bernard FORT, Directeur de l'Institut d'astrophysique de Paris, a indiqué que les laboratoires français semblent être en retard sur leurs homologues britanniques ou allemands comme le Max Planck à la fois pour employer des post-docs et pour traiter les données en aval des observations.

Au vrai, pour mieux valoriser les investissements réalisés dans les TGE, il faut accroître les moyens d'accompagnement des chercheurs en augmentant les postes de post-docs. Il convient également de développer les outils de modélisation et de simulation, selon des procédures qui pourraient d'ailleurs être communes avec d'autres disciplines.

M. Philippe LAREDO a noté qu'il n'existe pas en Allemagne de postes permanents dans la recherche avant 35 ans.

M. José ACHACHE a estimé que l'insuffisance du nombre de post-docs en France est due essentiellement à un nombre insuffisant de candidats, l'offre de contrats à durée déterminée ou de bourses n'étant pas saturée en tout état de cause.

Pour M. Laurent VIGROUX, le départ à l'étranger de jeunes docteurs est un phénomène normal voire salutaire. En revanche, la difficulté à attirer en France de jeunes chercheurs étrangers est dommageable, car, au total, une perte d'effectifs se produit sur la tranche d'âge 25-30 ans, la plus productive.

M. Jean-Marie HAMEURY a déclaré que l'astrophysique attire un nombre suffisant d'étudiants mais que la discipline n'a pas assez de post-docs, au contraire d'autres pays où le nombre de post-docs est supérieur au nombre de postes permanents.

M. José ACHACHE a souligné que la recherche britannique comprend 30 % de post-docs, une proportion d'emplois précaires que le CNES ne saurait reproduire

M. Jean-Loup PUGET a indiqué que les laboratoires du CNRS qui travaillent pour le compte de l'ESA ou du CNES à la réalisation des charges utiles, dont le poids financier d'ailleurs augmente, rencontrent des difficultés de gestion, alors que les délais et les calendriers de livraison sont de plus en plus tendus. Ceci résulte de la mauvaise adaptation des structures des EPST et de procédures de contrôles a priori et de passation de marché inadéquates.

M. Robert COMÈS a confirmé que le seuil de déclenchement des appels d'offre publics, fixé à 300 000 francs est trop bas et que cette procédure ne se justifie pas dans le domaine des hautes technologies, où bien souvent seuls un ou deux fournisseurs potentiels existent de par le monde. En conséquence, les contrats négociés se traduisent fréquemment par des coûts inférieurs à ceux résultant d'appels d'offre.

M. Christian CUVILLIEZ, Député, Rapporteur, a rendu compte des indications récentes obtenues du ministre de la recherche sur l'aménagement en cours des règles des marchés publics pour les TGE. Au demeurant, le ministère de l'économie, des finances et du budget, étudie à l'heure actuelle une réforme plus générale des marchés publics qui devrait être mise en application par décret dès 2001.

M. Laurent VIGROUX a souligné que pour le développement de prototypes de haute technologie, la rédaction d'un cahier des charges soulève des difficultés considérables et que son principe est contestable dans la mesure où elle exclut des marges de négociation. En outre, si l'on recourt à l'aide d'une entreprise pour réaliser une pré-étude du prototype, celle-ci ne peut participer à l'appel d'offres.

M. Christian CUVILLIEZ, Député, Rapporteur, a jugé sans doute préférable, dans ce cas, le recours à un appel à candidatures suivi de négociations.

*

Après avoir chaleureusement remercié les participants pour leur contribution à l'information des Rapporteurs de l'Office parlementaire, M. Christian CUVILLIEZ, Député, Rapporteur, a levé la réunion.

13. Station spatiale internationale, vols habités et Galileo - mercredi 15 novembre 2000

CNES

· M. Gérard BRACHET, Directeur général

· M. Jean-Paul GRANIER, Conseiller auprès du directeur général

· M. Arnaud BENEDETTI, Chargé des relations avec le Parlement

CNRS

· M. Jacques SEYLAZ, Directeur scientifique adjoint du Département des sciences du vivant

· M. Christophe VIGNY, Chargé de mission à l'INSU

ESA

· M. Antonio RODOTÀ, Directeur général

· M. Jean-Jacques DORDAIN, Directeur de la stratégie et de l'évaluation technique

· M. Louis FORNERY, Administrateur à la Direction de la stratégie

Après avoir remercié les participants d'avoir accepté l'invitation de l'Office, M. René TRÉGOUËT, Sénateur, rapporteur, a donné la parole à M. Antonio RODOTÀ pour une présentation des activités de l'ESA relatives à la Station spatiale internationale, aux vols habités et au projet Galileo.

M. Antonio RODOTÀ, Directeur général de l'ESA (European Space Agency - Agence spatiale européenne), soulignant que les équipements spatiaux, au demeurant de plus en plus nombreux, sont d'un coût trop élevé pour être accessibles à un pays pris isolément, a indiqué que l'ESA permet la coopération, la décision, le financement en commun de très grands équipements spatiaux touchant des domaines aussi variés que les télécommunications, la météorologie, l'observation de la Terre, la station spatiale internationale ou le projet Galileo.

Créée en 1975, l'ESA 7 a débuté ses activités dans le cadre de programmes obligatoires, s'imposant à tous les membres et financés par ces derniers au prorata de leur revenu national. Mais très rapidement, les programmes facultatifs l'ont emporté, au point de représenter aujourd'hui plus de 70 % des activités de l'ESA, démontrant ainsi le bien fondé du concept de " coopérations renforcées ".

Un nouveau type d'action a récemment été introduit, le programme enveloppe. Un programme enveloppe est un engagement de financement, dans un domaine particulier et sur plusieurs années, pour les seuls pays qui y adhèrent, avec une liberté donnée à l'Agence de choisir les moyens techniques les plus appropriés pour atteindre les objectifs fixés dans les limites financières établies au départ. A cet égard, un programme enveloppe sur l'observation de la Terre a récemment été adopté par le Conseil ministériel de l'ESA.

La dernière innovation récente en matière de management concerne le concept de financement mixte public-privé, pour les activités spatiales qui offrent des perspectives commerciales à court terme et qui concernent un ensemble d'industriels et d'opé