Rapport n° 199 (2011-2012) de MM. Bruno SIDO , sénateur et Christian BATAILLE, député, fait au nom de l'Office parlementaire d'évaluation des choix scientifiques et technologiques, déposé le 15 décembre 2011

Disponible au format PDF (2,5 Moctets)

N° 4097 N° 199

____ ___

ASSEMBLÉE NATIONALE SÉNAT

CONSTITUTION DU 4 OCTOBRE 1958

TREIZIÈME LÉGISLATURE SESSION ORDINAIRE DE 2011 - 2012

____________________________________ ___________________________

Enregistré à la présidence de l'Assemblée nationale Enregistré à la présidence du Sénat

le 15 décembre 2011 le 15 décembre 2011

________________________

OFFICE PARLEMENTAIRE D'ÉVALUATION

DES CHOIX SCIENTIFIQUES ET TECHNOLOGIQUES

________________________

RAPPORT

de la mission parlementaire sur

la sécurité nucléaire, la place de la filière et son avenir

Président de la mission : M. Claude BIRRAUX, député

Rapporteurs : MM. Christian BATAILLE, député et Bruno SIDO, sénateur

RAPPORT FINAL : L'AVENIR DE LA FILIÈRE NUCLÉAIRE EN FRANCE

Tome II

Annexes

__________ __________

Déposé sur le Bureau de l'Assemblée nationale Déposé sur le Bureau du Sénat

par M. Claude BIRRAUX, par M. Bruno SIDO,

Président de l'Office Premier vice-président

SOMMAIRE DES ANNEXES

___

Pages

documents 5

LETTRE DU 4 OCTOBRE 2011 7

LETTRE DU 24 NOVEMBRE 2011 9

AVIS DE L'AUTORITÉ DE SÛRETÉ NUCLÉAIRE SUR LE FINANCEMENT DE LA SÛRETÉ NUCLÉAIRE ET
DE LA RADIOPROTECTION POUR L'ANNÉE 2012 13

Liste des PERSONNES RENCONTRÉES 19

COMPTES RENDUS DES AUDITIONS 23

LISTE DES PERSONNES AUDITIONNÉES 25

AUDITIONS PUBLIQUES 27

POLITIQUES DE L'ÉNERGIE EN EUROPE : REGARDS CROISÉS - 27 OCTOBRE 2011 29

ÉVOLUTION DE LA CONSOMMATION ÉLECTRIQUE ET ÉCONOMIE D'ÉNERGIE - 3 NOVEMBRE 2011 55

PERSPECTIVES DE LA FILIÈRE NUCLÉAIRE - 17 NOVEMBRE 2011 109

ÉNERGIES ALTERNATIVES : GESTION DE L'INTERMITTENCE ET MATURITÉ DES TECHNOLOGIES
- 24 NOVEMBRE 2011 165

RÉUNIONS 209

RÉUNION DU 27 SEPTEMBRE 2011 211

SITUATION DE LA FILIÈRE NUCLÉAIRE EN SUÈDE - 5 OCTOBRE 2011 223

COMPTES RENDUS DES VISITES INOPINÉES 227

VISITE DE LA CENTRALE DE PALUEL - 30 NOVEMBRE ET 1 ER DÉCEMBRE 2011 229

Compte rendu par M. Claude Birraux, député, président de la mission 229

Lettre de suite de l'ASN 233

VISITE DE LA CENTRALE DU BLAYAIS - 30 NOVEMBRE 2011 237

Compte rendu par M. Bruno Sido, sénateur, rapporteur 237

Lettre de suite de l'ASN 241

Rapports de l'OPECST sur la FILIÈRE nuclÉaire 245

DOCUMENTS

Lettre du 4 octobre 2011

Lettre du 24 novembre 2011

P.J : 2

AVIS DE L'AUTORITÉ DE SÛRETÉ NUCLÉAIRE SUR LE FINANCEMENT DE LA SÛRETÉ NUCLÉAIRE ET DE LA RADIOPROTECTION POUR L'ANNÉE 2012

LISTE DES PERSONNES RENCONTRÉES

Allemagne

Parlement (Bundestag)

M. Klaus BREIL, député, porte-parole de la FDP sur la politique énergétique

M. Rolf HEMPELMANN, député, porte-parole du groupe SPD sur les questions énergétiques

Mme Johanna VOSS, député, porte-parole du groupe parlementaire de la Gauche

Ministère fédéral de l'environnement, protection de la nature et sûreté nucléaire (BMU)

M. Ralf BECKER, service de l'énergie et de l'environnement

Mme Alexandra KÜHNE, service de l'énergie et de l'environnement

M. Alexander SPINCZYK-RAUCH, sous-directeur RS III « sûreté nucléaire »

Dr Jürgen WOLF, RS I

Dr Gernot EILERS, RS III « sûreté nucléaire »

Ministère de l'environnement, climat et énergie du Land de Bade-Wurtemberg

M. Franz UNTERSTELLER, ministre de l'environnement, du climat et de l'énergie

M. Tobias EISELE, chef de l'unité Europe et relations internationales

M. Karl GREISSING, chef du département de l'énergie

Dr Oskar GRÖZINGER, chef de la division du contrôle de l'énergie nucléaire et de la radioprotection

M. Manfred LOISTL, responsable du contrôle de la centrale nucléaire de Neckarwestheim

Représentants de l'industrie allemande

M. Tilman BECHTHOLD, vice-président, directeur de la centrale de Niederaussem, RWE

M. Sebastian DRÜPPEL, ingénieur système, RWE

Mme Corinna BREMAUER, responsable communication de la centrale d'Irsching, E.ON

Dr Tino WEBER, président directeur général, Schmack, groupe Viessmann

M. Gernot BUCHTA, service marketing et communication, Schmack, groupe Viessmann

M. Jan BUSCHEMEYER, chef du marketing et des services internes, Schmack, groupe Viessmann

M. Wolfgang MICHEL, chef de projet, Siemens

M. Uwe SCHUSTER, responsable contrôle et planification, EnBW

Représentants de l'industrie française

M. Gonzague DEJOUANY, directeur Allemagne, EDF

M. Jean-Marc BAZENET, directeur de projets, EDF

M. H. MEYER ZU SCHWABEDISSEN, directeur politique et relations institutionnelles, AREVA GmbH

M. Mathias SCHUCH, vice-président communications, AREVA GmbH

M. Christoph LÖWER, directeur du bureau de Berlin, Alstom Deutschland AG

Japon

Parlement (Diète)

M. Akihiro OHATA, député, ancien ministre de l'économie, du commerce et de l'industrie, et ancien ministre du territoire, de l'infrastructure, du transport et du tourisme

M. Masao KOBAYASHI, sénateur

M. Akira AMARI, député, ancien ministre de l'économie

M. Banri KAIEDA, député, président de la commission des finances, ancien ministre de l'économie

M. Hiroshi KAWAUCHI, député, membre de la commission spéciale pour la promotion de la science, la technologie et l'innovation

Cellule de planification énergétique auprès du Premier ministre

M. Tetsuro FUKUNAGA, conseiller technique

M. Mio MAEDA, conseiller

Atomic Energy Commission (AEC)

M. Shunsuke KONDO, président

M. Tatsujiro SUZUKI, vice-président

Mme Etsuko AKIBA, commissaire

Mme Mie OHBA, commissaire

M. Akira OMOTO, commissaire

M. Tetsuya KATÔ, secrétariat de l'AEC, cabinet office

Agency of Natural Resources and Energy du Ministère de l'économie, du commerce et de l'industrie (ANRE/METI)

M. Takaya IMAI, directeur général de l'énergie

M. Kyoji YOSHINO, directeur de l'énergie nucléaire

Mme Rui SUZUKI, Nuclear Energy Policy Division

Ministère de la recherche (MEXT)

M. Yasutaka MORIGUCHI, deputy minister

M. Naoki SUEFUJI, chef de cabinet

M. Eisuke NAKATA, deputy director, Research & Development Bureau

M. Munemitsu KAWAGUCHI, administrative researcher, Atomic Energy Division, R & D Bureau

M. Jun ITOH, International Nuclear and Fusion Energy Affairs Division, R & D Bureau

Institut of Energy Economics (IEE)

M. Masakazu TOYODA, président

M. Masanori KOMORI, Planning and Administration Unit

Fédération des compagnies d'électricité (FEPC)

M. Yuji KUME, président Senior Managing Director

M. Yoshihiro TOMIOKA, directeur de l'énergie nucléaire

M. Shiro KASHINO, directeur-adjoint de l'énergie nucléaire

M. Hidenori ODA, directeur du cycle du combustible

Mme Suomi ISHIBASHI, manager, Public Relations Department

Keidanren (fédération du patronat)

M. Satoshi MUKUTA, managing director; Keidanren

M. Keiichi NAGAMATSU, president de Shin-Mutusu-Ogawara Inc.

M. Kenji URASE, general manager, Fukushima Nuclear Business Dept., Hitachi-GE Nuclear Energy, Ltd.

M. Makoto SHIBATA, general manager, Planning & Administration Dept., Mineral Resource & Recycling Business Unit, Mitsubishi Materials Corp.

M. Makoto TOYAMA, general manager, Nuclear Systems Engineering Dept., Nuclear Systems Headquarters, Mitsubishi Heavy Industries, Ltd.

M. Naoaki OKUZUMI, general manager, Corporate Government & External Relations Division, Toshiba Corporation

M. Yoshiharu TACHIBANA, Chairman, WBCSD Taskforce, Committee on Environment and Safety

Keidanren (représentant de Tepco)

M. Yoshihito IWAMA, director, Environment Policy Bureau

M. Masami HASEGAWA, manager, Environment Policy Bureau

M. Koh NAKAJIMA, manager, Environment Policy Bureau

M. Takatsugu HANEO, Environment Bureau Policy

Centrale nucléaire de Hamaoka

M. Masatoshi SAKAGUCHI, director & executive vice-president, General Manager of Nuclear Power Division, Siège de Chubu EPCO

M. Yusuke KAJIKAWA, executive & general manager of Hamaoka Nuclear Power Station

M. Ichiro IHARA, head of Engineering Department

M. Shigenari ITOH, manager, Engineering Department, Hamaoka Nuclear Power Station

M. Haruhisa OTSUKA, manager (Human Resource & Organization), Administration Group, Nuclear Power Department, Nuclear Power Division, Siège de Chubu EPCO (juste l'accueil à la gare)

Industrie française

M. Thierry KNOCKAERT, représentant général d'EDF pour le Japon et la Corée

M. Rémy AUTEBERT, président d'Areva Japon

COMPTES RENDUS DES AUDITIONS

LISTE DES PERSONNES AUDITIONNÉES

Jeudi 27 octobre 2011

Dr Fatih BIROL, économiste en chef, Agence internationale de l'énergie (AIE)

Prof. David COPE, directeur du POST (Office parlementaire pour la science et la technologie) du Parlement britannique

M. Daniel IRACANE, directeur adjoint des relations internationales, Commissariat à l'énergie atomique et aux énergies alternatives (CEA)

Dr. William NUTTALL, directeur adjoint du Groupe de recherche sur la politique électrique, Université de Cambridge

M. Pierre ZALESKI, directeur du Centre de géopolitique de l'énergie et des matières premières (CGEMP), Université Paris Dauphine

Jeudi 3 novembre 2011

M. Olivier COTTET, directeur marketing et filières du programme HOMES, Schneider-Electric

M. Richard DANJOU, adjoint au sous-directeur de la qualité et du développement durable dans la construction, DHUP, ministère de l'Écologie, du développement durable, des transports et du logement

M. François GRÉMY, délégué général, COPREC

M. Pierre-Louis FRANÇOIS, président du directoire, Groupe Atlantic

M. Stéphane PÉNET, directeur, Fédération française des sociétés d'assurances (FFSA)

Mme Marie-Christine ROGER, chef du bureau de la réglementation technique de la construction, sous-direction de la qualité et du développement durable dans la construction, DHUP, ministère de l'Écologie, du développement durable, des transports et du logement

M. Mark SALT, directeur technique, BM TRADA Group

M. Raimundo SILVA, responsable construction, Fédération française des sociétés d'assurances (FFSA)

M. Laurent THIERRY, président directeur général, Actis

M. Hugues VÉRITÉ, délégué en charge des relations institutionnelles, GIMELEC

M. Etienne VEKEMANS, président de l'association Maison Passive France

Mme Brigitte VU, ingénieur en efficacité énergétique, BATIRECO-BBC

Jeudi 17 novembre 2011

M. Hamid AÏT ABDERRAHIM, directeur général adjoint du SCK-CEN (centre de recherche nucléaire de Belgique) et directeur du projet MYRRHA

M. Christophe BÉHAR, directeur de l'énergie nucléaire, CEA

M. Raphaël BERGER, directeur des études économiques, AREVA

M. Jean-Paul BOUTTES, directeur de la stratégie et de la prospective, EDF

M. Sylvain DAVID, Institut national de physique nucléaire et de physique des particules (IN2P3), CNRS

M. Jean-Guy DEVEZEAUX DE LAVERGNE, directeur de l'Institut de technico-économie des systèmes énergétiques, I-tésé (CEA/DEN)

M. Thierry DUJARDIN, directeur adjoint, science et développement, OCDE / AEN

M. Jean-Claude DUPLESSY, président de la Commission nationale d'évaluation (CNE)

M. Pascal GARIN, directeur adjoint ITER France

M. Jean-Marc MIRAUCOURT, directeur de l'ingénierie nucléaire, EDF

Jeudi 24 novembre 2011

M. Alain BUCAILLE, conseiller auprès du président du directoire, AREVA

M. Pierre-Franck CHEVET, directeur général, direction générale de l'énergie et du climat (DGEC), ministère de l'Écologie, du développement durable, des transports et du Logement

M. Guillaume DUVAL, directeur de l'innovation à Électricité de Strasbourg

M. Robert GLEITZ, vice-président, Alstom Power

M. Pascal GARIN, sherpa du président de l'Alliance nationale de coordination de la recherche pour l'énergie (ANCRE)

M. Jean-Pierre JOLY, directeur général, Institut national de l'énergie solaire (INES)

M. Georges KARINIOTAKIS, Centre énergétique et Procédés, Mines ParisTech

M. Gilles KOLÉDA, COE-Rexécode

M. Daniel LINCOT, directeur, Institut de recherche et développement sur l'énergie photovoltaïque (IRDEP)

M. Bernard MAHIOU, directeur en charge des systèmes insulaires, EDF

M. Pierre MALLET, directeur Innovation et Stratégie technique, ERDF

M. Hervé MIGNON, directeur du département Développement du Réseau et Perspectives Énergétiques, RTE

M. Romain VERNIER, directeur du département Géothermie, Bureau des Recherches géologiques et minières (BRGM)

AUDITIONS PUBLIQUES

POLITIQUES DE L'ÉNERGIE EN EUROPE : REGARDS CROISÉS
Jeudi 27 octobre 2011

M. Claude Birraux, député, président. - Ce matin, nous tenions une audition sur l'avenir du plateau de Saclay, dans le cadre du rapport que nous préparons sur l'innovation à l'épreuve des peurs et des risques. Nous reprenons maintenant nos travaux sur la sécurité nucléaire et l'avenir de la filière nucléaire. Mais avant, permettez-moi de féliciter les sénateurs élus et réélus, avec une mention spéciale pour Daniel Raoul, désormais président de la Commission de l'économie, nouvelles fonctions qui, je l'espère, ne l'éloigneront pas trop de l'Office, ainsi que pour Delphine Bataille, jeune sénatrice du Nord - bon sang ne saurait mentir.

La première partie de nos travaux s'est traduite par la publication, le 30 juin dernier, d'un rapport d'étape sur la sécurité nucléaire. La seconde partie se conclura par la présentation, le 15 décembre prochain, d'un nouveau rapport sur l'avenir de la filière nucléaire. Différentes instances se sont prononcées depuis la parution de notre premier rapport : les exploitants ont défini leurs orientations, l'Autorité de sûreté nucléaire a publié une note de cadrage méthodologique et le Haut Comité pour la transparence et l'information sur la sécurité nucléaire, présidé par M. Henri Revol, a présenté hier son rapport. On peut donner ce satisfecit à nos rapporteurs : nous sommes en parfait accord sur les analyses et les préconisations ; personne n'est venu démentir l'Office.

La mission poursuit donc ses travaux : depuis notre réunion de cadrage du 27 septembre, plusieurs de ses membres sont allés au laboratoire de recherche souterrain de Bure le 7 octobre, et une délégation composée de Mme Catherine Procaccia et de M. Christian Bataille s'est rendue la semaine dernière au Japon.

L'audition de ce jour, consacrée aux politiques énergétiques européennes, s'intitule « regards croisés », car nous aurons le plaisir d'entendre le point de vue de deux intervenants venus du Royaume-Uni, mon ami David Cope, directeur du Parliamentary Office of Science and Technology et M. William Nuttall, qui nous vient de Cambridge. Je les remercie vivement d'avoir traversé la Manche pour venir nous communiquer leur regard neuf, extérieur au débat « franco-français », sur les questions énergétiques. Christian Bataille rendra compte de son déplacement récent, avec notre collègue Marcel Deneux, en Allemagne. Il nous fera part de son analyse quant aux conséquences des décisions prises dans ce pays immédiatement après l'accident de la centrale nucléaire de Fukushima.

Cet examen des orientations du Royaume-Uni et de l'Allemagne sera précédé d'exposés plus généraux sur les orientations à long terme des politiques de l'énergie et les conséquences possibles de l'accident japonais. Je remercie là-aussi vivement les intervenants qui ont accepté de nous faire part de leurs analyses et de leur vision prospective : M. Fatih Birol de l'Agence internationale de l'énergie, M. Daniel Iracane, spécialiste des questions internationales au CEA, et M. Pierre Zaleski de l'université Paris Dauphine.

- Les politiques de l'énergie après Fukushima -

M. Bruno Sido , sénateur, rapporteur . - Je suis heureux, en premier lieu, d'accueillir M. Fatih Birol, économiste en chef de l'Agence internationale de l'énergie (AIE), qui s'exprimera en anglais. L'AIE publiera très prochainement, le 9 novembre, ses « perspectives mondiales de l'énergie ». Pouvez-vous nous donner dès aujourd'hui une idée des principaux scénarios qui y seront développés ? Anticipez-vous, à long terme, un fort impact de l'accident de Fukushima sur le développement de la production d'électricité nucléaire ?

M. Fatih Birol , économiste en chef de l'Agence internationale de l'énergie . - Le présent et l'avenir du nucléaire touchent aux questions essentielles de l'économie mondiale, de la sécurité énergétique, du changement climatique. Je m'efforcerai de vous fournir un aperçu des grands défis qui se posent au monde en matière énergétique et de vous livrer une analyse plus précise sur l'énergie nucléaire au regard des autres sources d'approvisionnement qui lui sont concurrentes, comme le gaz naturel ou les énergies renouvelables. J'essayerai de tracer un panorama du système énergétique mondial, puis des résultats de nos analyses, qui seront publiées le 9 novembre, sur les effets d'un moindre recours au nucléaire, dont je puis vous dire dès à présent que ce serait une mauvaise nouvelle pour l'économie, la sécurité d'approvisionnement et la lutte contre le changement climatique.

Premier élément de preuve, l'évolution des besoins en énergie dans les vingt-cinq prochaines années : si ceux des pays de l'OCDE sont appelés à rester stables, ils connaîtront ailleurs une forte croissance. Pour être bref, on pourrait dire qu'il y a cinq pays qui tirent la demande mondiale d'énergie : la Chine, la Chine, la Chine, l'Inde et les pays du Moyen-Orient. Leurs besoins à venir représentent 90 % de la croissance de la demande avec un poids prépondérant de la Chine, qui compte en quelque sorte pour trois. La pression sera donc forte sur l'approvisionnement, en particulier en pétrole. Cela concerne d'abord le secteur des transports. La Chine, ne possède aujourd'hui que 30 véhicules automobiles pour 1 000 habitants, contre 500 en Europe et 700 aux États-Unis. C'est dire combien la pression peut monter, à mesure de l'enrichissement des Chinois, qui se poursuit aujourd'hui tandis que nous luttons pied à pied contre la récession. Dans le même temps, la production de pétrole tend à se concentrer, pour l'essentiel dans cinq pays, l'Arabie saoudite, l'Iran, l'Irak, les Emirats arabes unis et le Koweït.

Cela m'amène à un premier message : l'époque du pétrole bon marché est révolue, et nous devons nous préparer à des prix beaucoup plus élevés : le baril à 45 ou 50 dollars, c'est bien fini ! Deuxième message, il faut s'attendre à des évolutions importantes en matière de production de gaz naturel, liées à l'émergence, en Chine et aux États-Unis, de l'exploitation de gaz non conventionnels. L'augmentation de la ressource, conduisant à la modération des prix, contribuera à la diffuser sur le marché, au détriment des énergies renouvelables, beaucoup plus coûteuses.

Notre rapport le souligne, 1,3 milliard de personnes restent en situation de précarité énergétique : 20 % de la population mondiale (Afrique subsaharienne, Pakistan, Bengladesh)  vit sans électricité, avec les difficultés que cela entraîne non seulement en matière d'éclairage mais aussi de communication et de santé... Songeons que la quantité d'électricité consommée par 800 millions de personnes en Afrique subsaharienne est identique à celle de la seule ville de New-York. Ce déséquilibre est grotesque ! Si nous ne faisons rien, 1 milliard d'hommes et de femmes vivront encore, en 2035, sans électricité.

J'en viens à la question du changement climatique. L'augmentation attendue de la température de la planète dans les décennies à venir est de 6° Celsius. Afin d'éviter des conséquences catastrophiques, les chefs d'État se sont fixé au sommet de Cancun, l'objectif de contenir le réchauffement à 2°. Mais quel écart entre les déclarations et les réalités ! Nul instrument international contraignant n'a été signé par les États. Le sommet de Durban, en Afrique du Sud, y pourvoira-t-il ? Pour l'heure, le décalage reste immense et à mesure que se construisent, dans bien des pays, des usines de production énergétique fonctionnant aux énergies fossiles, on se rapproche des 6°. C'est ainsi que l'on ferme à clé la porte de notre avenir. Car pour atteindre l'objectif fixé, il faudrait plus de nucléaire, plus d'énergies renouvelables, une meilleure utilisation du charbon. Si tous les pays doivent contribuer à l'effort, reste que les États-Unis et la Chine sont à eux deux responsables de la moitié des émissions de CO2. S'ils ne s'engagent pas sur la voie tracée à Cancun, il y a peu de chances de voir s'inverser la vapeur. Au sein de l'Union européenne, les États membres disputent beaucoup du pourcentage de réduction des émissions, les uns tenant pour 20 %, les autres pour 30 %, mais cette différence, il faut bien en être conscient, ne représente pas plus de deux semaines des émissions de gaz de la Chine. Hors la valeur symbolique et morale de l'engagement de l'Europe, la tendance ne variera en rien si elle doit agir seule.

Quels seraient, dans le contexte que je viens de rappeler, les effets d'un moindre recours au nucléaire ? Ce choix est déjà celui de l'Allemagne, tandis que, dans bien d'autres pays, le débat est en cours, qui prend aussi en compte la question des coûts du nucléaire, sur lesquels Fukushima a jeté un nouvel éclairage. Reste que moins de nucléaire suppose son remplacement, selon les pays, par le charbon, le gaz naturel ou les énergies renouvelables.

Si je ne peux vous livrer maintenant tous les chiffres qui résultent de l'analyse que nous avons conduite, et qui seront dévoilés le 9 novembre, je suis en mesure de vous dire que le recul du nucléaire serait une mauvaise nouvelle pour l'économie mondiale, car bien des pays devront importer des énergies de substitution plus coûteuses. Mauvaise nouvelle aussi, pour la sécurité de l'approvisionnement, d'autant mieux assurée que les sources sont plus diversifiées. Mauvaise nouvelle, enfin, pour le changement climatique : la demande d'électricité ne fait que croître dans les pays émergents, et l'Europe n'atteindra jamais sans le nucléaire les ambitions qu'elle s'est fixées en matière de réduction de ses émissions ; sans parler de la situation des pays très engagés dans l'énergie nucléaire comme la France, le Japon ou la Corée.

Je l'ai dit, l'âge du pétrole bon marché est derrière nous, tandis que le marché du gaz naturel est engagé dans une recomposition majeure. Le manque de volontarisme sur le climat amenuise chaque jour nos chances d'atteindre l'objectif d'un réchauffement contenu à 2°. Dans ce contexte, les politiques nucléaires seront déterminantes, sachant que la Chine sera un acteur central dans la recomposition des marchés : une décision prise à Pékin a des implications à Paris, à Bruxelles, à Tokyo, à Washington. Il faudra observer de près ce qui s'y passe. L'interdépendance entre énergie et géopolitique ira croissant, d'où le caractère crucial, pour chaque pays, de sa production nationale.

M. Bruno Sido , sénateur, rapporteur . - Je me tourne maintenant vers M. Daniel Iracane, directeur-adjoint des relations internationales au CEA, pour son exposé sur les orientations des politiques de l'énergie en Europe après Fukushima : le cas allemand n'est-il pas « l'arbre qui cache la forêt » d'une certaine continuité des politiques énergétiques ?

M. Daniel Iracane , directeur-adjoint des relations internationales au Commissariat à l'énergie atomique et aux énergies alternatives. - Les sondages montrent une légitime montée des préoccupations environnementales dans l'ensemble des pays de la planète. Des interrogations se font jour, en Corée, en Europe de l'Est, sans parler du Japon, bien sûr, où la perte de confiance est manifeste, non seulement à l'égard des exploitants mais des institutions.

Pourtant, on constate que les programmes électronucléaires tels qu'ils avaient été dessinés se poursuivent, à l'exception notable de l'Allemagne, et du Japon. Six mois après la catastrophe, la continuité s'affirme presque partout dans le monde. Les pays primo-accédants, comme le Vietnam, le Maroc, l'Arabie saoudite, l'Egypte, la Jordanie, la Tunisie et le Chili ont compris que l'effort d'apprentissage sera long, et ne voient pas de raison de l'interrompre bien avant la décision irréversible d'équipement. Tout au plus certains tempèrent-ils leur effort de communication, encore qu'il reste très démonstratif en Arabie saoudite, qui a annoncé sa volonté de se doter d'un réacteur en 2020 et seize à l'horizon 2030. La volonté d'avancer, dans ces pays, reste entière. Les pays qui ont juste démarré un programme, comme la Turquie ou les Emirats arabes unis, ont, eux aussi, manifesté une ferme volonté de poursuivre, ces derniers y compris en rappelant, une semaine à peine après l'accident de Fukushima, leur pleine confiance dans leur programme. Ceux qui sont déjà dotés d'un réacteur en relancent. C'est ainsi que l'Afrique du Sud entend lancer un appel d'offre international au cours du semestre à venir pour la construction de nouvelles centrales, tandis que la Grande Bretagne poursuit son processus de licensing en vue de nouvelles réalisations.

La situation reste fragile. Qu'en est-il des pays qui servent de référence ? Parmi les pays disposant d'un parc significatif, la Chine, en dépit d'un moratoire essentiellement lié au souci d'attendre le retour d'expérience de Fukushima, maintient imperturbablement le cap de 70 gigawatts contre treize aujourd'hui, soit une multiplication par six en dix ans. A ceci près, cependant, qu'après avoir contesté à d'autres pays, dont la France, le droit de condamner son choix de s'équiper en réacteurs de deuxième génération, moins coûteux, elle est désormais convaincue qu'il faut viser le plus haut niveau de sûreté. Tant il est vrai qu'un accident quelque part est un accident partout qui, au-delà du drame humain, peut donc infléchir un projet industriel, un programme d'équipement.

La Corée du Sud, quant à elle, entend assurer 60 % de sa production électrique par l'énergie nucléaire en passant de vingt-et-un à quarante-deux réacteurs en 2030 et elle n'a pas fléchi dans sa volonté de poursuivre son programme, qu'elle voit comme la seule façon d'accompagner sa croissance et de développer une industrie performante à même de rayonner sur le marché chinois.

Même réaction en Russie, où le programme de construction de dix-neuf réacteurs, dont la moitié à l'export, se poursuit, tandis que l'on a vu sa diplomatie très présente, aux côtés de la France, lors des sommets du G8 et du G20 ou de la conférence générale de l'Agence internationale de l'énergie atomique (AIEA), pour accompagner la gestion de crise.

Le ralentissement observé aux États-Unis avait précédé Fukushima ; il est lié à la mise en exploitation du gaz de schiste, appelé à déplacer l'optimum économique du système. Reste que M. Chu, le secrétaire à l'Energie, vient de confirmer que la production électrique américaine resterait assurée à 20 % par l'énergie nucléaire, déclaration dans la ligne de celle de l'administration Obama en septembre à l'ONU sur la place « pleine et entière » que l'énergie nucléaire devait continuer à tenir dans le pays.

L'Inde, prototype du pays engagé dans une forte croissance, a réaffirmé sa volonté de multiplier par quatre ses capacités de production d'ici à 2020, en passant de 5 à 20 gigawatts. Position qui peut cependant évoluer au gré des événements, dans la mesure où la contestation locale prend de l'ampleur et pourrait devenir systémique - toutes ces informations sont contingentes.

J'en viens au Japon, qui vit au coeur du drame, et où la perte de confiance est manifeste. Un certain pragmatisme s'y fait jour cependant, dans la conscience qu'il sera difficile au pays d'équilibrer la balance entre sa production et sa consommation sans redémarrage des centrales en arrêt de maintenance. Le Premier ministre a même évoqué celui du chantier de la centrale nouvelle, à 90 % achevée, et dont la construction avait été interrompue au lendemain du drame. Mais dans ce pays proche d'un point de bascule, les décisions passent aussi par les élus locaux, les gouverneurs. Il sera bon de les observer de près.

En Europe, les lignes ont peu bougé. L'Autriche, le Danemark, l'Irlande ont confirmé leur opposition. D'autres pays, en revanche, comme la Finlande ou l'Angleterre, entendent accroître la part de l'énergie nucléaire sur leur sol. C'est également le cas de la République tchèque, qui réévalue son programme à la hausse à la suite de la décision allemande de sortie du nucléaire, dans l'espoir de conquérir le marché allemand... La Pologne, enfin, a choisi de poursuivre son programme.

Les motivations qui président à ces choix, au sein de l'ensemble européen, sont diverses : pour les pays d'Europe de l'Est, la préoccupation première va à l'indépendance énergétique à l'égard de la Russie, quand un pays comme l'Angleterre est avant tout soucieux d'assurer sa sécurité à un coût raisonnable. Ailleurs, la réalité peut être complexe, j'en veux pour preuve le débat animé qui a saisi la Suisse, cet été, et s'est soldé par une décision de sortie du nucléaire à vingt-cinq ans, résultat sémantiquement subtil, cependant, puisqu'il est écrit dans la loi que les réacteurs seront arrêtés selon des critères de sûreté, en même temps qu'au niveau politique, on privilégie le pragmatisme en décidant de la poursuite des programmes de recherche. Autrement dit, l'on s'interdit d'interdire une technologie, avec l'idée d'observer les performances de l'Allemagne dans son effort de reconversion. Un long moratoire, en somme, pour s'adapter.

L'Espagne, en revanche, n'a guère été agitée par le débat. Il faut dire que les difficultés économiques y tiennent le devant de la scène. Alors qu'un moratoire avait été déclaré, la décision a été prise, en septembre, de prolonger pour dix ans l'autorisation d'exploitation de la centrale d'Asco.

L'accident de Fukushima a soulevé l'inquiétude des populations, sans cependant la porter jusqu'à un seuil qui aurait conduit les politiques à la relayer par des décisions de sortie. Dans la majorité des pays, les programmes ont été confirmés. L'accident a cependant fait prendre conscience que la sécurité exige de donner la primauté aux réacteurs de troisième génération. Le pragmatisme, au total, a prévalu, tant il semble difficile de se passer d'une source d'énergie qui assure indépendance, modération des prix, stabilité de la production, qui contribue à la réduction des émissions de CO2 et met en mesure d'assurer la défense de la capacité industrielle nationale. Pour convertir les populations à ce pragmatisme, il faudra travailler de concert à renforcer la sûreté, dans la plus grande transparence.

M. Bruno Sido , sénateur, rapporteur. - M. Pierre Zaleski, délégué général du centre de géopolitique de l'énergie et des matières premières de l'université Paris-Dauphine, va maintenant nous faire part de son analyse de l'avenir du nucléaire dans une perspective de long terme.

M. Pierre Zaleski, professeur à l'Université de Paris-Dauphine. - Antérieure à l'accident de Fukushima, la division des pays de l'Union européenne dans leur attitude à l'égard de l'énergie nucléaire s'est accentuée après le mois de mars 2011.

Avant l'accident, la position des trois pays ayant déclaré un moratoire sur les nouvelles constructions - Allemagne, Espagne, Belgique - tendait à s'assouplir, au point que l'on pouvait envisager, à plus ou moins long terme, un changement d'attitude qui aurait conduit à y reprendre la construction de centrales. Si les huit pays ne possédant pas de centrales nucléaires, et sans programme, ne représentent qu'une faible fraction du PIB de l'Union européenne, on trouvait en revanche, parmi les cinq pays ne possédant pas de centrales, mais envisageant de faire appel à l'énergie nucléaire, deux économies relativement importantes, l'Italie et la Pologne.

Avant Fukushima, on pouvait donc penser que l'on allait vers un acquiescement au nucléaire dans l'aire économique de l'Union. En outre, des pays européens importants, hors Union européenne, avaient engagé des plans dynamiques du développement de l'énergie nucléaire - Russie, Ukraine, Biélorussie, Suisse et Turquie.

Après Fukushima, le tableau a changé. L'Allemagne a décidé un retrait accéléré du nucléaire et l'Italie, par un nouveau référendum a renoncé à la construction - il est vrai que ce pays, qui l'avait déjà fait après Tchernobyl, semble avoir le talent d'organiser, après chaque accident nucléaire, des référendums où la traditionnelle multiplicité des questions posées ne permet pas de distinguer si le rejet répond à la question ou à une politique, celle de Berlusconi, en l'espèce. Quant à l'Espagne, le changement d'attitude que l'on prévoyait pour après les prochaines élections apparaît aujourd'hui plus difficile à prédire.

L'Europe est donc partagée en deux blocs, d'importance sensiblement égale : quinze pays, dont la France, l'Angleterre, la Pologne, sont favorables à l'énergie nucléaire, tandis que douze, dont l'Allemagne, l'Italie, l'Espagne - envisagent de s'en passer.

Cette situation rend très difficile l'adoption, au sein de l'Union européenne, d'une politique énergétique dynamique et cohérente. Ajoutons que, parmi les cinq pays européens hors Union qui envisageaient, avant Fukushima, la construction de centrales nucléaires, un seul, la Suisse, a changé d'avis en votant un moratoire sur les nouvelles constructions.

Il convient tout à la fois s'interroger sur les raisons qui ont conduit un pays clé comme l'Allemagne a son changement d'attitude et analyser les arguments de ceux qui sont favorables au développement de l'énergie nucléaire.

En Allemagne, Mme Merkel, initialement favorable à l'énergie nucléaire, déclare que l'on ne peut faire confiance aux sociétés humaines pour gérer les risques de l'énergie nucléaire. De fait, les deux accidents majeurs qui ont entraîné une importante contamination des terres, Tchernobyl et Fukushima, sont dus l'un et l'autre aux imperfections du système politico-social des pays concernés : opacité, manque de culture de la sûreté et arrogance scientifique de l'Union soviétique, d'un côté, culture de consensus du Japon, de l'autre, qui a conduit à laisser trop de marge à une compagnie électrique peu incline à la transparence et peu sensible aux accidents majeurs, jugés improbables, aux dépens des autorités de sûreté. Cela a conduit à une sous-estimation évidente des risques naturels - tremblement de terre et tsunami. C'est moins la technologie que les hypothèses retenues qui sont en cause dans l'accident de Fukushima.

Il se peut aussi, cependant, que le changement d'attitude de Mme Merkel soit influencé par des considérations politiques et électorales.

On ne peut éviter tous les risques. Il faut donc les minimiser, afin de parvenir à un ratio risque/bénéfice satisfaisant. Ainsi que l'indiquait le chef de la sûreté finlandaise, M. Jukka Laaksonen, si l'on finit par maîtriser complètement la situation à Fukushima et si, dans un deuxième temps, on décontamine l'essentiel des terres, permettant ainsi aux personnes déplacées de revenir, alors l'accident de Fukushima, aussi grave soit-il, n'aura pas le caractère apocalyptique que beaucoup lui prêtent aujourd'hui.

Les accidents majeurs, Three Mile Island, Tchernobyl ou Fukushima, ont tous conduit à une amélioration de la sûreté. Fukushima a donné lieu à une estimation plus rigoureuse des agressions externes, à une meilleure préparation aux accidents graves au-delà du maximum prévu et à une plus grande transparence internationale sur les questions de la sûreté du nucléaire, qui favorise l'application effective de règles sûres dans chaque pays. Cependant, le climat n'est pas propice à l'établissement d'une autorité internationale.

L'abandon du nucléaire a un coût. L'électricité sans l'énergie nucléaire sera plus chère, surtout si on maintient l'effort de réduction des émissions de CO2 - je vous renvoie aux scénarios à l'horizon 2050 élaborés par la Commission européenne. Les centrales solaires à concentration, situées en Afrique, et qui pourraient remplacer les centrales nucléaires, produiraient, d'après M. Cédric Philibert de l'AIE, l'électricité à un coût de 150 euros par mégawatt/heure, auquel il faut ajouter le coût du transport vers l'Europe, estimé entre 15 et 45 euros par mégawatt/heure, soit un coût trois fois supérieur à celui de l'électricité des nouvelles centrales nucléaires - pour autant que les surcoûts enregistrés en Finlande et à Flamanville soient effectivement dus au caractère de prototype de ces EPR. Il sera intéressant de comparer le coût de ces deux têtes de série et des quatre AP1000 prototypes ou têtes de série construits en Chine. Les estimations des coûts au stade de l'avant-projet sont souvent trop optimistes et cela peut être également le cas pour la centrale solaire.

Il sera difficile de dégager, dans le contexte économique que nous traversons, les sommes nécessaires à une reconversion vers les énergies renouvelables - voyez le cas de l'Espagne et de la France, pour laquelle Bernard Bigot, haut-commissaire à l'énergie atomique, a avancé une estimation de 750 milliards d'euros. L'Europe peut-elle se permettre d'aggraver ainsi ses handicaps économiques face aux pays émergents ?

Les systèmes de surveillance de la sûreté des centrales nucléaires aux Etats-Unis et en Europe, ainsi que le relèvent certains observateurs, sont relativement transparents et rigoureux. Ainsi de l'autorité de sûreté allemande. Et la coopération entre pays se développe. Si l'on peut avoir des craintes, c'est plutôt au regard de grands pays comme la Russie, la Chine ou l'Inde, qui suivront leur propre agenda de développement et ne se laisseront pas influencer.

Notons enfin que la plupart des sites européens où fonctionnent des centrales nucléaires sont bien moins vulnérables aux tremblements de terre ou tsunamis que le Japon.

Naturellement, tous ces arguments n'ont de valeur dans les pays démocratiques que s'ils sont acceptés par l'opinion publique, toujours plus sensible aux angoisses et aux craintes suscitées par l'énergie nucléaire qu'aux arguments rationnels.

Il est donc difficile de prévoir l'évolution de l'attitude des pays européens vis-à-vis du nucléaire. On peut penser qu'en l'absence de nouveaux accidents, beaucoup dépendra des difficultés éventuelles et des coûts de réalisation des solutions « sans nucléaire », notamment en Allemagne. Ailleurs cependant, en Asie, en Chine, en Corée, en Inde, en Amérique latine et en Afrique, l'énergie nucléaire poursuivra son développement. Au Japon, le développement a été stoppé, mais le débat sur l'arrêt complet et sur les nouvelles sources de production énergétique nécessaires n'est pas terminé ; le gouvernement maintient son soutien actif à son industrie nucléaire en dehors du Japon. Aux Etats-Unis, le plan de construction de nouvelles centrales se poursuit, mais à un rythme très lent. Le ralentissement est lié à la situation économique générale et au gaz de schiste. On peut donc craindre que les décisions prises en Europe et le dynamisme de l'Asie ne rendent la tâche de l'industrie nucléaire européenne très difficile.

- Les exemples de l'Allemagne et du Royaume-Uni -

M. Bruno Sido , sénateur, rapporteur. - Notre seconde session sera consacrée aux exemples anglais et allemand. La presse s'est beaucoup fait l'écho des décisions prises très rapidement en Allemagne après l'accident de Fukushima. Il est en revanche plus rarement question de ce qui se passe au Royaume-Uni, où la continuité prévaut, puisque la construction de nouveaux réacteurs, programmée depuis quelque temps, n'est pas remise en cause.

Je vous propose d'entendre tout d'abord notre collègue Christian Bataille, rapporteur, qui s'est rendu en Allemagne avec Marcel Deneux, pour qu'il nous fasse part de son analyse des choix effectués dans ce pays.

M. Christian Bataille, député, rapporteur. - Sans être exhaustif, le déplacement effectué avec Marcel Deneux du 19 au 22 septembre 2011 nous a donné de la situation allemande une photographie significative, plus proche de la réalité que tous les commentaires que nous avons entendus dans les médias, qui ne correspondent pas à la réalité que nous avons constatée.

Nos entretiens nous conduisent à constater le caractère irrémédiable de la décision d'arrêt des centrales nucléaires à l'horizon 2022, prise à l'unanimité de la représentation parlementaire allemande, sur la proposition de la chancelière Merkel. Inattendue de la part de la majorité chrétienne-démocrate, elle avait été préparée, dès 2002, par la coalition entre les sociaux-démocrates et les Verts dirigée par Gerhard Schröder. La faiblesse relative de l'énergie nucléaire a rendu cette décision réalisable dans le droit fil de la reconversion énergétique allemande. Nul basculement donc !

Une réduction, à un rythme annuel de 2 %, de la part - à ce jour limitée à 22 % -d'électricité d'origine nucléaire constitue un objectif ambitieux mais parfaitement réalisable au regard des ressources énergétiques de nos voisins. L'industrie allemande se préparait à cette évolution. Elle sera compensée par les énergies renouvelables, dont l'affichage est souligné, mais aussi par les importations et par le thermique à flamme.

Le développement des énergies renouvelables résulte d'une politique volontariste. À Berlin comme à Stuttgart, les représentants du ministère de l'environnement fédéral et de celui du Land du Bade-Wurtemberg, qui vient de basculer politiquement, ont mis l'accent sur l'objectif, annoncé par la chancelière allemande dès septembre 2010, d'une croissance accélérée de la part des énergies renouvelables dans la production électrique (de 35 % en 2020 puis de 80 % en 2050), dans le droit fil de la promotion de ces énergies mise en oeuvre, par les majorités successives, depuis le vote de la loi du 29 mars 2000, dite EGG ( Erneuerbare Energien Gesetz ) sur les énergies renouvelables. Les investissements considérables consentis, sous forme de subventions à la production, depuis une décennie, ont permis à l'Allemagne de rattraper le retard dont elle souffrait par rapport à notre pays. Ainsi, en 2010, 17 % de son électricité provenait des énergies renouvelables, contre 15 % pour la France. Si cela ne nous place pas si loin de la position allemande, l'énergie éolienne et la biomasse fournissent chacune un tiers de cette production outre-Rhin, alors que l'électricité d'origine hydraulique reste prépondérante chez nous.

Toutefois, l'Allemagne ne parviendra aux objectifs assignés aux énergies renouvelables pour 2020 qu'à condition de résoudre deux défis : la capacité à stocker l'électricité produite par les énergies intermittentes et la construction des milliers de kilomètres de lignes à très haute tension nécessaires pour relier les champs d'éoliennes du Nord et les centres industriels du Sud, auxquelles les populations ont manifesté leur hostilité. Un projet titanesque de parcs éoliens offshore , censé augmenter, pour 2030, la capacité de 25 gigawatts, nous a été présenté au ministère fédéral de l'environnement. Un parc expérimental a été mis en service en avril 2010, comportant 12 turbines géantes de 5 mégawatts chacune. Un second parc, en exploitation depuis le 2 mai 2011, contient 21 turbines produisant 48,3 mégawatts à pleine puissance. Leur construction a connu des retards et des surcoûts, liés aux difficultés techniques, les éoliennes étant très éloignées des côtes (respectivement de 56 et 16 kilomètres) et à grande profondeur (respectivement 28 et 19 mètres).

Si de tels défis sont à la mesure de la volonté politique et des capacités scientifiques allemandes, cette extension ne se heurte pas moins à des limites. Nous avons pu le vérifier in situ , à l'unité de production d'électricité à partir de biogaz, de Schwandorf, en Bavière. Provenant d'une centaine d'exploitations de la région, la biomasse est cultivée selon les méthodes agricoles de masse, transportée par camions, déversée dans des silos, avant d'être transvasée par des tractopelles dans de grands digesteurs, et enfin longuement malaxée par des pales motorisées. Le biogaz ainsi produit est transformé puis brûlé dans une petite centrale électrique - à l'échelle d'une petite ville. Compte tenu de l'énergie nécessaire pour ensemencer, cultiver, transporter et transformer cette biomasse en biogaz, le bilan environnemental d'un tel processus, sans doute bien moins favorable que celui du biogaz issu de déchets ménagers, pourtant déjà faiblement positif, pose question.

Nous avons interrogé nos interlocuteurs sur la rentabilité réelle de cette activité et sur ses perspectives de croissance. Ils sont inquiets de l'érosion des subventions accordées par le gouvernement, indispensables - après plus de dix ans d'investissements - au maintien de cette unité de production, comme des quelque six mille autres construites en Allemagne. Pour l'instant, avec 2 % de la production d'électricité, nous sommes très loin des objectifs ambitieux annoncés pour 2050.

Le bilan de la filière nucléaire allemande est mitigé. Parallèle à l'accroissement constant de la part des énergies renouvelables dans la production électrique, la réduction de celle de l'énergie nucléaire n'a guère été interrompue depuis dix ans, sauf dans les quelques mois qui ont précédé le drame de Fukushima. Pourtant, l'Allemagne semblait dotée des atouts nécessaires pour occuper, dans ces deux filières, un rôle de premier plan.

Notre visite de la centrale de Neckarwestheim, à une quarantaine de kilomètres de Stuttgart, et comportant deux réacteurs à eau pressurisée de 840 mégawatts et 1 400 mégawatts, n'a pas démenti notre jugement sur l'excellence technologique allemande dans le secteur nucléaire. Nous avons constaté le parfait entretien du premier réacteur, mis en service en 1976, arrêté depuis le moratoire sur l'énergie nucléaire de mars 2011, et doté, à l'instar des centrales françaises, de dispositifs de sécurité avancés, comme les recombineurs d'hydrogène qui ont fait défaut à Fukushima. Nous n'avons relevé aucun signe avant-coureur de démantèlement et ce réacteur semble bizarrement maintenu en état de redémarrer, en tant que de besoin, sous quelques semaines.

Nous n'avons pas eu le temps de visiter le second réacteur, le plus puissant, construit en 1989, et dont l'arrêt n'est prévu qu'à l'horizon 2022. Toutefois, son taux de disponibilité (89,8 %), très supérieur à celui de nos centrales (78,5 % en moyenne en 2010), prouve une maintenance rigoureuse. Compte tenu de la fin de son amortissement, ce réacteur devrait présenter pour l'exploitant EnBW ( Energie Baden-Württemberg AG ) une rentabilité intéressante. Néanmoins, fin 2010, EDF a décidé de céder au Land du Bade-Wurtemberg sa participation de 45%.

Nous avons été intrigués par la présence d'un silo destiné aux combustibles usés. La présentation du ministère de l'environnement a révélé les tâtonnements de la politique allemande, alors que la démarche française est fondée, conformément à la loi 30 décembre 1991, sur un investissement de long terme dans la recherche.

En ayant renoncé, à partir de 2005, à retraiter leurs déchets nucléaires en France, nos voisins ne pourront s'exonérer de trouver des solutions adaptées au stockage des verres issus du retraitement, lorsqu'ils devront - inévitablement malgré les protestations des écologistes allemands - rentrer en train de La Hague, mais aussi à celui des déchets non retraités.

L'Allemagne est privée de toute perspective de long terme pour le stockage de ses combustibles nucléaires usés, sinon, après leur refroidissement, celle d'un entreposage prolongé en surface, sur le modèle américain. Ces déchets seront plus exposés aux risques d'incendie, d'attentats ou de chutes accidentelles d'avions. Cette incertitude sur le sort des déchets, véritable talon d'Achille de la filière nucléaire allemande, a certainement joué un rôle dans la décision de son abandon - c'est ce qui nous a été dit.

Le problème de la gestion des déchets restant entier, le gouvernement allemand a annoncé la poursuite des recherches scientifiques sur la transmutation et le stockage géologique profond.

Si l'abandon de la filière nucléaire constitue indubitablement un échec pour l'industrie allemande, celle-ci peut se prévaloir, dans d'autres domaines, de réussites majeures. Le gaz illustre sa maîtrise technologique.

Ainsi, avons-nous pu découvrir, en Bavière, une semaine à peine après son inauguration, la dernière tranche de la centrale d'Irsching, dotée d'une nouvelle génération de turbine gaz à cycle combiné conçue par la société Siemens. Cet ancien prototype se distingue par son rendement de 60 %, mais surtout par sa rapidité de montée en charge: en 10 minutes, hors cycle combiné, jusqu'à 350 mégawatts, puis en 30 minutes, en cycle combiné, à sa puissance maximale de 640 mégawatts.

De telles performances, liées pour partie à une température de combustion supérieure à celle des turbines traditionnelles, ont pu être atteintes grâce aux matériaux de pointe, comme les céramiques, et à une architecture nouvelle, permettant un refroidissement interne des composants les plus exposés à la chaleur. Le développement de ces innovations a mobilisé, pendant plusieurs années, plusieurs centaines d'ingénieurs et techniciens.

Siemens a consenti un investissement d'un demi-milliard d'euros pour la mise au point de cette nouvelle génération de turbines à gaz, parce que leurs caractéristiques, notamment leur réactivité, en font le complément idéal des énergies renouvelables intermittentes, telles l'éolien ou le solaire. Le représentant de la société nous a précisé qu'une vingtaine d'unités étaient d'ores et déjà en cours de construction pour faire face aux besoins de l'Allemagne après l'arrêt, en mars 2011, des premiers réacteurs nucléaires. Convaincue d'une demande croissante pour ses turbines à gaz, Siemens s'est fixé une feuille de route ambitieuse pour le développement de futurs modèles, aux performances encore supérieures.

Nous avons été impressionnés par cette démonstration de maîtrise technologique, mais nous nous sommes interrogés sur les conséquences de l'augmentation prévisible de la consommation de gaz en Allemagne sur son indépendance énergétique (la Russie représente déjà 40 % de son approvisionnement) comme sur l'émission de gaz à effet de serre. A notre grand étonnement, notre inquiétude ne semblait partagée ni au ministère fédéral de l'environnement, ni au Land du Bade-Wurtemberg.

Nos interlocuteurs de Stuttgart ne nous ont pas caché leur intention de mettre à profit le mécanisme européen des droits d'émissions, pour compenser l'accroissement des émissions de CO2 résultant de la décision d'arrêt des centrales nucléaires. Si les ressources de l'économie allemande peuvent sans doute s'accommoder d'une telle dépense, les effets de ces achats massifs de droits pourraient être moins anodins pour d'autres pays, comme la Hongrie, la Pologne, la Roumanie et la Slovaquie, où une industrie lourde fortement émettrice constitue encore une part significative du potentiel industriel.

Nos interlocuteurs nous ont présenté le « marché » comme une ressource énergétique. Ils justifient ainsi leur ignorance de la provenance de l'électricité achetée par l'Allemagne à la bourse de l'énergie de Leipzig. Depuis mars 2011, l'Allemagne, d'exportatrice, est devenue importatrice d'électricité. Une simple consultation du site de l'ENTSO-E (European Network of Transmission System Operators for Electricity ), le réseau européen des gestionnaires de réseau de transport d'électricité, permet de visualiser les flux d'électricité d'origine nucléaire de République Tchèque et de France.

Le lignite est le pilier de la production électrique allemande. La part du gaz (14 % en 2010) augmentera inexorablement dans les prochaines années. Mais celle du charbon (43 % en 2010, dont 24 % pour le lignite et 19 % pour la houille) demeurera longtemps prépondérante. L'Allemagne, faute de réserves suffisantes de houille (estimées en fin 2008 à 99 millions de tonnes exploitables), importe les deux tiers de sa consommation annuelle (49 millions de tonnes en 2009). Le charbon provient majoritairement (à hauteur de 170 millions de tonnes en 2009) des mines de lignite rhénanes. Nous avons constaté, à quelques kilomètres de Cologne, sur le site d'extraction de Garzweiler et dans la centrale de Niederaussem, les efforts considérables déployés pour exploiter cette importante ressource nationale dont les réserves sont garanties pour 350 ans.

Nous avons été impressionnés par le bouleversement des paysages, sur une étendue de plusieurs dizaines de kilomètres carrés, dû à l'exploitation de cette mine rhénane à ciel ouvert par la société RWE ( Rheinisch-Westfälische Elektrizitätswerk ), l'un des quatre grands producteurs d'électricité allemands. La technique développée depuis un siècle et demi, permet l'accès à des veines parfois épaisses de soixante-dix mètres.

De gigantesques excavateurs à godets, longs de plus de deux cents mètres et hauts de près de cent, pesant plus de treize mille tonnes, peuvent chacun déplacer, deux cent mille tonnes de minerai par jour, acheminé sur des convoyeurs, puis un réseau ferré dédié, jusqu'aux centrales électriques. Rien ne semble devoir s'opposer à l'activité de ces titans, pas même les villages ou les routes, déplacés pour être reconstruits, à l'identique, un peu plus loin, alors qu'un intelligent reboisement permanent permet de recréer le paysage en quelques années.

Si nos voisins acceptent cette industrie traditionnelle, dont l'empreinte sur les paysages et les vies pourrait apparaître insupportable ici, c'est sans doute en raison des quelque 11 600 emplois directs et 100 000 emplois indirects qu'elle crée. Très professionnelles, les techniques de réaménagement de l'environnement élaborées au fil des décennies permettent de retrouver, à terme, un cadre propice au développement de la flore et de la faune de la région.

La dernière chaudière de la centrale électrique au lignite de Niederaussem, entrée en fonction en 2003, témoigne des capacités d'innovation de l'industrie allemande. Fonctionnant à une température (600°C) et une pression (250 bar) élevées, d'une puissance de 1 000 mégawatts, et dotée d'un système filtrant 99 % des rejets soufrés, elle atteint un rendement de 43 %, contre moins de 40 % pour la génération précédente. RWE expérimente sur le site plusieurs technologies destinées à en réduire encore les rejets : déshydratation préalable du lignite, capture du gaz carbonique en post-combustion, réutilisation de celui-ci comme accélérateur de croissance d'algues. L'opérateur prévoit, pour 2015 et 2020, deux nouvelles générations de chaudières au lignite, toujours plus performantes et moins polluantes.

Les investissements réalisés dans cette technologie et ceux qui sont prévus démontrent que l'Allemagne n'est pas prête à renoncer à la sécurité procurée par une réserve de plusieurs siècles en lignite, qui lui permet de faire face aux imprévus de l'approvisionnement en gaz ou aux retards dans le développement des énergies renouvelables.

Le cas allemand est singulier et l'on ne peut en aucun cas le rapprocher de la France. L'Allemagne ne confiait à la filière nucléaire qu'une part limitée de sa production d'électricité, qu'elle a réduite ces dernières années. Le principal industriel national, Siemens, a fluctué, passant des alliances successives, d'abord avec les français Framatome et Areva, ensuite avec l'américain Westinghouse, avant de se tourner vers Alsthom et, enfin, pour un court moment, le russe Rosatom. Alors qu'elle avait, au début des années soixante-dix, tous les atouts pour imposer sa maîtrise technologique, l'Allemagne a connu, dans le domaine nucléaire, l'un de ses rares échecs industriels.

La mise en oeuvre de la décision de sortie du nucléaire, bien que très progressive et étalée sur une dizaine d'années, posera des difficultés d'adaptation à l'industrie allemande. Néanmoins, les impressionnantes ressources énergétiques de l'Allemagne, avec ses réserves considérables de lignite, et sa capacité à développer des solutions techniques innovantes, pour désulfurer et capturer le CO2, rendront, à terme, ces combustibles plus compatibles avec les préoccupations environnementales. Il en va de même pour la houille qui continuera à être utilisée en quantité. Si nos interlocuteurs ont évoqué avec réticence ces atouts, il semble difficile de croire que l'Allemagne négligera ses réserves, ainsi que son savoir-faire en matière de conception des centrales électriques.

L'Allemagne fait preuve, dans le domaine des centrales gaz, de la même capacité à développer des solutions d'avant-garde et prometteuses de marchés. Mais le recours croissant au gaz russe, pourrait, à l'avenir, constituer une fragilité. Les pays européens doivent donc redoubler d'efforts et de diplomatie à l'égard de la Turquie, pour accélérer la mise en oeuvre du gazoduc Nabucco, ouvrant à l'Europe centrale et méridionale, via la Transcaucasie et l'Iran, un accès direct aux ressources de l'Asie centrale.

Si les énergies renouvelables focalisent les débats politiques outre-Rhin, leur développement reste freiné par les obstacles techniques au stockage et au transport de l'électricité produite par l'éolien et le solaire. Le biogaz reste largement expérimental.

L'Allemagne a fait des choix énergétiques qu'il ne nous appartient pas de remettre en cause, tout comme il ne serait pas acceptable que des militants allemands remettent en question les choix énergétiques français. La France est sortie du charbon, l'Allemagne sort du nucléaire. Chacun sa réalité. Nos voisins peuvent assumer leur projet en toute quiétude. Ils bénéficient de ressources énergétiques considérables, utilisables à tout moment et dont ils justifieront l'exploitation le moment venu, quitte à recourir à des arguties casuistiques, comme l'achat de droits d'émission de gaz à effet de serre.

L'Allemagne va sortir du nucléaire, mais elle n'est pas prête de sortir du charbon. La France ne disposant plus de telles réserves dans son sous-sol, n'aurait d'autre choix, si elle décidait de suivre le même chemin, que d'accroître massivement ses importations de gaz. Cette décision politique serait autrement plus lourde de conséquences sur notre balance des paiements et notre indépendance énergétique.

M. Marcel Deneux , sénateur - Je suis en phase avec ces conclusions auxquelles nous avions réfléchi ensemble, pendant notre déplacement. Le paysan que je suis rappellera que nous avons vu une station dédiée au biogaz, qui n'entretient pas moins de 2 000 hectares de maïs ensilé. Les responsables de la société Viessmann, qui nous ont reçus, nous ont dit exploiter cinq unités de ce type, soit 10 000 hectares ! Cela permet de relativiser les discussions que nous avons en France sur l'appropriation des terres agricoles pour des usages alimentaires ou non. Les Allemands dédient sans vergogne, avec une orientation écologique, des terres agricoles à la production d'énergie. Cela fait partie des contradictions que nous avons relevées. Nous avons appris qu'il y 6 000 unités de méthanisation en Allemagne, c'est vrai, mais pas de cette dimension. Il s'agit en fait d'unités de production liées à l'élevage, de différentes tailles.

Si j'étais enclin à la taquinerie, je rebondirais sur l'affirmation conclusive selon laquelle notre pays n'a pas de réserves énergétiques en sous-sol. Nous devrons réfléchir, à l'avenir, sur l'utilisation, qui peut être conflictuelle, de certaines de nos réserves... - mais tel n'est pas l'objet de notre rapport.

M. Bruno Sido , sénateur, rapporteur. - Je vous propose d'entendre maintenant M. William Nutall, directeur adjoint du groupe de recherches sur la politique électrique de l'Université de Cambridge, qui va nous éclairer sur le contexte du « renouveau nucléaire » anglais : quel est l'état de la recherche britannique dans ce domaine ? quelles sont les conséquences de l'existence d'un marché libéralisé ?

M. William Nuttall, directeur adjoint du groupe de recherches sur la politique électrique, Université de Cambridge. - Je tiens à vous remercier pour votre invitation et à préciser que si je m'exprime à titre personnel, mes collègues du groupe de recherches m'ont aidé à préparer mon exposé.

Le marché de la production d'électricité au Royaume-Uni est privatisé et compétitif. Ce n'est pas le gouvernement qui construit les centrales. L'initiative dans ce domaine est privée, elle relève des sociétés. La conscience publique des enjeux du changement climatique est très grande, ce qui crée des tensions. La loi relative au changement climatique s'inscrit dans cette perspective. Il y a plusieurs années, nous avions plus de préoccupations qu'aujourd'hui pour la production d'électricité et la sécurité de notre approvisionnement, notamment en gaz. Plusieurs facteurs ont concouru à l'allègement de cette contrainte, notamment l'augmentation de la capacité d'importation de gaz naturel liquéfié. L'adéquation de notre capacité de production demeure une préoccupation pour notre sécurité énergétique. Si nous ne construisions rien de neuf, nous perdrions toute marge de manoeuvre vers 2015. La solution traditionnelle à ce problème est de développer l'énergie nucléaire et l'énergie éolienne. Cela coûte cher. Dans une approche pragmatique, je vois trois options pour le Royaume-Uni : le gaz avec les turbines à cycle combiné, l'énergie nucléaire et les énergies renouvelables, dominées par l'éolien. L'énergie nucléaire est plus propre que le gaz et moins chère que le vent.

La politique britannique démarre en 2008, sous le gouvernement travailliste, avec le « livre blanc » sur l'énergie nucléaire, qui soutient officiellement la construction de nouvelles centrales. Ce document a permis une simplification du processus de planification : projet global, évaluation et affirmation d'un besoin national. Il en résulte que si la conception de la centrale est sûre, les procédures d'enquêtes publiques locales ne peuvent remettre en cause la nécessité de construction de la centrale, ni la nécessité de l'énergie nucléaire pour le Royaume-Uni, ni l'emplacement de l'installation. C'est au niveau national que l'on aura répondu à ces questions auparavant.

En 2010 est arrivé le premier gouvernement de coalition britannique (entre les conservateurs et les libéraux-démocrates) depuis des décennies, qui a donné une réelle impulsion au programme de construction de centrales, devant être achevées dès 2018 : tel était le calendrier avant Fukushima. Il n'a pas beaucoup changé depuis.

Avant Fukushima, l'un des problèmes majeurs du nucléaire était l'importance du coût en capital. La construction représente les deux tiers du coût total d'une centrale, à l'opposé du gaz. Il n'y a pas que le coût, il y a les risques économiques, qui sont entièrement assumés, au Royaume-Uni, par les investisseurs : coût du capital élevé ; retard du chantier ; baisse des prix de l'électricité après la construction ; changements de réglementation environnementale, de politique, de gouvernement, d'acceptation sociale pendant la construction, qui dure des années ; chute des prix du carbone avant la mise en service ou problèmes opérationnels pendant l'exploitation ; difficultés d'exploitation opérationnelle. Quatre risques sur sept peuvent affecter l'investisseur avant même qu'il ait vendu le premier kilowatt. A 95 %, après cinq ans de paperasses et quatre ans de construction, l'investissement ne peut être considéré comme un actif : il ne le devient que lorsqu'il fabrique de l'électricité.

Plusieurs aspects de la « stratégie 2020 » de l'Union européenne posent des contraintes à la politique énergétique du Royaume Uni. Il y a une tension entre l'objectif de réduction des gaz à effet de serre et celui d'augmenter la part d'énergie renouvelable, qui en tendant à réduire le prix du carbone, limite l'incitation à diversifier les sources de production.

Ainsi, avant Fukushima, les coûts économiques élevés et les risques économiques menaçaient déjà le renouveau nucléaire. Nous observions aussi les retards et les surcoûts constatés en France et en Finlande. Le gouvernement a répondu en réformant le marché de l'électricité au début de l'année, afin de  fixer un prix plancher pour le carbone, stable et suffisamment élevé ; garantir les tarifs, en créant des contrats différenciés, pour toutes les sources d'électricité hors carbone ; rémunérer les capacités de production ; créer une norme sur les émissions nouvelles, obligeant les installations à capturer le carbone. L'objectif est de porter le prix du carbone à 70 livres la tonne en 2030. Telle est la route vers la stabilité. L'axiome traditionnel au Royaume Uni selon lequel il ne doit pas y avoir de subvention pour l'énergie nucléaire (contrairement aux énergies renouvelables), a été « clarifié » ainsi par le secrétaire d'Etat à l'énergie et au changement climatique l'an dernier : « il n'y aura pas de transfert, paiement direct ou mécanisme de soutien pour l'électricité ou la capacité fournie par un nouvel opérateur privé, sauf si un soutien similaire est accordé plus généralement à d'autres types de production ». Bref, l'énergie nucléaire peut être éligible à des subventions accordées à d'autres formes de production d'énergie pauvres en carbone. C'était avant Fukushima.

Fukushima a-t-il changé la donne ? Pas encore énormément. La position du gouvernement ne paraît pas avoir varié. Le gouvernement et l'opposition travailliste, en Angleterre, continuent de soutenir le programme de construction de nouvelles centrales. Il en va différemment en Ecosse, qui a sa propre politique énergétique. Le calendrier de construction élaboré en 2010 a été un peu retardé, par la réflexion publique et officielle provoquée par Fukushima et le rapport Weightman, mais de façon mineure selon les industriels concernés. En fait, le nouveau calendrier n'a pas encore été rendu public. Nous en saurons davantage dans quelques semaines. J'imagine qu'il y aura des retards d'un certain nombre de mois.

Qu'en est-il des entreprises privées du secteur de l'énergie ? Le risque principal pour le programme nucléaire britannique vient de là, puisque ce sont elles qui prennent l'initiative de construire. Or ce sont de grands consortiums internationaux, qui sont affectés par le climat, politique et social,de leurs pays d'origine. Il y en a trois principaux : un franco-anglais, un germano-allemand et un franco-espagnol. Les décisions allemandes peuvent donc avoir un impact sur le programme britannique. Le Financial Times d'hier rapportait que le consortium des Allemands E.On et RWE cherchait à vendre 25 % de son projet à un fournisseur de technologie nucléaire, pour 5 milliards d'euros. Il ne s'agit pas d'une seule centrale, mais d'un ensemble de centrales, qui représentait l'ambition du groupe en Grande-Bretagne.

Sur Fukushima, il y a deux écoles de pensée. Je tiens à dire que je me range dans la première. Pour celle-ci, si l'on considère l'histoire des accidents nucléaires, Three Mile Island et Tchernobyl apparaissent certes comme des erreurs de l'industrie nucléaire, mais il n'y a pas eu d'erreur de conception de la centrale au départ. Fukushima, en revanche, est la triste conséquence d'une catastrophe naturelle qui a tué des milliers de personnes. De ce point de vue, Fukushima est beaucoup moins inquiétant que les deux accidents précédents. Lorsque je pense à Fukushima, je pense d'abord à toutes les vies perdues dans cette catastrophe naturelle.

Il y a une autre interprétation, selon laquelle l'accident de Fukushima révèlerait une erreur fondamentale dans la conception des centrales nucléaires, montrant que l'on ne peut pas avoir confiance dans l'industrie qui en a la charge. Le débat reste ouvert.

M. Bruno Sido , sénateur, rapporteur. - Monsieur Cope, qui dirigez l'équivalent de notre Office outre-Manche, quelle est votre analyse de la politique énergétique britannique, qui soutient simultanément le développement des énergies renouvelables et le maintien d'une composante nucléaire significative ?

M. David Cope, directeur du POST (Office parlementaire pour la science et la technologie) du Parlement britannique. - Je suis très honoré par votre invitation. Nous avons un immense respect pour notre Office frère. Je suis très impressionné par la devise de la République qui orne votre site internet. Nous avons tous deux la liberté et la responsabilité de conduire des études et des enquêtes destinées à informer nos Parlements respectifs. Je viens d'évoquer notre fraternité. Ce qui nous manque, c'est l'égalité, car j'envie vos moyens de fonctionnement. Mais c'est à Londres que je dois le dire !

Comment le système parlementaire du Royaume-Uni a-t-il traité Fukushima ? Il se trouve que j'étais à Tokyo lors du tremblement de terre. Quand j'ai vu à la télévision ce qui se passait, j'ai aussitôt pensé : « ça y est, voilà la fin du programme de construction nucléaire britannique » ! J'avais tort, et cela m'étonne encore ! Je crois bien connaître mon pays, mais je ne comprends toujours pas la réponse politique et du public à l'événement. Nous n'avons pas eu d'enquête parlementaire sur Fukushima et ses conséquences. C'est une coïncidence si la Chambre des Lords, notre chambre haute, venait juste de commencer, eu moment de l'accident, une enquête sur la recherche-développement nucléaire en Grande-Bretagne. Ils ont donc rapidement inclus la recherche-développement en sûreté nucléaire dans leur investigation. Mais cela n'a créé aucune pression en faveur d'une réponse parlementaire à Fukushima. Cette mission rendra son rapport dans deux semaines, je ne suis pas au courant de ses conclusions, mais on me dit qu'elles seront « robustes ». Le seul examen parlementaire formel de Fukushima en Grande-Bretagne a été un atelier d'une demi-journée organisé en juillet par notre Office, avec Dennis Flory, de l'AIEA, et le président Claude Birraux, venu nous présenter votre rapport d'étape, et, en octobre, une « question parlementaire spéciale » d'un député, dont je puis dire qu'il a des convictions antinucléaires, et qui a pris l'initiative d'un mini-débat à la Chambre des communes avec le ministre en charge de l'énergie.

S'il n'y a pas eu davantage de réaction parlementaire, c'est sans doute parce que le gouvernement britannique, a annoncé, très tôt après le 11 mars, une enquête officielle, le rapport Weightman, du nom de l'Inspecteur en chef des installations nucléaires qui l'a conduite, assisté d'un panel de spécialistes de l'énergie nucléaire. Comme pour votre propre rapport, il y a eu un rapport d'étape rendu en juin et le rapport final sera présenté en octobre. Contrairement à ce qu'en a dit une partie de la presse britannique, il n'exclut pas totalement le risque d'un accident similaire en Grande-Bretagne. Il est vrai que la côte orientale de la Grande-Bretagne a été frappée il y a 8 000 ans par un tsunami, d'une magnitude similaire à celui qui a touché la côte nord-est du Japon. Bien que scientifiquement on ne puisse exclure qu'un tel événement se reproduise, le fait qu'il ait eu lieu il y a 8 000 ans a semblé évacuer le problème. Beaucoup plus près de nous, il s'est produit un incident, en 1607, sur la côte occidentale de la Grande-Bretagne, entre l'Angleterre et le pays de Galles, où doit être construite la première centrale du nouveau programme, mais d'une échelle moindre qu'à Fukushima. De même, s'agissant d'un événement datant d'il y a 400 ans, on a préféré l'ignorer. Techniquement, il faut néanmoins étudier la résistance aux inondations, non seulement graduelles, mais d'une force brutale. Les implications en termes de coût ne sont pas très significatives. Le rapport souligne aussi que rendre plus visibles et moins vulnérables les équipements électriques des centrales pourrait réduire les risques. Il conclut à la poursuite du plan de construction de nouvelles centrales et à l'attention à porter à la prévention des risques d'inondation. Les risques les plus probables dans notre pays sont dus non aux tsunamis mais aux crues liées aux pluies, aux orages ou aux marées.

Personne ne soutient chez nous que ce qui s'est passé à Fukushima n'a aucune importance. Un Vert a été élu l'an dernier au Parlement, et nous avons des groupes écologistes très actifs. Mais, plutôt que d'affirmer que l'accident de Fukushima démontre le caractère inadéquat de l'énergie nucléaire, leur argument, et je dois dire que c'est un peu de votre faute, monsieur le Président Birraux, est que la Grande-Bretagne ne peut prendre des engagements avant que d'autres pays européens aient rendu leurs propres conclusions. Je sais, monsieur le Président, que vous respecterez votre calendrier, mais comprenez combien celui-ci est devenu important pour nous !

En Grande-Bretagne coexistent en fait deux politiques énergétiques, celle menée par l'Angleterre et celle menée par l'Ecosse. Cette dernière estime en effet qu'elle doit mener sa propre politique énergétique car même si le domaine n'est pas de sa compétence, c'est elle qui maitrise l'urbanisme... Pour l'instant, le gouvernement d'Ecosse a décidé de se passer de l'énergie nucléaire, mais 40 % de son électricité est fourni par une seule centrale, d'où de gros problèmes en perspective. Je dis à mes amis Ecossais que cette expérience est intéressante car s'ils arrivent à se débarrasser de l'énergie nucléaire, nul doute que de nombreux pays viendront étudier leur exemple. En revanche, s'ils n'y parviennent pas, qu'ils n'espèrent pas que les Anglais leur vendent de l'électricité nucléaire à bas prix ! Je plaisante, bien sûr...

Je me suis rendu au Japon le mois dernier et j'ai pu constater de nombreux « points chauds » en dehors des zones d'exclusion, sans doute dus aux conditions météorologiques. Cette information n'a pas été beaucoup relayée en Grande-Bretagne ou dans d'autres pays. Si l'opinion publique avait eu connaissance de ces données, elle aurait sans doute évolué. Comme de nombreux Japonais, j'ai acheté mon propre compteur Geiger, et j'ai constaté l'existence d'un « point chaud » dans un faubourg de Tokyo. Affolement des autorités et évacuation de la population ! On a découvert du radium médical dans un immeuble inhabité.

Je crains que tous ces incidents n'amènent l'opinion anglaise et européenne à être plus soupçonneuse à l'égard de l'énergie nucléaire, même si ces « points chauds » n'ont aucun rapport avec l'accident de Fukushima.

Je ne suis pas non plus certain que le public ait une claire conscience de la nature des radiations et des risques nucléaires. Ainsi, les personnes qui se rendent de Londres à Tokyo reçoivent plus de rayonnements cosmiques dans l'avion qu'une fois arrivées au Japon.

J'ai eu des discussions intéressantes avec mon homologue japonais : le 7 mars, le Parlement japonais avait décidé de créer l'équivalent de l'OPECST. Le 11 mars est arrivé et tout a été suspendu. Néanmoins, le Parlement japonais a annoncé en septembre qu'il allait mener ses propres investigations sur Fukushima.

Votre rapport sera sans doute le plus exhaustif de tous ceux qui vont être rédigés par les offices parlementaires d'Europe et il est important que nous en disposions. Je suis profondément honoré d'avoir pu témoigner dans cette enceinte.

M. Bruno Sido , sénateur, rapporteur - Nous allons ouvrir le débat.

M. Sylvain David, membre du comité d'experts, chercheur à l'Institut de physique nucléaire . - Vous nous avez fait une présentation assez optimiste des projets nucléaires qui se développent dans le monde. J'aimerais disposer d'une évaluation de la puissance nucléaire installée d'ici vingt ou trente ans, car les projets ne me paraissent pas à la hauteur des quelques gigawatts en construction ou programmés. L'énergie nucléaire, c'est aujourd'hui 5 % de l'énergie. Si la consommation d'énergie augmente de 50 à 60 % d'ici 2030, la part du nucléaire stagnerait s'il s'accroissait du même pourcentage, alors qu'il faudrait construire des dizaines de réacteurs.

M. Daniel Iracane . - Lors de la conférence générale de l'AIEA en septembre, son directeur général a constaté une croissance du parc électronucléaire, mais plus lente que prévue. L'AIEA estime que le nombre de réacteurs va augmenter de 90 à 350 unités d'ici 2030, sachant que nous disposons de 432 réacteurs aujourd'hui, mais les centrales construites aujourd'hui sont plus puissantes que celles en activité. En outre, les nouvelles constructions remplaceront en partie les anciennes centrales. Il n'y aura donc pas d'augmentation importante du parc nucléaire. La fourchette de 90 à 350 illustre bien la zone d'incertitude dans laquelle nous nous trouvons aujourd'hui.

M. Pierre Zaleski . - Ces chiffres sont significatifs. Il est difficile de prévoir, vingt ans à l'avance, les évolutions. Il est certain que la Chine va être extrêmement dynamique en ce domaine. L'Inde marque le pas pour des raisons économiques mais pourrait aussi beaucoup investir dans les années à venir. En 2030, la Chine pourrait posséder 150 gigawatts et l'Inde 60 gigawatts.

Je crains que nous ne soyons en train d'oublier le réchauffement climatique, du fait de la crise. Si on ne le prend pas au sérieux, les énergies fossiles seront privilégiées, au détriment de l'énergie nucléaire.

M. Claude Birraux, député, président . - Depuis l'échec relatif de la conférence de Copenhague, le thème du réchauffement climatique ne fait plus partie de l'actualité médiatique, et encore plus depuis l'accident de Fukushima. Pouvez-vous nous confirmer que le besoin mondial d'investissement dans les infrastructures énergétiques s'élève à 30 000 milliards de dollars d'ici 2030 ?

M. Marco Baroni, Agence Internationale de l'Energie . - Je vous prie d'excuser M. Birol qui a dû partir pour se rendre à une importante réunion. Je travaille à ses côtés. Le besoin d'investissement pour les infrastructures d'énergie s'élève à 36 000 milliards de dollars, d'ici 2030, dont 17 000 milliards pour la seule électricité.

La capacité actuelle du nucléaire dans le monde est d'un peu moins de 400 gigawatts et nos projections d'avant Fukushima pour 2035 faisaient état de 650 gigawatts, en incluant le remplacement des réacteurs trop vieux. Depuis l'accident de Fukushima, ces estimations ont diminué, mais pas de beaucoup. La proportion d'électricité nucléaire resterait stable à 13 ou 14 % du total de l'électricité.

M. Bruno Sido , sénateur, rapporteur . - Dispose-t-on d'un bilan des énergies renouvelables en Grande-Bretagne ? Les objectifs sont-ils atteints ?

M. David Cope . - Nous avons bien entendu des chiffres concernant les énergies renouvelables et les énergies fossiles : le Royaume-Uni a peu de lignite, mais beaucoup de charbon. Nous nous posons beaucoup de questions concernant la sécurité énergétique dans notre pays ; hier, le comité énergie du Parlement a publié un rapport et il a demandé au gouvernement de créer des indicateurs de sécurité d'approvisionnement énergétique et de publier des rapports annuels sur cette question.

M. William Nuttall . - La plupart des informations dont je dispose concernent la technologie nucléaire. J'aimerais néanmoins faire quelques remarques sur les énergies renouvelables. La cogénération avec la biomasse dans les centrales thermiques me semble très intéressante même si elle ne passionne pas le public.

J'en viens à l'éolien qui passionne l'opinion publique : il faut distinguer l'éolien sur terre et celui sur mer. Sur terre, la technologie est mature mais elle est très mal perçue par le public. De nombreux obstacles ont été dressés et décourageront sans doute les initiatives en ce domaine. C'est pourquoi l'éolien va probablement partir en mer, mais les surcoûts nécessiteront des subventions. Pour l'électricité, nous allons donc avoir l'énergie nucléaire à longue échéance et l'éolien en mer à court terme.

M. Claude Birraux, député, président . - Avec des subventions publiques ?

M. William Nuttall . - Tout à fait, mais elles seront payées par les factures d'électricité. Nous partons du principe que la technologie s'améliorera au fur et à mesure que nous installerons des éoliennes en mer. Nous espérons qu'à terme l'éolien en mer sera moins cher mais, pour l'instant, ce sont les ménages qui payent, surtout les plus pauvres.

Enfin, la Grande-Bretagne devrait se pencher de toute urgence sur l'origine des composants et des machines qui permettent d'exploiter les énergies renouvelables.

M. Claude Birraux, député, président . - La plupart des énergies renouvelables sont intermittentes. N'y aurait-il pas des recherches à mener pour le stockage de ces énergies afin de répondre à la demande ?

M. William Nuttall . - Pour l'instant, le stockage est difficilement envisageable. En revanche, d'autres solutions sont possibles. Si nous voulons réduire nos émissions de carbone de 40 %, nous pouvons avoir des renouvelables intermittents complétés par des énergies fossiles qui pourraient éventuellement séquestrer leur production de carbone. Dans cette hypothèse, on pourrait s'interroger sur le rôle de l'énergie nucléaire. En revanche, si nous voulons réduire nos émissions de CO2 de 80 %, il faudra réaliser un bond technologique et développer considérablement la R&D.

Pour l'intermittence, la connectivité et les infrastructures de distribution ont également une grande importance. Les personnes qui payent pour la distribution ne sont pas toujours les mêmes que celles qui payent pour la production. Au Royaume-Uni, on se pose beaucoup de questions pour savoir qui va payer pour la distribution. Si nous voulions renouveler notre système électrique, il faudrait dépenser énormément d'argent pour le réseau de distribution.

Le stockage ne me semble donc pas une priorité à l'heure actuelle.

M. David Cope . - Au Royaume-Uni, des recherches sont menées en matière de stockage dans des batteries ou avec l'air comprimé mais la seule alternative économique, ce sont des stations de pompage de grande envergure. Nous en avons d'ailleurs construit une il y a vingt-cinq ans. Un site a été identifié pour stocker de l'énergie, mais il se trouve au milieu d'un parc naturel très fréquenté au centre de l'Angleterre et l'autorisation de construire une telle installation ne sera jamais accordée. Le développement de ce genre de technologie n'est donc pas à l'ordre du jour.

M. William Nuttall . - Pour le long terme, il faudrait évoquer la solution procurée par le smart grid , le réseau de distribution intelligent. Ce système pourrait fonctionner, notamment en utilisant les batteries des véhicules électriques.

M. Pierre Zaleski . - Les études sur le stockage ne donnent pour l'instant pas de résultats probants. Evidemment, des stations de pompage sont toujours possibles, mais elles dépendent de situations géographiques spécifiques. Sinon, le stockage reste très cher.

Le smart grid peut répondre à la demande, mais il a un coût ! Il n'y a pas de solution sans investissements pour faire face à la variabilité dans le temps des énergies renouvelables.

J'ai parlé dans mon exposé des stations de concentration solaire, mais le procédé est coûteux ; de plus, pour être pleinement efficaces, elles doivent être installées de l'autre côté de la Méditerranée, ce qui pose alors des problèmes d'ordre géopolitique.

M. Marco Baroni . - Je suis d'accord avec le docteur Nuttall : tout dépend de l'échelle de temps que l'on privilégie et du type de futur énergétique vers lequel on veut aller. Cela dépend aussi de la part d'intermittence dans le mix final énergétique. Enfin, la réponse est spécifique à chaque pays et dépend en partie du type d'interconnexion entre les pays, des smart grids et du stockage.

M. David Cope . - Je souhaite poser une question à M. Bataille sur son rapport que j'ai trouvé vraiment intéressant. Vous avez une frontière commune avec l'Allemagne et vous exploitez la centrale nucléaire de Fessenheim. Certains politiques allemands parlent d'une décision irrévocable en ce qui concerne l'abandon du nucléaire dans leur pays. Ils donnent l'impression de vouloir agir comme les Romains, qui ont semé du sel sur les ruines de Carthage ... Pour moi, on ne devrait jamais s'interdire à tout jamais une option.

M. Christian Bataille, député, rapporteur . - Nous sommes allés avec M. Deneux en Allemagne. Tous les interlocuteurs que nous avons rencontrés, depuis l'extrême gauche jusqu'aux partis les plus conservateurs, sont engagés dans la sortie du nucléaire. C'est devenu une sorte de philosophie religieuse de l'Allemagne réunifiée, et les choses vont sans doute aller très vite. Nous avons vu une centrale en parfait état de fonctionnement à l'arrêt. Dans mon rapport, j'ai noté qu'elle n'était pas démantelée. C'est une gestion plus prudente que celle de la France, qui a arrêté Superphénix en faisant le nécessaire pour l'empêcher à jamais de redémarrer.

Les militants antinucléaires allemands doivent se calmer : ils prennent l'habitude de passer le Rhin avec les Suisses pour demander l'arrêt de Fessenheim. Je rappelle qu'historiquement, cela n'a jamais vraiment réussi à leurs aînés de franchir cette frontière. Ils ne devraient pas se mêler d'un choix français ; sinon, de la même façon, les Français qui reçoivent le CO2 des centrales au charbon de la Ruhr pourraient passer la frontière pour en demander l'arrêt. Nous convergeons avec les Anglais vers des choix énergétiques identiques, mais il est très gênant que les deux Etats qui constituent la colonne vertébrale de l'Europe continentale aient des points de vue aussi divergents sur la politique énergétique. Je ne comprends pas pourquoi la technologie allemande, qui était au départ supérieure à la nôtre, a reflué du nucléaire alors qu'elle était à l'avant-garde.

Ceci dit, je crois que cet abandon est irrévocable, quels que soient les changements politiques à venir. Dans dix ans, tous les réacteurs seront à l'arrêt.

M. William Nuttall . - Je ferai un commentaire très pro-européen, ce qui peut surprendre de la part d'un Anglais. Le docteur Birol nous a rappelé l'importance de l'Asie de l'est, des Etats-Unis, de l'Afrique. Mais il faut également parler de l'Europe : je préfèrerais avoir une politique unie médiocre plutôt que vingt-six politiques énergétiques différentes. La subsidiarité est importante mais la sécurité d'approvisionnement l'est tout autant. Je suis favorable à une compétence exclusive en ce domaine avec toutes les conséquences que cela implique.

M. Claude Birraux, député, président . - Heureusement qu'il n'y a pas de compétence exclusive européenne ! Chaque pays a ses atouts et ses handicaps. S'il y avait compétence exclusive en ce domaine, le commissaire européen en charge du dossier voudrait étendre à l'Europe entière le modèle de développement énergétique de son pays d'origine. A toutes les délégations étrangères que j'ai reçues, j'ai tenu le même discours : en réponse à la crise du pétrole de 1973, la France a trouvé une réponse, mais d'autres pays ont trouvé d'autres réponses. Le jour où nous avons rendu public notre rapport intermédiaire, j'ai reçu une délégation suisse à qui j'ai dit que je n'avais pas l'intention d'imposer une centrale nucléaire sur chacun de leurs lacs ! La Suisse a trouvé son chemin en matière énergétique, tout comme la France.

Le bouquet énergétique européen me semble assez bien équilibré. Le Danemark vante ses énergies renouvelables mais il oublie de mentionner ses centrales au charbon si bien qu'il produit deux fois plus de CO2 par habitant que la France. Chacun essaye de se frayer un chemin au milieu de ses contradictions et de ses contraintes. Si l'on doit lutter contre le réchauffement climatique en Europe, laissons chaque pays trouver sa solution propre. De grâce, pas d'uniformisation !

M. Birol a évoqué la fin du pétrole à bon marché. Envisage-t-on une même évolution pour le charbon et pour le gaz ?

M. Pierre Zaleski . - Les réserves de gaz sont considérables, mais elles sont finies. A terme, les prix augmenteront donc. Même chose pour le charbon, d'autant que la Chine en consomme énormément et qu'elle va finir par réduire ses exportations.

On parle beaucoup de CO2 mais pas des effets directs sur la santé des centrales au charbon. En Chine, il semble que des centaines de milliers de personnes meurent de façon prématurée chaque année à cause des centrales au charbon. Aux Etats-Unis, c'est le cas de quelques milliers de personnes par an. En Allemagne, les centrales sont de plus en plus perfectionnées et capturent la totalité du souffre, mais quid des particules ? Quelqu'un a-t-il procédé à des études épidémiologiques ? En Pologne, 95 % de l'électricité vient du charbon : j'ai posé la question au gouvernement polonais... et j'attends toujours la réponse ! Le lobby charbonnier n'apprécie guère ces questions. Nous sommes affolés par les quelques centaines ou les quelques milliers de morts prématurées dus à Tchernobyl mais rien n'est dit sur les morts provoquées par les centrales au charbon.

M. Claude Birraux, député, président . - La technologie a sans doute amélioré les choses en capturant le soufre et les particules. Le traitement du gaz carbonique va être abordé, soit par séquestration, mais alors il faudra que l'opinion publique l'accepte, soit par valorisation pour obtenir du méthane.

L'épidémiologie est une matière extrêmement difficile. J'ai fait beaucoup de peine à une chercheuse japonaise qui avait fait une étude épidémiologique sur des groupes de femmes qui avaient visité ou non des usines à risque. Elle avait étudié sur vingt ans l'évolution des femmes japonaises de ces deux groupes. Le problème, c'est que dans un groupe, il y avait 580 personnes et dans l'autre 53 !

Il me reste à vous remercier d'avoir participé à cette après-midi particulièrement intéressante et à vous indiquer que la prochaine réunion aura lieu le jeudi 3 novembre à l'Assemblée nationale.

EVOLUTION DE LA CONSOMMATION ÉLECTRIQUE
ET ÉCONOMIE D'ÉNERGIE

Jeudi 3 novembre 2011

M. Bruno Sido , sénateur, rapporteur . - Permettez-moi d'abord d'excuser Claude Birraux, dont l'état de santé l'oblige, pour la première fois, à renoncer à présider une audition.

La semaine dernière, nous avons eu l'opportunité de comparer les choix énergétiques de plusieurs pays européens, notamment ceux de l'Allemagne et de la Grande-Bretagne. Aujourd'hui, nous allons essayer de mieux appréhender l'évolution de la consommation électrique de notre pays et les possibilités en matière d'économies d'énergie. Nous nous intéresserons à la performance énergétique des bâtiments, secteur qui est loin d'être mineur, puisqu'il représente à lui seul 43 % de notre consommation énergétique.

C'est un sujet que Claude Birraux et Christian Bataille connaissent bien pour l'avoir déjà traité en 2009, dans le cadre d'un rapport de l'Office. Le législateur avait prévu à l'article 4 de la loi de programmation du 3 août 2009, relative à la mise en oeuvre du Grenelle de l'environnement, que l'Office soit chargé d'une étude sur la nouvelle réglementation technique des bâtiments, fixant un plafond de consommation annuelle d'énergie primaire de 50 kWh/m².

Le calendrier parlementaire avait déjà contraint les rapporteurs à travailler dans un contexte d'urgence. Malgré tout, en quatre mois, ils avaient réalisé une quarantaine d'auditions, pour moitié en France et pour moitié à l'étranger, de manière à prendre connaissance de l'expérience de nos voisins, en général bien plus avancés que nous sur ces questions.

Sur la base d'une analyse approfondie, Claude Birraux et Christian Bataille avaient émis plusieurs recommandations. Pour la plupart, elles tendaient à promouvoir une démarche équilibrée et réaliste, à faciliter l'innovation, du moins à ne pas la freiner inutilement par des rigidités réglementaires. Ils avaient également préconisé une approche pratique, sur le terrain, de la mesure de la performance énergétique des bâtiments, qui ne se limite pas à des calculs théoriques.

Les deux tables rondes de cette matinée ont pour objectif d'évaluer les progrès réalisés sur ces deux aspects depuis 2009 et d'identifier, le cas échéant, les points de blocage qui pourraient nous empêcher de rattraper notre retard. La première table ronde, consacrée aux enjeux de la normalisation technique, sera ouverte par deux représentants de la sous-direction de la qualité et de la réglementation technique de la construction, du ministère en charge de l'Écologie, du développement durable, des transports et du logement, désignés par ce ministère à la suite d'un courrier que Claude Birraux a adressé le 4 octobre 2011 à Mme Nathalie Kosciusko Morizet. Il s'agissait « d'éclairer les membres de la mission parlementaire sur deux dispositifs clés dans l'intégration des nouvelles technologies du bâtiment : d'une part, sa prise en compte au niveau du moteur de calcul réglementaire au titre de la procédure dite du « titre V », d'autre part, la formulation des avis techniques par le centre scientifique et technique du bâtiment ». Je donne donc la parole à M. Richard Danjou, adjoint du sous-directeur, et à Mme Marie-Christine Roger, chef du bureau de la réglementation technique et de la construction.

M. Richard Danjou, adjoint au sous-directeur, sous-direction de la qualité et du développement durable dans la construction, direction de l'habitat, de l'urbanisme et des paysages, au ministère de l'Écologie, du développement durable, des transports et du logement . - Nous avons prévu de vous rappeler les principaux points de la réglementation thermique (RT) 2012, la méthode de calcul qui a conduit au texte, et nous dirons quelques mots de la procédure dite « titre V », qui permet d'intégrer les nouveaux procédés, puis nous terminerons par le lien entre avis techniques et réglementation.

Mme Marie-Christine Roger, chef du bureau de la qualité et de la réglementation technique de la construction, sous-direction de la qualité et du développement durable dans la construction, direction de l'habitat, de l'urbanisme et des paysages, au ministère de l'Écologie, du développement durable, des transports et du logement . - C'est en 1974 qu'a été mise en place la première réglementation applicable aux bâtiments lors de leur construction, réglementation dont les exigences ont été régulièrement renforcées et les périmètres d'application étendus. J'ajoute que les modalités de cette réglementation ont été toujours élaborées par l'Etat, sur la base des travaux et des propositions des différentes parties prenantes, en particulier les professionnels et les industriels du bâtiment.

Pour les bâtiments neufs, les objectifs ont été inscrits à l'article 4 de la loi du 3 août 2009 relative à la mise en oeuvre du Grenelle de l'environnement. Plusieurs objectifs y sont consignés : une évolution technologique et industrielle significative dans la conception de l'isolation des bâtiments et pour chacune des filières énergétiques ; un bouquet énergétique équilibré, faiblement émetteur de gaz à effet de serre et contribuant à l'indépendance énergétique nationale. Deux objectifs sont inscrits dans la loi : ceux de la réglementation thermique 2012, mais aussi un horizon donné vers la réglementation thermique 2020.

La réglementation thermique 2012 stipule une consommation annuelle moyenne d'énergie primaire inférieure à 50 kWh/m² pour le parc de logement neuf, une modulation de l'exigence, en particulier en fonction de la localisation géographique, pour tenir compte du climat, des caractéristiques, de l'usage des bâtiments et des émissions de gaz à effet de serre. Par ailleurs, un besoin maximal en énergie des bâtiments sera l'objet d'un seuil défini pour la première fois dans une réglementation.

A l'horizon 2020, la réglementation vise les bâtiments à énergie positive, bâtiments qui, sauf exception, produiront plus d'énergie renouvelable qu'ils n'en consommeront, notamment en utilisant le bois-énergie.

J'en viens au label bâtiment basse consommation (BBC) 2005, qui nous a servi de socle. Au fur et à mesure des années, depuis 2007, on a vu le nombre de logements labellisés BBC croître : 800 en 2007, 2500 en 2010, 20 000 en 2009, 100 000 en 2010 - autant sur les six premiers mois de l'année 2011.

Ce label s'est calé sur trois zones climatiques pour la France - H1, H2 et H3 - H2 désignant la zone de climat océanique, H1 le nord et l'est du pays, H3 la Méditerranée. En zone très froide, le label BBC est fixé à 60 kWh/m², à 40 kWh/m² en zone méditerranéenne.

Comment avons-nous procédé ? De nombreux groupes de travail constitués d'experts ont été sollicités, représentants les professionnels du secteur du bâtiment - maîtres d'ouvrage, industriels, architectes, bureaux d'étude, artisans, entreprises et ONG. Au fur et à mesure de l'avancée des travaux, des consultations publiques périodiques ont été organisées, élargies à l'ensemble des différents acteurs. Puis nous avons mis en place un groupe de travail dit « applicateurs », en faisant travailler des experts de la réglementation, en particulier des bureaux d'étude thermique, pour simuler sur plusieurs milliers de cas le logiciel de calcul. Pour cela, nous avons bien entendu utilisé le rapport de l'OPECST sur la performance énergétique des bâtiments.

Nous avons pris en compte plusieurs recommandations. Premièrement, le maintien des coefficients de conversion entre énergie primaire et énergie finale, de 2,58 pour l'électricité et 1 pour les autres énergies. Deuxièmement, l'affichage des émissions de CO 2 en 2012, étant entendu qu'on vise pour 2020 un seuil qui sera inscrit dans la réglementation thermique. A ce jour, je le rappelle, aucun consensus scientifique ne se dégage sur le contenu en CO 2 de certaines énergies, raison pour laquelle il a été décidé de reporter le travail en 2020. Troisièmement, faire la part entre la performance du bâti et la prise en compte de l'énergie par électricité photovoltaïque. Quatrièmement, une modulation selon la localisation ou l'altitude. Cinquièmement, l'introduction d'une exigence de confort d'été. Sixièmement, la modulation des exigences en fonction de la surface des bâtiments. Septième, huitième et neuvième recommandations : le suivi des consommations énergétiques dans les logements. Nous avons enfin pris en compte la dix-huitième recommandation : le contrôle de la perméabilité à l'air des bâtiments.

S'agissant du calendrier, un premier décret relatif aux caractéristiques thermiques et à la performance a été publié le 26 octobre 2010, de manière à ce que les professionnels puissent prendre connaissance des textes très en amont et se les approprier. Dans la foulée, ont été publiés l'arrêté du 26 octobre 2010 relatif aux caractéristiques thermiques et aux exigences de performance énergétique des bâtiments nouveaux et des parties nouvelles de bâtiments, et l'arrêté du 20 juillet 2011 portant approbation de la méthode de calcul Th-B-C-E 2012.

Ces premiers textes concernent la plus grande partie du parc : les bâtiments à usage d'habitation, les bureaux, les bâtiments d'enseignement et les crèches. Un deuxième arrêté est en cours d'élaboration pour d'autres bâtiments : hôtelleries, bâtiments de restauration, universités, palais de justice, équipements sportifs, aéroports, hôpitaux et bâtiments commerciaux, où les consommations sont très élevées.

Pour la grande majorité de ce parc, la date d'entrée en vigueur des exigences législatives se fera au 1er janvier 2013. Cela dit, le coeur de la réglementation repose sur trois exigences. Premièrement, le besoin bioclimatique répond à l'objectif de concevoir un bâtiment pour l'optimiser, en particulier pour qu'il ait accès aux apports solaires, de manière à éviter des consommations de chauffage inutile. C'est ainsi qu'un bâtiment avec des surfaces vitrées orientées au sud sera bien optimisé. Je n'insisterai pas sur l'exigence Cepmax, rappelant que l'exigence de consommation maximale annuelle de 50 kWh/m² s'évalue non seulement pour la consommation de chauffage, mais aussi, particularité française, pour la production d'eau chaude sanitaire et la consommation des auxiliaires.

Nous avons d'autres exigences, en particulier le traitement de l'étanchéité à l'air. Pour accélérer le développement des énergies renouvelables, la production d'eau chaude sanitaire devra se faire via les énergies renouvelables (EnR). Pour un bon usage du bâtiment, le comptage des consommations d'énergie devra se faire par usage dans les logements. La consommation d'énergie primaire avant déduction de production d'électricité à demeure est également bornée.

La règle des 50 kWh/m² admet quelques souplesses, en particulier pour les logements collectifs, qu'il ne faut pas pénaliser par rapport à la maison individuelle. Jusqu'au 1er janvier 2015, le temps de l'appropriation de la réglementation par les maîtres d'ouvrage, l'exigence de consommation sera augmentée jusqu'à 75kWh/m².

Vous trouverez dans mes transparents quelques simulations sur une petite maison coeur de cible en primo-accédant de 90 m², destinées à montrer, à la demande de la ministre, que les différentes solutions : pompe à chaleur, chaudière à condensation, chaudière bois ou effet joule, se positionnent toutes correctement en termes de coût global. Par rapport à un bâtiment construit en 2005, les surcoûts varient entre 7,5 et 10 %. Certaines solutions, comme le bois en climat méditerranéen, ont du mal à se positionner. L'effet joule tire par contre son épingle du jeu.

Il faut revenir sur la méthode de calcul, point sur lequel perdurent les idées préconçues. Comme pour toute méthode de calcul, des paramètres sont fixés a priori. Certains sont indépendants et inconnus lors de la conception du bâtiment, comme le nombre d'occupants, la température de consigne de chauffage et de refroidissement. Ils sont saisis par l'utilisateur et inscrits directement dans la méthode de calcul.

La méthode de calcul n'est pas prédictive et n'a pas pour vocation à faire un calcul de consommation réelle, compte tenu du nombre de conventions retenues, par définition important. Pour le climat, on prend en considération les données climatiques des dernières années. L'objectif est de fournir une évaluation de la performance énergétique globale du bâtiment, au moment de sa construction, compte tenu des niveaux de prestation sur le bâti et les équipements.

Faute de temps, je ne dirai rien sur le titre V, sauf pour rappeler qu'une commission d'experts se réunit pour étudier les dossiers après instruction technique.

S'agissant de la réglementation thermique sur l'existant, dès qu'on atteint un seuil en montant de travaux et une surface de 1 000 m², on demande que le bâtiment atteigne une certaine performance après travaux. Même lorsqu'on réalise de petits travaux, on doit utiliser des équipements performants ou mettre en place des double-vitrages d'une certaine performance. Tout le champ de l'existant est couvert par une réglementation thermique.

Les avis techniques n'ont pas de rapport direct avec la réglementation thermique et le calcul de la performance. Ils sanctionnent une aptitude à l'usage de nouveaux produits, pas seulement sur le plan thermique.

En conclusion, la France, pays le plus avancé en termes de réglementation, se positionne plus qu'honorablement au plan européen.

M. Bruno Sido , sénateur, rapporteur . - La parole est à M. Vekemans. Comment le concept de maison passive, à très basse consommation, parvient-il à s'inscrire dans le contexte législatif et réglementaire français et européen ?

M. Etienne Vekemans, président de l'association Maison Passive France . -  Maison Passive France est une association créée il y a cinq ans, qui vise la promotion du concept européen de maison passive, laquelle fêtera cette année ses vingt ans d'existence. Le but est de construire des bâtiments peu consommateurs d'énergie, très confortables et accessibles au marché.

Ce concept se développe particulièrement en Europe, mais aussi dans d'autres pays du monde, tous les pays qui sont concernés par le réchauffement climatique et l'épuisement des ressources. Il s'agit de trouver une solution pour des bâtiments qui répondent aux besoins de l'humanité de demain. J'ajoute que ce concept se développe à côté des réglementations nationales, ce dans certains pays.

Notre association est citoyenne. Elle compte plus d'un demi millier de membres à jour de leur cotisation. Nous faisons la promotion de ce concept par le biais de l'information, de la formation et de la certification, les bâtiments devant passer des tests qualité. De fait, on récence plus de 500 bâtiments passifs en France, concept qui s'adapte aussi bien au neuf qu'à la rénovation, aussi bien à l'individuel qu'au collectif. Un bâtiment rénové passif permet une division par dix de sa consommation totale, preuve qu'avec de l'effort, on peut construire des bâtiments satisfaisants pour l'avenir de l'humanité.

En France, la construction passive se fait sans subventions nationales, certains bénéficiant cependant de subventions départementales. Un projet européen, mis en place en 2007, a eu pour objectif d'accélérer le mouvement, en aidant ceux qui veulent aller au-delà de la réglementation. On peut ainsi distinguer en Europe un croissant bleu, allant de Rotterdam à Milan, composé de pays très actifs dans le développement du passif. L'Autriche est à cet égard un modèle, chaque région de ce pays déterminant son mode de subvention. Ainsi, le Tyrol subventionne la construction passive de manière assez exemplaire. Un land comme le Voralberg, qui a décidé depuis longtemps de subventionner le bâtiment passif, par le biais des constructions des bailleurs sociaux, est à suivre tout particulièrement. Du coup, après dix ans de subventions, on constate une réduction réelle de la consommation du bâtiment dans ce land. C'est la preuve que nous ne sommes pas face à un destin d'augmentation constante des consommations, et qu'on peut arriver à les freiner.

L'Allemagne, de son côté, a mis en oeuvre un autre système de subventions, organisé par la Caisse des dépôts et consignations allemande, sous la forme de prêts bonifiés à 1 % sur vingt ans, taux particulièrement intéressant, qui permet d'économiser des montants de l'ordre de 10 à 20 000 € par rapport au système financier classique.

La Belgique est également un pays très intéressant. Le passif y est non seulement réglementaire, mais aussi aidé. Trois types de subventions ont été prévues : à l'échelon fédéral, la construction passive bénéficie de 850 € de crédits d'impôt sur dix ans, auxquels s'ajoutent des subventions régionales. Certaines provinces, enfin, apportent des subventions supplémentaires.

La République tchèque, pour sa part, n'accorde des subventions que pour le bâtiment passif, le bâtiment à basse consommation n'y étant plus subventionné. Des pays comme la Slovaquie ou la Slovénie sont moins exigeants.

Pour l'heure, l'Angleterre reste très « libérale » vis-à-vis du passif, mais il faut dire qu'elle est partie plus tardivement que l'Europe continentale sur ces questions de performance énergétique.

M. Bruno Sido , sénateur, rapporteur . - La parole est à M. Pierre-Louis François. Comment la réglementation RT 2012 a-t-elle été prise en compte par les fabricants d'équipement thermique français ?

M. Pierre-Louis François, président du directoire, Groupe Atlantic . - Que s'est-il passé depuis trois ans en matière d'équipement et de matériel de chauffage, d'eau chaude, de ventilation et de refroidissement ? Comment les énergies ont-elles évolué dans le bâtiment ces trois dernières années ? Quelles évolutions, en fonction des conditions de mise en oeuvre des normes BBC et du « titre V », du succès et des échecs des industriels, et des conditions économiques ?

De fait, on dispose d'assez bonnes références en collectif, puisqu'à 70 %, il est construit selon la norme BBC, contre 60 % pour les maisons individuelles groupées, une maison individuelle isolée seulement sur dix étant construite aujourd'hui selon cette norme.

Pour imaginer la suite, il faut partir du décret d'application de la loi Grenelle et des arrêtés « exigences » et « méthode ».

En matière de thermodynamique chauffage, la pompe à chaleur à boucle eau chaude a souvent été considérée comme le vecteur principal d'innovation technologique. En gros, un logement sur dix est construit avec une pompe à chaleur. Paradoxalement, et pour plusieurs raisons, les chiffres sont en baisse ces trois dernières années, un pic à 16 % ayant été observé en 2008. Pour l'essentiel, ces pompes à chaleur sont placées en maison individuelle. Pour le collectif, deux logements sur cent sont équipés d'une pompe à chaleur.

En matière de chauffage, il faut savoir que le marché français de la pompe à chaleur a nettement reculé ces trois dernières années : il a été divisé par 2,5. Il a régressé beaucoup plus fortement que dans d'autres pays européens : Suisse, Allemagne, Autriche ou Suède. A noter que les technologies thermodynamiques hybrides ne sont pas référencées à ce jour dans l'arrêté « méthode ».

L'eau chaude étant devenue la consommation principale, que s'est-il passé en la matière ? De fait, les technologies thermodynamiques se développent pour la maison individuelle, pas encore pour le collectif, car elles n'ont pas encore été référencées dans le « titre V ». Une maison sur dix est construite avec une eau chaude sanitaire (ECS) utilisant les énergies renouvelables, dont la moitié par chauffe-eau thermodynamique, et une autre moitié par chauffe-eau solaire, pourcentage qui n'a pas beaucoup évolué entre 2010 et 2011. Aussi la RT 2012 devrait-elle changer les choses, puisqu'elle instaure une obligation. Au vu des premiers éléments sur les arrêtés « exigences et méthode », on peut penser que la part du solaire augmente plus que la part du thermodynamique, mais la question reste ouverte.

Nous observons que les particuliers sont demandeurs d'ECS utilisant des EnR, le thermodynamique tendant à devenir dominant. Pour le collectif, le thermodynamique et la pompe à chaleur ne se développent pas, faute de référencement. Le BBC a par contre fait décoller le chauffe-eau solaire collectif. Au vu des premières analyses de l'arrêté « méthode », il semblerait que la partie solaire pourrait régresser.

J'en viens au gaz naturel. Depuis trois ans, il a pris, hors zone raccordable à un réseau de chaleur, une place quasi hégémonique en logement collectif et dominante en maison individuelle groupée. L'accès au réseau de distribution de gaz - donc la part du gaz - reste marginal en maison individuelle isolée. En matière de technologie gaz, en maison individuelle, la chaudière murale gaz 23 kW reste le produit dominant. Les versions dotées d'un échangeur à condensation et d'un brûleur modulant à prémélange achèvent de s'imposer : de 28% des logements gaz en 2006 et 60% en 2008, les technologies basculent à 90% en condensation en 2010. La percée du chauffage collectif gaz en BBC pourrait s'interrompre en RT 2012, de même que celle de l'ECS solaire thermique.

La ventilation est un poste de plus en plus important, les deux principales consommations n'étant plus le chauffage, mais l'eau chaude et la ventilation. En la matière, des technologies performantes se développent. En maison individuelle, une maison sur quatre est équipée d'une ventilation qu'on peut qualifier de performante : double flux à moteur à commutation électronique. A l'inverse, pour le collectif, le mouvement est beaucoup plus lent, la mise en place de la RT 2012 ne devant pas entraîner d'inflexion majeure.

En conclusion, on constate une montée du gaz en logement collectif, qui s'effectue au détriment de l'électricité. Les réseaux de chaleur se développent de façon encore limitée : 5,6 % sur le premier semestre 2011 contre 5,0 % en 2010 et 3,7 % en 2009. Le bois se stabilise en maison individuelle isolée à 13 %. Dans le contexte actuel, il est difficile de prévoir pour des questions de coûts ce que va être l'équipement des maisons individuelles isolées en 2012-2013. Vous trouverez enfin dans votre dossier une comparaison entre pays européens.

M. Bruno Sido , sénateur, rapporteur . - La parole est à MM. Laurent Thierry et Mark Salt.

M. Laurent Thierry, président directeur général, Actis . - La société Actis, que je dirige, est spécialisée dans la fabrication des isolants dans le sud de la France. Nos usines sont situées dans la région Midi-Pyrénées et Languedoc-Roussillon. Nous fabriquons des isolants minces, domaine dans lequel nous sommes innovants, et, depuis 2008, des isolants à base de fibres de bois.

Notre présentation portera sur la performance mesurée des isolants et la stratégie suivie depuis quelques années par le gouvernement pour conduire la réglementation thermique. Le gouvernement dispose de plusieurs leviers pour réduire les gaz à effet de serre, dont près de 43% proviennent du bâtiment. Il s'agit de la réglementation thermique, les incitations fiscales, et les diagnostics et performances énergétiques pour vérifier la performance des systèmes.

L'évolution de la réglementation thermique depuis 1974 montre que l'augmentation de l'épaisseur des isolants dans les bâtiments a été multipliée de façon importante, alors que la performance pour le consommateur n'a été accrue que de 3 %. Les ventes de laines minérales, elles, suivent celles de l'épaisseur des isolants, les chiffres d'affaires des entreprises passant en quarante ans de 200 millions d'euros à 1,2 milliards d'euros.

L'étanchéité est un autre facteur important dans la performance des bâtiments. La réglementation thermique, il faut le savoir, ne se mesure qu'en laboratoire, donc dans des conditions statiques. Or un chercheur américain, David Yarbrough, a montré que la résistance thermique d'un isolant à l'air chutait de 25 % lorsque le flux d'air et le flux de chaleur vont dans le même sens, de 80 % lorsque ces deux flux vont en sens contraire. La RT 2012 a d'ailleurs pris en compte cet élément, l'étanchéité étant au coeur du dispositif. Le neuf sera ainsi soumis à une obligation de résultat, document à l'appui. Sans polémiquer, pourquoi avoir attendu quarante ans pour mettre l'étanchéité au centre du dispositif, alors que les pays d'Europe du nord ont mis en oeuvre depuis longtemps des systèmes de contrôle d'étanchéité ? Il faut aussi savoir que 92 % des isolants vendus en France sont épais, dont 65 % de laines minérales, isolants dont la pose exige un écran d'ossature et un pare vapeur. A défaut, la résistance thermique du matériau dans une toiture tombe de 5 à 1.

Il est donc essentiel de mesurer la performance des isolants en situation réelle. La RT 2012 va dans le bon sens, ayant mis l'étanchéité au centre du dispositif, mais elle reste insuffisante. C'est une étape majeure, qui ne s'adresse qu'au secteur de la construction neuve, alors que la vraie problématique se pose dans la rénovation, avec près de 20 millions de logements peu ou pas isolés. Il est donc indispensable que l'approche globale de la RT 2012 soit étendue immédiatement aux bâtiments existants pour éviter que l'approche « élément par élément » de la RT dans l'existant perdure. J'ajoute que les fabricants d'isolants minces que nous sommes ont une réponse adaptée à ce type de bâtiment, avec un produit qui assure l'étanchéité sur le bâti, qui a un niveau de résistance thermique suffisant et qui permet d'économiser des mètres carrés.

Il est également urgent d'évaluer autrement la performance des isolants, seul le CSTB procédant jusqu'à présent à celle-ci. Or depuis juillet 2011, le laboratoire anglais BM TRADA a été accrédité par les organismes de certification, et peut servir d'alternative.

M. Mark Salt, directeur technique, BM TRADA Group (traduction). - BM TRADA est une société de certification reconnue comme indépendante. Elle emploie près de 250 personnes et a émis pas moins de 10 000 certificats à travers le monde. Notre chiffre d'affaire avoisine les 30 millions d'euros, avec une croissance de 10 % par an au cours des six dernières années, rythme de croisière que nous pensons poursuivre. J'ajoute que, depuis juillet 2011, nous avons été accrédités par l'organisme européen en charge de l'agrément pour les produits innovants, afin d'évaluer la performance thermique et délivrer les agréments techniques nationaux pour les produits.

M. Bruno Sido , sénateur, rapporteur . - Des progrès restent donc à faire dans le domaine de la normalisation technique, si nous voulons avoir une chance de rattraper notre retard dans la performance énergétique des bâtiments.

Cela dit, le débat est ouvert. Comment la réglementation 2012 intègre-t-elle le modèle de la maison passive ? M. Vekemans nous a dit que les aides en Allemagne étaient accordées sur des performances mesurées, qui permettent d'intégrer un effort dans le bon sens, sans passer par des calculs théoriques réglementaires. Qu'en sera-t-il en France à partir de 2013 ?

Mme Marie-Christine Roger . - Dans le système français, les aides sont accordées pour des bâtiments labellisés d'un niveau supérieur au niveau réglementaire. Dès lors que la réglementation 2012 sera applicable à l'ensemble des bâtiments, il ne pourra pas y avoir d'aide de l'Etat, sauf évolution de la législation. Une consommation d'énergie primaire inférieure à 50 kWh/m².an en moyenne, cela signifie qu'une maison individuelle ne dépassera pas 15 kWh/m².an en moyenne en chauffage, les niveaux entre la maison passive et la maison à basse consommation étant à peu près identiques. J'ajoute que les maisons seront équipées de compteurs pour mesurer la performance.

Cela dit, il y a aura toujours des écarts, dans la mesure où les températures ne sont pas les mêmes sur tout le territoire. On pourrait imaginer un système, comme on le fait de manière expérimentale, qui prendrait en compte l'occupation réelle des bâtiments, et adapterait certains paramètres de la méthode. Enfin, les tests d'étanchéité à l'air seront obligatoires à la livraison du bâtiment. Nous encourageons les démarches qualité engagées par des constructeurs de maison individuelle pour que ces tests d'étanchéité à l'air soient réalisés au fur et à mesure du chantier.

Bref, pour l'instant, et pour répondre à votre question, nous n'avons pas encore réfléchi à des aides mises en place a posteriori, à partir d'une mesure de la consommation.

M. Bruno Sido , sénateur, rapporteur . - Nous venons d'apprendre que les installations de pompe à chaleur au cours des années récentes étaient en recul. Comment expliquer ce mouvement à rebours, au regard de l'objectif d'une mobilisation intense des meilleures technologies au service de la meilleure performance énergétique ? Comment analysez-vous ce recul ?

Mme Marie-Christine Roger . - Dans la période 2005-2008, de simple application de la réglementation précédente, on a observé un recul des systèmes de chaudière à basse température et à condensation, et une montée des pompes à chaleur. Puis on a assisté à une redescente. Sur les exigences de 15 kWh/m².an pour le chauffage et 20 kWh/m².an pour l'eau chaude, la pompe à chaleur est aussi bien positionnée que la chaudière à condensation. M. François a mis en avant, pour certaines technologies, des solutions pas bien calées dans les titres V. Nous y travaillons, de manière à ce que tous les systèmes soient sur un pied d'égalité.

M. Bruno Sido , sénateur, rapporteur . - M. François a évoqué la difficulté de la pénétration des ventilations double flux, notamment dans les bâtiments collectifs. N'est-ce pas inquiétant au regard de l'objectif d'une forte isolation, qui suppose la gestion contrôlée de l'air qui entre et sort, sans compter les fuites du bâtiment ?

Mme Marie-Christine Roger . - Mettre en avant une forte étanchéité à l'air, c'est corriger les manques de l'application des réglementations précédentes, comme entend le faire la réglementation thermique 2012. Pour autant, on ne transformera pas le bâtiment en bouteille thermos. Sans vouloir polémiquer, je ne souscris pas aux propos de M. Thierry. Dans la réglementation thermique 2012, on n'impose pas un « R » de telle ou telle valeur. On n'impose pas de minimum dans l'épaisseur des isolants. Mais on demande que les déperditions soient limitées.

Quant à la ventilation double-flux, elle est en effet beaucoup plus facile à mettre en oeuvre dans la maison individuelle. Pour le collectif, les installations exigent des systèmes de sécurité, pas encore mis en place. J'ajoute qu'un tel système est plus contraignant, notamment pour les petits logements, bien plus qu'un système de contrôle classique, bien adapté pour des climats méditerranéens. Dans de tels climats, il est inutile de traquer les kWh, comme on le fait pour le nord-est de la France. Pour un climat de type continental, on ne gagnerait que quelques kWh par mètre carré. L'enjeu est différent pour les climats de l'Europe du nord.

M. Pierre-Louis François . - Comment expliquer de telles évolutions ? En 2009, le prix de l'énergie est retombé. Parallèlement, les crédits d'impôt ont été revus à la baisse. Si on peut le comprendre, il faut regretter les instabilités réglementaires ou fiscales, qui entrainent une grande confusion sur le terrain. J'ajoute que la filière, qu'il s'agisse des industriels ou des installateurs, est sans doute montée trop vite en puissance, évolution qui est à l'origine d'erreurs et de déceptions chez le client final. Enfin, il faut reconnaître que les procédures du titre V ont eu du mal à se mettre en oeuvre. Il a fallu ainsi deux ans et demi pour que les pompes à chaleur de service soient référencées. Les pompes à chaleur géothermiques, technologie qui existe depuis longtemps, ne sont toujours pas prises en compte. Par ailleurs, si l'innovation est supposée favorisée, les processus réglementaires sont de fait très longs. A mon sens, ces trois facteurs sont responsables à part égale de la chute du marché. Même analyse pour le chauffe-eau thermodynamique, solution potentielle, mais qui ne peut se mettre en oeuvre aujourd'hui, faute de titre V.

Quant à la VMC en collectif, elle n'est pas simple, étant entendu qu'il ne faut pas aller trop vite dans des solutions mal faites. A vouloir aller trop vite, on perd du temps, comme dans la célèbre fable. Il faut s'attaquer sérieusement au sujet, performance énergétique et enjeu de santé obligent. Dans les faits, les problèmes de qualité de l'air sont beaucoup plus concentrés en appartement qu'en maison. Allons-nous vers une étanchéité plus forte, avec les mêmes systèmes de ventilation, notamment sans double flux ? C'est un fait que les technologies performantes de ventilation ont un coût. Reste que l'enjeu de santé est au moins aussi important que l'enjeu énergétique.

M. Philippe Saint Raymond, membre du comité d'experts . - Ma question s'adresse à Mme Roger. Faute de temps, vous n'avez pas développé les mesures pour l'habitat existant. C'est pourtant un enjeu essentiel, le taux de renouvellement de l'habitat étant très faible, alors que le gisement d'économies d'énergie se trouve dans l'habitat existant. Pourriez-vous nous en dire plus ?

Mme Marie-Christine Roger . -En la matière, nous avons mis au point une réglementation thermique, tout comme nos collègues européens, le sujet relevant d'une directive européenne. Dès qu'on réalise des travaux d'un montant relativement faible, de l'ordre de 300 euros par mètre carré, on doit atteindre une performance globale. A titre d'exemple, la performance demandée est en moyenne de l'ordre d'une centaine de kWh/m².an. On dispose aussi d'un système de label, où l'on atteint 80 kWh/m².an. C'est un saut considérable, nombre de nos bâtiments étant classés autour de 500 kWh/m².an. Quant au levier des aides, il est très développé. Le crédit d'impôt, avec ses forces et ses faiblesses, aura tout de même permis de rénover 7 millions de logements, sur 26 millions de résidences principales, dont la moitié en résidences individuelles. Pour les copropriétés, nous sommes en train de mettre en place des décrets d'application de la loi Grenelle II, avec obligation d'un audit et envisageons aussi un plan de travaux ou un contrat de performance énergétique.

On le voit, il s'agit d'une mise en mouvement et d'une dynamique pour disposer d'outils appropriés par segments. Typiquement, la réglementation dans l'existant pour les bâtiments de plus de 1 000 m² sera passée à 500 m², pour un impact sur les bâtiments public. Nous travaillons enfin sur les décrets d'application Grenelle I relatifs aux obligations de travaux dans tous les bâtiments tertiaires, soit 800 millions de m², dont 500 millions de m² de bâtiment de l'Etat et des collectivités locales et près de 400 millions de m² de bureaux et de commerces. C'est donc une mosaïque de mesures qui est à l'oeuvre pour l'existant.

M. Robert Meras . - Les enjeux, on vient de le constater, portent sur l'isolation des bâtiments anciens. A mon sens, la politique du gouvernement est incohérente en matière de crédit d'impôt. Ce qui est recherché, c'est l'efficacité du bâtiment et de la consommation d'énergie. Or pour bénéficier du crédit d'impôt, vous devez être en mesure d'afficher auprès du centre des impôts la pause d'un isolant, dont la résistance thermique est supérieure à 5. Autrement dit, la RT 2012 pose des conditions d'efficacité de consommation d'énergie, alors que l'incitation fiscale repose sur la résistance thermique du produit. Or celle-ci n'est pas une condition essentielle à l'efficacité de la consommation d'énergie d'un bâtiment. Tout cela milite pour donner des crédits d'impôt en fonction des résultats obtenus, une fois l'isolation réalisée.

Mme Marie-Christine Roger . - L'éco-prêt à taux zéro repose sur la performance globale. Et pourtant, on peine à le distribuer. Comment donc mettre au point l'outil le plus approprié ? Une fois mis en place, comment le contrôler ? Mettre un crédit d'impôt en place avec un calcul de performance globale ? Quoi qu'il en soit, nous sommes bien conscients de l'imperfection d'une exigence élément par élément.

M. Jean-Pierre Tardieu . - On distingue mal les dispositifs qui privilégient l'électricité et le gaz. En France, l'électricité est beaucoup plus développée que chez nos voisins. En quoi notre politique créée-t-elle une pointe énergétique qui modifiera l'ensemble du système énergétique de la France ?

M. Bruno Sido , sénateur, rapporteur . - C'est en effet le coeur du sujet, qui sera abordé par une autre table ronde.

M. Pierre-Louis François . - S'agissant de la ventilation collective, on n'a pas compris une disposition des réglementations thermiques précédentes qui favorisait la filtration. Pour une raison inconnue, elle a été supprimée, alors que cette disposition permettait de favoriser l'échange thermique.

M. Etienne Vekemans . - Quelques précisions sur les ventilations et les outils de calcul. Plusieurs exemples de ventilation en collectif double flux fonctionnent très bien. En Hollande, le double flux représente 50 % du marché de la ventilation. Comment prétendre que ce procédé ne fonctionne pas bien pour le collectif ? C'est probablement, pour la France, une question de manque de compétences. Or ce type de ventilation devient une exigence de plus en plus forte, dans la mesure où les bâtiments deviennent de plus en plus étanches. Sans apport d'air neuf, les gens vont étouffer. Si on accroît l'étanchéité, des ventilations qui apportent de l'air neuf et extraient de l'air vicié doivent être mises en place.

S'agissant enfin des moteurs de calcul, ils visent à donner des consommations réelles. La comparaison avec le moteur réglementaire est très délicate, les kWh produits par le réglementaire n'étant pas des kWh réels. Comment comparer les « pommes » du réglementaire et les « poires » du passif ? C'est un combat de boxe qui n'en finit pas et qui n'a aucun sens. Une fois par an, nous organisons un salon, le prochain devant avoir lieu au parc floral de Vincennes les 14 et 15 décembre 2011. Ce sera pour nous une occasion de présenter des comparaisons entre le passif et le réglementaire, les consommations réelles et réglementaires étant complémentaires.

M. Laurent Thierry . - Actis est une société innovante, qui consacre 6 % de son budget à la R&D. S'agissant du double flux, nous avons réalisé de nouveaux produits, que nous présenterons au salon Batimat la semaine prochaine, produits faits de systèmes pariétaux-dynamiques. L'étanchéité des bâtiments deviendra de plus en plus importante, ce qui exigera de renouveler l'air. Mais il existe également des systèmes qui permettent de récupérer l'air extérieur, pour le faire passer le long d'un isolant et le réinjecter, comme dans le double flux. Cela dit, proposer des produits innovants est une chose, la certification et l'agrément une autre. En France, c'est un fait que ces procédures sont extrêmement complexes. Le laboratoire BM TRADA, encore une fois, offre une alternative.

M. Christian Bataille, député, rapporteur . - L'objectif d'une performance mesurée est un problème que nous avions relevé avec Claude Birraux dans notre rapport de 2009. Nous n'avions alors rien inventé. La mesure de la performance énergétique, après construction d'un bâtiment, est en effet obligatoire depuis de nombreuses années en Allemagne, aussi bien qu'en Suisse. Il s'agit évidemment d'une démarche de bon sens : comment peut-on espérer atteindre une réelle performance énergétique en se contentant d'appliquer des règles et des normes sans jamais constater les résultats obtenus ? Nous n'avions sans doute pas été suffisamment convaincants pour que notre recommandation sur ce point soit prise en compte dans la réglementation par le ministère en charge de l'Écologie et du développement durable.

C'est donc à des fins pédagogiques que nous avons demandé à plusieurs professionnels du secteur de nous apporter leur vision sur cette question. Nous commencerons par entendre Mme Brigitte Vu, ingénieur en efficacité énergétique des bâtiments, qui nous fera part de ses convictions sur la nécessité d'un contrôle de la performance énergétique après construction.

Mme Brigitte Vu, ingénieur en efficacité énergétique des bâtiments, BATIRECO-BBC, Bureau d'étude thermique et efficacité énergétique . - Mon propos portera sur la performance énergétique mesurée dans les bâtiments, au regard de mon expérience des dernières années.

La réglementation thermique 2012 s'adresse depuis le 28 octobre 2011 aux bâtiments non résidentiels et aux bâtiments construits dans les zones définies par l'Agence nationale pour la rénovation urbaine (ANRU). La labellisation BBC RT 2005 a préfiguré la réglementation thermique 2012. Or, force est de constater que seuls 4 % des permis de construire déposés depuis octobre 2006, date d'entrée en vigueur de la réglementation thermique 2005, ont obtenu le label. L'objectif de la RT 2012, je le rappelle, est d'atteindre 96 % de bâtiments RT 2012 d'ici fin 2014-2015. Le chemin est donc encore long.

La RT 2012 est une étape supplémentaire dans l'évolution réglementaire concernant le bâtiment. Le pas qui sera franchi est extrêmement important, dans la mesure où il s'agit de diviser par trois les consommations énergétiques des bâtiments neufs d'ici deux à trois ans. Le renforcement des contrôles est pris en compte dans le cadre de cette réglementation thermique 2012, dans la mesure où il est nécessaire d'avoir une attestation de prise en compte de la réglementation thermique à deux étapes clés, ce qui n'était pas le cas jusqu'à présent, lors de la demande du permis de construire et de l'achèvement du bâtiment.

On demande aujourd'hui d'atteindre certaines performances, alors qu'elles sont atteintes sur un bâtiment virtuel. Que ce soit dans le cadre d'une labellisation BBC RT 2005 ou d'une RT 2012, on demande au maître d'ouvrage de réaliser une étude thermique virtuelle, en se basant sur des choses qu'on souhaite mettre en place. En aucun cas, si ce n'est au travers du test d'étanchéité à l'air, il n'y aura de contrôle post ou pendant l'utilisation du bâtiment, point que je déplore par-dessus tout.

L'article 23 de la RT 2012 stipule qu'on devra donner une mesure des consommations d'énergie a minima mensuellement. Comment cependant donner une mesure des consommations d'énergie sans imposer, comme on l'a fait dans le cadre de la RT 2005, la pause de compteurs sur le chauffage et la production d'eau chaude sanitaire, ce qu'on ne retrouve pas dans la RT 2012 ? En donnant des évaluations ? Certes, mais sur quelle base ? La pause de sous compteurs pour la production de chauffage et d'eau chaude sanitaire doit être la règle. On m'avait dit à l'époque qu'il était extrêmement difficile de contrôler l'ensemble des bâtiments. Je le reconnais. Mais si on n'impose pas un contrôle réel de la performance du bâtiment, la RT 2012 n'aura pas les effets escomptés. Les bâtiments BBC RT 2005 sont peu nombreux, et font l'objet de très peu de mesures réelles. Or à mon sens, il est très difficile de se baser sur des estimations.

Comparée aux réglementations mises en oeuvre à l'étranger, la RT 2012 est sans doute la plus aboutie au plan européen. Si l'on veut qu'elle ait un effet sur le bâtiment neuf, le suivi des consommations demeure essentiel, consommations qui doivent être mesurées en réel.

L'étanchéité à l'air devient une obligation en RT 2012 pour le neuf. Si l'étanchéité du bâtiment est bien faite, on peut diminuer de 30 % la consommation en chauffage. Plus le bâtiment sera étanche, plus la température de confort sera baissée, moins vous consommerez d'énergie.

M. Christian Bataille, député, rapporteur . - La parole est à MM. Cottet et Vérité, qui vont nous présenter un projet innovant, Homes, et nous faire part de ses conséquences normatives et réglementaires en France comme en Europe.

M. Olivier Cottet, directeur marketing et filières du programme HOMES, Schneider-Electric . - Il s'agira d'une présentation à deux voix. Le programme Homes est un programme de recherche sur l'efficacité énergétique des bâtiments en Europe, subventionné par l'Etat français. Il regroupe des laboratoires académiques, des PME, des établissements de taille intermédiaire (ETI) et des grands groupes, français ou européens. Notre objectif est de travailler sur l'efficacité énergétique active, et ce sur l'ensemble du parc résidentiel et tertiaire, neuf et existant.

Ce programme de recherche a démarré il y a trois ans et s'achèvera l'an prochain. Aussi disposons nous d'ores et déjà de résultats, que nous sommes en mesure d'extrapoler sur l'ensemble du parc. Cela dit, l'efficacité énergétique active est la manière dont on se sert du bâtiment, et pas sa conception. Un bâtiment est fait d'une enveloppe avec quatre caractéristiques : son isolation, son inertie, son étanchéité à l'air et son apport lumineux - taux de vitrage et masques. S'y ajoutent des équipements techniques, dont il faut améliorer le rendement ou diminuer les pertes, et l'efficacité énergétique active.

Pour pouvoir travailler, le programme a repris une approche systémique du bâtiment. On a beaucoup parlé de consommations d'énergie en utilisant nos performances, la performance étant face à des services qui sont rendus : température et qualité de l'air, confort psychologique et éléments de productivité de l'activité. Améliorer la performance, c'est améliorer l'utilisation de l'énergie face à ces services. Entre les deux, on distingue deux mondes : à gauche, celui des machines, des équipements qui permettent de transformer et de distribuer cette énergie dans des locaux sous forme de vecteurs énergétiques, fils, tuyaux et gaines, à droite, celui des gens, qui utilisent cette énergie dans différents locaux. A gauche, on mesure combien, à droite, où s'identifient les gaspillages, pourquoi.

Il faut également distinguer les éléments d'occupation et d'activité, qui sont essentiels, éléments qui ne sont pas liés à la qualité du bâtiment ou des machines. Imaginez un bâtiment où l'on consomme jour et nuit, alors qu'un seul étage est occupé, une école entièrement chauffée, parce qu'elle est attenante à la maison du directeur. Ce sont là des gaspillages énergétiques fantastiques, alors que la qualité des machines et du bâti est bonne.

Fort de cette analyse systématique, nous sommes parvenus à trois grandes catégories de solutions pour améliorer l'efficacité énergétique. Premièrement, réduire les besoins énergétiques dans les différents locaux : pour ne pas gaspiller, il suffit de ne pas consommer là où ce n'est pas nécessaire. Ce n'est pas en optimisant le chauffage, l'éclairage et la ventilation qu'on obtient un bâtiment performant. Encore faut-il intégrer l'ensemble de la cohérence entre les différents équipements consommateurs, face à une activité, à une présence des gens et la manière dont ils utilisent ce bâtiment. Lorsque je regarde la télévision, je n'ai pas besoin du même confort thermique que lorsque je suis en train de faire de la gymnastique. L'adaptabilité de la manière dont on consomme cette énergie pour satisfaire les besoins est la clé pour des bâtiments performants.

Deuxièmement, comment approvisionner de manière optimisée des énergies pour servir les besoins de locaux ? L'énergie extérieure, il faut le rappeler, n'a pas forcément la même disponibilité ou le même taux de CO 2 au moment où l'on en a besoin.

Le troisième élément est l'implication des gens, la manière dont ils occupent, gèrent, entretiennent et possèdent un bâtiment. L'ensemble des acteurs du monde peuvent se décomposer sous forme de ces quatre profils. Suivant la manière dont on leur donne l'information, ils pourront avoir ou pas des comportements qui seront durablement économes et performants.

Ce travail nous a amené à une architecture technique. Quelle est l'image du parc existant ? C'est un système de chauffage, de ventilation et son pilotage, un système de gestion d'éclairage. Demain, il faudra assurer la gestion de la cuisine, du bureau, du restaurant, du couloir, et, en fonction des besoins satisfaits par ces différents locaux, approvisionner les bonnes quantités d'énergie. L'avantage de cette philosophie est de voir le bâtiment comme une somme de locaux qui sont des consommateurs, la mutualisation de la mise à disposition d'énergie devant être optimisée. Un cran supplémentaire : les bâtiments sont les consommateurs, la mutualisation des approvisionnements en énergies devant être visée au niveau d'un quartier, d'un campus ou d'une ville.

M. Hugues Vérité, délégué en charge des relations institutionnelles, Groupement des industries de l'équipement électrique, du contrôle-commande et des services associés (GIMELEC) . - Cette rupture d'architecture met en évidence un premier chantier réglementaire, celui de la mise en place d'un macro lot sur la performance énergétique et environnementale, étant entendu que la loi maîtrise d'ouvrage publique (MOP) de 1985 continue de marquer les esprits.

M. Olivier Cottet . - J'en reviens aux travaux sur les systèmes techniques et leur pilotage, et, plus particulièrement, à la dimension humaine. Deux situations extrêmes sont catastrophiques : d'une part, le bâtiment entièrement manuel est énergivore, d'autre part, un bâtiment entièrement automatisé est anxiogène et génère de fortes insatisfactions. Le bon compromis est un individu, au centre du bâtiment, qui décide de son environnement perçu, les éléments techniques du bâtiment optimisant les consommations, le confort et les systèmes. Pour donner ce pouvoir à l'usager du bâtiment, il faut aussi lui donner le retour des conséquences de ses actes, le faire passer de la connaissance à la conscience. Imaginons que cette pièce soit en surconsommation. De quel moyen disposons-nous pour agir ? D'aucun. Si l'on veut entrer dans l'occupation, il faut donner les moyens d'agir et l'information.

Il s'agit de passer d'un statut de consommateur à celui de « consomm-acteur », dans le résidentiel comme dans le tertiaire. Soit l'exemple de la gestion d'un hôtel. Sur dix gestionnaires d'hôtels, tous m'ont dit qu'ils ne toucheraient pas au confort de leurs clients, à l'eau chaude, à l'éclairage et au chauffage. Je leur ai présenté une argumentation sur les usages du bâtiment : chambres, restaurant, buanderie, etc. Six m'ont dit qu'il y avait là des postes sur lesquels ils pouvaient travailler. Une même information, présentée de manière différente, n'induit pas le même comportement. Parler de comportements et de responsabilité, cela s'instrumente, en donnant les outils de compréhension et les moyens d'action.

Comment passer de la théorie à la réalité ? Le programme Homes a travaillé sur cinq bâtiments en exploitation, dans la vraie vie, en les instrumentant intégralement pour mesurer les consommations et le confort. Il a pris en compte des bâtiments du XIX e siècle, d'avant 1975, des années 90 ou tout neuf, sous quatre climats différents, plusieurs systèmes énergétiques et secteurs d'activité. Mesurer les performances énergétiques d'un bâtiment, ce n'est pas seulement mesurer les consommations, mais aussi leurs usages. L'ensemble des données recueillies a permis d'établir des tableaux de bord, que l'on testera l'an prochain, pour savoir s'ils permettent de changer les comportements. Surtout, il s'agissait de travailler sur le simulateur de bâtiment existant, celui de la vraie vie, qui permet de reproduire les consommations énergétiques et le confort des bâtiments, sur lequel nous avons évalué le potentiel des algorithmes mis au point par les chercheurs.

Les résultats sont d'ores et déjà significatifs. Pour le résidentiel, on atteint 23 % d'économies d'énergie, pour les bureaux, 36 %, pour les écoles 56 % et sur les deux hôtels testés 30 et 37 %. Ce sont des résultats significatifs, seulement en travaillant à réduire la demande dans les locaux, adapter le confort, l'usage à la présence et l'activité des gens qui y vivent.

En extrapolant ces résultats sur l'ensemble du parc européen, soit 30 000 millions de m², on constate que les trois leviers que sont le travail sur le bâti, sur les équipements et sur la manière dont on s'en sert, ont le même potentiel de gain. Celui-ci ne s'applique pas de la même manière selon les secteurs. Sur un bâtiment occupé de façon permanente, il vaut mieux travailler l'isolation et le rendement des machines. Pour un bâtiment occupé seulement quelques heures, il vaut mieux travailler sur les modes de contrôle.

Par secteur d'activité, on s'aperçoit que la performance est d'autant plus forte que les bâtiments sont cloisonnés, ce qui suppose d'identifier des zones de bâtiments inutilisés ou mal utilisés. Pour des bâtiments mal cloisonnés, dans le commerce ou la logistique, il s'avère préférable de travailler sur le rendement des machines.

Nous avons enfin travaillé sur une maquette numérique résidentielle, soit un laboratoire virtuel dans lequel on peut faire varier l'intégralité du paramètre d'un bâtiment. Un premier exercice a consisté à tester trois enveloppes différentes : types qualité 80, RT 2005 ou 2012. Sans système de contrôle, on constate que l'amélioration de l'enveloppe fait progresser la consommation énergétique des bâtiments.

Le deuxième exercice a ajouté les fonctions de contrôle développées par Homes. Quelle que soit la qualité de l'enveloppe, on s'aperçoit que le potentiel de gain est à peu près le même. On gagne 40 % sur chacun des types de bâtiment, que ce soit sur le bâtiment des années 80 ou celui de type RT 2012. Avec le contrôle actif, et c'est paradoxal, on atteint un certain niveau où l'amélioration de l'enveloppe ne sert plus à rien, tout se passant comme si tous les plus gros gains se faisaient sur les premiers éléments de travaux. Nous en tirons une conséquence pour le parc existant : l'ordre dans lequel on mène les opérations d'amélioration n'a pas d'importance. On peut commencer par isoler, contrôler la présence ou changer les équipements, peu importe, étant entendu qu'il est préférable de jouer sur les trois piliers plutôt que d'en saturer un.

Nous tirons enfin de l'exercice plusieurs constats. En premier lieu, les gens réfléchissent à la consommation globale de leurs bâtiments, bref, ont en tête leur facture. En deuxième lieu, des travaux sont développés sur l'ensemble des bâtiments existants de par le monde, bien souvent malgré l'existence de réglementation. Les deux moteurs du marché sont actuellement les économies d'énergie, le rendement des capitaux investis sur les bâtiments, mais aussi les investissements pour diminuer l'empreinte carbone, extraordinaire moteur de développement sur le marché. Du coup, nous recommanderions que la mesure de la performance énergétique du site sur l'ensemble des postes de consommation soit le coeur qui permette de travailler sur l'optimisation. Pour inciter, enfin, à l'amélioration en pourcentage, plutôt qu'en valeur absolue, nous observons que la diversité des bâtiments est extraordinaire. Deux bâtiments ne sont pas identiques. Il suffit qu'il existe un restaurant d'entreprise, que l'informatique soit externalisée ou internalisée, pour disposer d'objectifs de consommation totalement différents, le meilleur référentiel d'un bâtiment étant lui-même. J'ajoute enfin que 93 % des bâtiments non résidentiels en Europe sont d'une superficie inférieure à 1 500 m². Ajouter une barre de rénovation ? Il n'y aura pas d'effets.

J'en viens à quelques recommandations techniques pour le neuf. On construit aujourd'hui des bâtiments très performants, où les occupants ne peuvent pas éteindre leur chauffage, un seul système ayant été mis en oeuvre pour les zones jour et nuit. Dans le même ordre d'idées, la surventilation inutile est responsable d'un quart du gaspillage des bâtiments en Europe. Il est donc essentiel de construire des bâtiments pilotables. Par ailleurs, il faut bien dissocier la qualité intrinsèque du bâti et la performance énergétique du site, en mettant en avant le besoin énergétique, pour ne pas induire des frustrations et des insatisfactions. Une norme a été élaborée sur les systèmes de contrôle technique du bâtiment, donnant des classes d'efficacité en fonction de la granulométrie des différents locaux, chaque bâtiment devant être en mesure de contribuer au marché de capacité. Avec des systèmes de contrôle de mesure, on est capable à tout instant d'affirmer que tel ou tel bâtiment est susceptible d'effacer 25, 30 ou 40 kWh en conservant les services rendus de manière optimisée.

M. Hugues Vérité . - J'ai identifié trois chantiers normatifs, réglementaires et législatifs. Le premier a trait au comité d'orientation stratégique des éco-industries, sous la double tutelle du ministre de l'Industrie et de la ministre de l'Ecologie, qui comprend cinq groupes de travail, dont un sur les systèmes énergétiques intelligents et le stockage de l'énergie, et un autre sur le bâtiment à faible impact environnemental. Le rapport établit par ce comité est officiel depuis le 16 juillet dernier. On y préconise de passer de la RT à la R2E ou la R3E. De quoi s'agit-il ? De passer de la réglementation thermique à une réglementation efficacité énergétique ou environnementale. Il s'agit de passer de l'obligation de moyens à celle de résultat, de juger la mesure réelle in fine , et de s'inscrire durablement dans une exportabilité pour nos industries au plan européen. L'objectif est que le marché France soit un marché domestique leader pour nos industries, qui sont les plus gros exportateurs industriels en France. Sur ce point, il faut rappeler que la part du gaz a augmenté, et qu'en parallèle, la balance commerciale de la France battra ses records négatifs de 1973.

Le GIMELEC a beaucoup milité pour un tarif d'autoconsommation des énergies renouvelables. D'aucuns estiment qu'il s'agit de la plus mauvaise idée de l'année. Nous avons pourtant fait la preuve de l'intérêt à remettre ce chantier en oeuvre dans le cadre d'une R2E ou R3E globale et systémique, étant entendu que toutes les technologies seront disponibles dans le cadre du programme Homes.

Nous soutenons les conclusions du groupe de travail sur l'amélioration énergétique du parc tertiaire piloté par Maurice Gauchot, qui tient compte d'une philosophie de package de solutions, et vous savez tous que des foncières d'investissement et des fonds d'investissement étrangers sont très présents dans le système. Nous sommes partisans de nous inspirer des conclusions de M. Gauchot pour nous projeter dans la prochaine R2E ou R3E. La loi MOP a marqué durablement l'urbanisme d'Etat, et continue à marquer durablement les pratiques d'acheteurs. Ne convient-il pas d'ouvrir le chantier de macro lots de performance énergétique ? L'objectif est d'inclure a priori le coût global de possession d'un immeuble, le coût de la construction valant dix, contre quatre-vingt-dix pour le coût global de possession.

Cela dit, nous sommes une industrie européenne, voire mondiale. Nous sommes très attentifs à un chantier en cours à Bruxelles, sur la révision de la directive 2006, et plus particulièrement le point relatif à l'efficacité énergétique et l'utilisation finale de l'énergie. Nous sommes très volontaires d'un point de vue industriel et souhaitons une directive ambitieuse, pour que l'efficacité énergétique soit une valeur de croissance et d'investissement pour l'Union européenne. Celle-ci doit pouvoir se détacher rapidement des zones continentales, qui sont en train de prendre une certaine avance.

M. Christian Bataille, député, rapporteur . - La parole est à M. Grémy. Quelle est la position de votre organisation sur les enjeux de la mesure réelle de la performance énergétique des bâtiments ?

M. François Grémy, délégué général, COPREC . - Je représente la COPREC et la fédération des sociétés tierce parties de contrôle et de certification, qui regroupe les leaders mondiaux en la matière, soit 175 000 salariés dans le monde, répartis sur 140 pays. Nos métiers concernent l'évaluation de conformité dans tous les secteurs d'activité. Par exemple, nous contrôlons 95 % du parc automobile en France dans le cadre du contrôle technique automobile, les centrales nucléaires et 70 % des ascenseurs.

Dans le secteur de la construction, nous réalisons des missions de contrôle de certification et d'assistance à maîtrise d'ouvrage. La nature même de l'existence de notre société est l'indépendance. Au titre de notre mission de contrôle construction, nous sommes missionnés par les pouvoirs publics, les ministères qui nous donnent un agrément pour contrôler si les dispositions en phase de construction ont été prises, tant sur la solidité des ouvrages, la sécurité incendie, l'accessibilité que dans bien d'autres domaines. Cela nous permet de disposer d'une vision globale sur l'ensemble des bâtiments en France, étant entendu que nous en contrôlons environ 90 %. Cette situation nous permet d'effectuer des remontées d'information régulières auprès des pouvoirs publics sur l'efficacité réelle, ou pas, de certaines dispositions législatives ou réglementaires.

S'agissant du sujet du jour, nous sommes dans une phase préalable à la mise en application réelle de la RT 2012. Nous ne pouvons pas effectuer des remontées de terrain. Néanmoins, l'enjeu repose pour nous essentiellement sur l'efficacité et la crédibilité des mesures engagées auprès des pouvoirs publics pour améliorer la performance énergétique des bâtiments. D'importantes dispositions ont été prises dans le cadre de la RT 2012 dans l'acte de construire, dont on peut distinguer la phase de programmation, de conception, d'exécution et de réalisation. Si nos efforts portent uniquement sur l'acte de construire, et non sur l'usage quotidien du bâtiment, qui représente pourtant 95 % de sa durée de vie, l'efficacité de ces mesures en phase construction pourrait être fortement altérée.

C'est la raison pour laquelle nous pensons qu'une attention particulière devrait être portée dès à présent au suivi continu des bâtiments, sur la base d'une consommation réelle et non conventionnelle. Cette mesure réelle deviendrait alors un indicateur irréfutable, qui nous permettrait d'assurer un niveau de performance énergétique continu, voire de l'améliorer. Une consommation conventionnelle se distingue d'une consommation réelle sur plusieurs points. Les appareils d'usage, notamment l'électroménager, ne sont pas pris en considération. Or le taux d'équipement depuis trente ans est en constante croissance, même si l'on constate une amélioration de la consommation de ces mêmes équipements. Par ailleurs, l'usage standard de la température est fixé à 19 degrés. Si l'occupant souhaite augmenter, pour une raison de confort minimal, cette température d'un degré, l'impact sur la consommation d'énergie pourrait, même après rénovation, varier, selon la qualité du bâtiment, de 3 à 15 %. A titre de comparaison, l'écart entre la consommation conventionnelle et la consommation réelle des bâtiments est de même nature que l'écart entre la consommation théorique d'une automobile en condition d'essai et la réalité de son usage.

Nos observations sur l'importance d'une mesure réelle et l'objectif d'une performance mesurée sont de trois ordres, qui relèvent plutôt du bon sens que des éléments techniques. Le premier est le déficit de perception de la part des propriétaires occupants et des maîtres d'ouvrage. Si les factures des occupants s'éloignent des estimations théoriques affichées dans le cadre de l'attestation RT 2012, l'occupant, dès l'entrée dans son habitation, aura un ressenti négatif sur l'efficacité des travaux. Ce ressenti sera d'autant plus fort que l'occupant est le propriétaire, ayant accepté d'investir, dans un contexte économique compliqué. N'oublions pas que les citoyens n'ont pas encore été associés à ce dispositif de performance au même niveau que les professionnels. Leur première approche, avec la performance énergétique, sera d'appréhender ce sujet très complexe, le comprendre, payer, avec des surcoûts prévisibles, de constater que les factures sont plus élevées que les estimations, sans compter que des recours seront probablement engagés.

Ce premier enjeu débouche sur un second enjeu : le risque de rupture de dynamique. Les pouvoirs publics envisagent de faire évoluer la RT 2012 vers la RT 2020 pour améliorer les performances de l'ensemble des bâtiments. Pour cela, il faut conserver une dynamique générale de la part de tous les acteurs. Or, le déficit de confiance peut enrayer cette dynamique engagée, et affecter la mise en oeuvre des ambitions à long terme, telles que la RT 2020. A notre sens, la confiance doit être au coeur de nos priorités, car c'est l'ensemble des acteurs politiques, professionnels et citoyens qui garantiront la réussite de cette évolution. C'est ainsi que les diagnostics de performance énergétique (DPE) souffrent d'une communication négative. Inverser la tendance, même en modifiant les textes réglementaires, reste très compliqué sur le terrain, le déficit de crédibilité étant bien ancré.

Un autre enjeu : le risque d'une efficacité déclinante. Outre le comportement des usagers, évoqué à maintes reprises, il faut mentionner l'usure des bâtiments, des installations et des équipements qui peuvent influer fortement sur la consommation d'énergie. C'est la raison pour laquelle il importe d'assurer un suivi régulier, pour identifier les aléas, afin d'assurer la pérennité de la performance après travaux. Des dispositifs très hétérogènes existent aujourd'hui : contrat de performance énergétique, certification HQE, etc. Ils restent associés à une démarche volontaire, non universelle, sur des calendriers relativement courts.

Aussi souhaitons-nous faire passer un seul message : pour avancer dans ce dispositif lié à la performance, il nous paraît utile de réfléchir à la mise en place d'un suivi, quels que soient les acteurs, durant les 95 % de la durée de vie du bâtiment, de manière à conserver et accroître la confiance de l'ensemble des parties prenantes. Il nous paraît aussi essentiel de tendre à l'amélioration de la performance énergétique ou de la garantir sur le long terme. Tel est notre message principal, dont les détails techniques pourront être discutés dans des groupes de travail idoines.

M. Christian Bataille, député, rapporteur . - Notre rapport pourra faire écho à vos propositions.

La parole est à MM. Stéphane Pénet, directeur, et Raimundo Silva, responsable construction, de la Fédération française des sociétés d'assurances (FFSA). Comment la responsabilité décennale se trouve-t-elle impliquée par le risque de défaut de la performance énergétique des bâtiments ?

M. Stéphane Pénet, directeur, Fédération française des sociétés d'assurances (FFSA) . - Si vous avez souhaité entendre les assureurs dans cette réunion, c'est parce que vous vouliez recueillir leur contribution dans l'atteinte des objectifs du Grenelle de l'environnement, notamment s'agissant du bâtiment. Si notre contribution s'impose, il convient d'ajouter qu'il ne faudrait pas croire que tout arrivera, comme par magie, grâce à l'assurance.

Depuis 2007, les assureurs se sont mobilisés sur trois sujets. Premièrement, il s'agissait de pouvoir accompagner les innovations techniques, qu'il s'agisse des techniques de construction ou des matériaux, l'assurance ne devant pas être un frein au développement des innovations, mais accompagner le mouvement. A cette fin, nous avons rapidement travaillé, avec les filières du bâtiment, à la mise en place du Pass innovation, pour rendre assurable plus rapidement des nouvelles techniques de construction ou des nouveaux matériaux, l'avis technique du CSTB pouvant apparaître comme un frein à l'innovation. Nous avons beaucoup cru à ce dispositif, que nous avons promu. Aussi sommes-nous quelque peu déçus par le nombre de Pass octroyés. Quoi qu'il en soit, nous continuerons à promouvoir ce dispositif, qui nous permet de rendre assurables des innovations plus rapidement, à moindre coût pour les industriels.

Le deuxième sujet qui nous a beaucoup mobilisés a été celui de l'assurance des énergies renouvelables, notamment des panneaux photovoltaïques. Les assureurs ont été pris d'une grande crainte lorsqu'ils ont vu débarquer en France des panneaux photovoltaïques d'origine et de qualité très diverses, et des installateurs de panneaux à la compétence parfois contestable. Or les assureurs, notamment du fait du choix de la France de favoriser la filière « intégration à la toiture », sont directement concernés. Car, dès lors qu'un panneau photovoltaïque est intégré dans une toiture, il a une fonction d'étanchéité et rentre dans une responsabilité décennale. A ce titre, les assureurs ont été très vigilants sur la qualité des matériaux et la qualification des installateurs.

Le troisième sujet qui nous a mobilisés est celui de la performance énergétique. Nous avons été très rapidement sollicités sur ce thème, pour savoir comment l'assurance pouvait apporter une certaine protection de la part de ceux qui investissaient, soit en rénovation énergétique, soit dans une construction neuve, avec des objectifs contractuels ou normatifs de performance énergétique.

Quel lien entre la norme et la responsabilité décennale d'un constructeur ? Aucun. La responsabilité décennale d'un constructeur, il faut bien le comprendre, est une responsabilité entièrement construite à côté des régimes de responsabilité de droit commun. Elle doit être analysée au regard de ce que disent les textes, notamment au regard de trois éléments : le dommage crée-t-il une insécurité aux personnes qui vivent dans ce bâtiment ? La solidité du bâtiment est-elle en jeu ? Le bâtiment est-il impropre à sa destination ? C'est au regard de ces trois éléments que l'on jugera si le dommage entre ou pas dans la responsabilité décennale du constructeur. Certains bâtiments peuvent répondre à toutes les normes, tout en créant des dommages de type décennal. D'autres ne répondent pas aux normes, mais créent ou pas des dommages de ce type.

Cela dit, existe-t-il un lien entre un dommage que l'on pourrait qualifier de décennal, et qui rentrerait dans la garantie obligatoire de responsabilité décennale des constructeurs, et la performance énergétique elle-même ? Ce sujet met en jeu une interprétation juridique complexe qui concerne l'impropriété à destination d'un bâtiment. Pour autant, nous en restons, nous, assureurs, à l'esprit de la loi Spinetta de 1978 sur la responsabilité décennale des constructeurs, qui met en avant l'habitabilité du logement. Lorsque la RT 2012 sera mise en place pour le logement, le fait qu'un bâtiment consomme 70 kWh/m².an au lieu des 50 de la norme, ne remet pas en cause l'habitabilité du logement. Pour nous, cette impropriété à destination doit être vue sous le seul critère de l'habitabilité pour les logements et des missions premières attribuées s'il s'agit de logements de type tertiaire ou de bureaux.

D'aucuns jugeront que nous avons une vision restrictive de la responsabilité décennale. Quoi qu'il en soit, c'est une réponse que nous apportons, étant entendu que c'est au juge de dire la loi. Nous défendons cette thèse pour deux raisons principales. La première est que l'assurance a besoin de sécurité juridique : elle ne peut fonctionner dans un cadre où les jurisprudences évoluent sans cesse et font constamment changer l'appréciation du risque. Si l'on entre dans une interprétation sur l'impropriété à destination qui pourrait être celle du confort, de l'environnement, on ne manquera pas d'entrer dans des dérives qui déboucheront sur des insécurités juridiques totales. Or l'insécurité juridique entraînera immanquablement un surcoût de l'assurance construction très important. Pour nous, il est indispensable que le prix de cette assurance soit compatible avec l'économie du bâtiment.

D'aucuns estimeront également que les assureurs n'apportent pas grand-chose en matière de sécurité des maîtres d'ouvrage sur le plan des investissements qu'ils peuvent apporter. C'est oublier les produits d'assurance existant. Ainsi, lorsque la performance énergétique se dégrade, mais qu'elle maintient le logement habitable, la situation étant le fait d'un défaut d'un matériau, nous disposons de contrats d'assurance de type « responsabilité civile produits », qui peuvent jouer. En cas de défaut de conception évident de la part de l'architecte ou du concepteur, la responsabilité civile professionnelle du concepteur peut être mise en jeu.

S'agissant enfin de la performance énergétique, nous avons toujours été sollicités pour développer de nouveaux produits qui permettent de sécuriser la personne, notamment en matière de rénovation énergétique. Comment être assuré d'un retour sur investissement dès lors qu'on améliore la performance énergétique de son bâtiment ? En la matière, il faut le reconnaître, les techniques assurantielles ont leur limite, et ce, en raison notamment de l'aléa comportemental des personnes. Un bâtiment performant est une chose, le comportement responsable des personnes qui y vivent, une autre. Or nous ne savons pas assurer cet aléa comportemental. C'est une première limite de l'assurance sur la question de la sécurisation des personnes s'agissant de leurs investissements. La deuxième limite est celle du risque d'entreprise. De fait, certaines entreprises sont plus compétentes que d'autres. Heureusement, une telle situation n'est pas assurable. Le risque d'entreprise est par nature inassurable.

Pour autant, certains assureurs ont mis en place un certain nombre de produits qui peuvent garantir l'atteinte d'une certaine performance à la livraison du bâtiment. Au-delà, les techniques assurantielles ont leur limite. Des produits de type cautions ou garanties de fin de travaux permettent au maître d'ouvrage de conserver une certaine sécurité sur le fait que l'engagement, contractuel, de label ou normatif, fixé, puisse être atteint. S'il ne l'est pas, la caution pourra jouer, pour faire en sorte que les travaux complémentaires soient menés et que l'objectif soit atteint.

Tels sont les types de produits que les assureurs essaient de développer. Ils seront d'autant plus faciles à développer que nous disposerons des instruments de mesure de la performance énergétique au moment de la livraison des travaux qui seront incontestables et incontestés. Plus ces instruments de mesure peuvent être contestés, plus il sera difficile de développer des produits d'assurance, l'assurance recherchant par dessus tout de l'objectivité dans la façon de mesurer le risque. Nous sommes donc très favorables au développement et à l'amélioration des instruments de mesure, et qu'il y ait un consensus autour de certains instruments de mesure. Grâce à cela, nous pourrons développer des produits de plus en plus performants, sécurisant le maître d'ouvrage sur la qualité des travaux qu'il pourra recevoir.

Encore une fois, l'assurance s'arrête, s'agissant de la performance énergétique, à la livraison, la décennale ne jouant que sur le critère d'inhabitabilité. En résumé, elle peut assurer une certaine sécurité complémentaire dans l'atteinte des objectifs du Grenelle de l'environnement, au même titre que les normes et les labels. Encore ne faut-il pas oublier que la réalité des économies et la réalisation des objectifs du Grenelle de l'environnement sont très liées au comportement des personnes, point sur lequel il n'existe aucune assurance à ce jour.

M. Christian Bataille, député, rapporteur . - Toutes les interventions nous ont permis de confirmer que la mesure de la performance après construction est non seulement souhaitable, mais aussi indispensable si nous voulons améliorer de façon significative l'efficacité énergétique dans ce secteur et ne pas nous contenter d'effets d'annonce.

M. Grémy a posé le problème d'une performance effectivement atteinte, pour éviter les déceptions de la population. Cette considération était au coeur du rapport que j'ai cosigné avec Claude Birraux en 2009. A l'époque, nous avons aidé le rapporteur à l'Assemblée nationale à défendre des amendements dans ce sens dans le cadre du projet de loi Grenelle II, avec un résultat partiellement satisfaisant.

Cela dit, ma première question s'adressera à Mme Roger. Le problème d'une globalisation de l'appel d'offre pour une construction afin d'obtenir une meilleure performance par une meilleure coordination a été mentionné par notre rapport en 2009. La solution de l'appel d'offre sur performance ne sera plus utilisable une fois la RT 2012 mise en oeuvre, dans la mesure où le besoin ne sera plus une exception mais la norme. Y a-t-il des réflexions en cours sur le sujet ?

Mme Marie-Christine Roger . - A ma connaissance, nos collègues du ministère des Finances qui s'occupent des marchés publics ne nous ont pas signalé de réflexion sur ce sujet. Mais on peut imaginer que nous nous rapprochions d'eux pour savoir si la loi y ferait obstacle. Un intervenant a parlé du coût global. A ma connaissance, la loi MOP n'interdit pas de recourir à tel ou tel type d'allotissement. Par contre, elle ne l'énumère pas comme l'un des possibles.

M. Christian Bataille, député, rapporteur . - Le débat est ouvert.

M. Etienne Vekemans . - Je souhaite apporter un complément à cette deuxième partie de l'audition, où l'on a beaucoup insisté sur l'effet des habitants sur les consommations. Au niveau passif, le bâtiment se chauffe pour un tiers par le soleil, pour un tiers grâce aux habitants et pour un dernier tiers par un apport de chauffage. Or, on s'aperçoit que la première source de consommation dans les bâtiments peu consommateurs est non pas l'eau chaude, comme on l'a dit, mais l'électroménager. Chose étonnante : lorsque les bâtiments sont occupés de façon importante, l'électroménager est très utilisé, alors que les besoins en chauffage sont réduits. En revanche, lorsqu'ils sont occupés par peu de personnes, l'électroménager est peu utilisé, alors que le chauffage reste important. Bref, dans l'habitat passif, l'activité ou la non activité des habitants se compensent, résultat inverse de ce qu'on constate depuis des années dans les bâtiments, où les consommations évoluent peu en fonction des choix de vie des habitants. Que les gens gaspillent ou pas n'aurait donc que peu d'importance. Ainsi de l'ouverture des fenêtres : lorsqu'il fait froid dehors, les gens ne les ouvrent pas.

M. Christian Bataille, député, rapporteur . - En quoi la RT 2012 intègre-t-elle l'apport potentiel d'une gestion technique de l'énergie ?

M. Hugues Vérité - A ma connaissance, le moteur de calcul, lorsqu'il ne développe pas de phénomènes physiques qu'il est capable de simuler, n'est pas capable de produire une économie d'énergie. Autrement dit, le fait qu'un bâtiment soit occupé partiellement, à 50 %, où que le système de ventilation puisse être piloté pièce par pièce, n'est pas reproductible dans le moteur de calcul.

Mme Marie-Christine Roger . - Des évolutions sont toujours possibles. Si des systèmes plus complexes sont mis en place, on peut travailler à leur modélisation. Cela dit, sans doute y a-t-il un malentendu sur la mesure. Le principe de la mesure des consommations est inscrit dans la réglementation thermique. Des discussions, pilotées par la Direction générale de l'énergie et du climat (DGEC), que vous entendrez cet après-midi, sont en cours sur l'installation des compteurs, raison pour laquelle rien n'est calé sur la mesure. Mais on a bien prévu dans les logements un système de mesure.

Pour en revenir à la gestion de l'énergie, on fixe un scénario d'occupation, en particulier dans les bureaux. Soit une situation qui diffère complètement de l'occupation dans un bureau donné : si le modèle a prévu une occupation jour et nuit, ou huit heures par jour, l'indicateur ne donnera pas le même résultat. C'est la raison pour laquelle notre réglementation tend à la meilleure qualité intrinsèque du bâti, mais ne peut prévoir dans chaque cas de figure la consommation, le scénario étant fixé dans les modèles. Cela n'interdit pas de faire une modélisation en fonction de l'occupation réelle, puisqu'à chaque changement d'occupant, il n'y aura pas une nouvelle réglementation thermique à appliquer, mais éventuellement un occupant qui occupera le bureau de façon différente. La réglementation fixe un scénario pour chaque type de bâtiment. Le bureau d'étude thermique, qui a une connaissance plus fine, peut changer le paramètre de scénario d'occupation dans le modèle de calcul qui lui convient, pour évaluer sa consommation et utiliser au mieux sa gestion propre.

M. Hugues Vérité . - Il s'agit bien d'un moteur qui mesure la qualité du bâti, et l'exprime sous forme d'une énergie. Par ailleurs, dès lors que la réglementation n'impose pas une chose, nombre de choses étant déjà imposées, elle ne sera pas mise en oeuvre. Un système de pilotage de ventilation par poste ou d'optimisation ne se réalise pas pour la seule raison qu'il n'est pas prévu dans la réglementation.

M. Maxime Grand . - Je souhaite apporter un éclairage nouveau sur deux points qui me paraissent essentiels. Le premier est une réponse différente à la question que vous venez de poser. Comment fait-on pour mesurer d'un point de vue réglementaire, un peu mieux cette logique d'optimisation des systèmes ? Il existe aujourd'hui des logiciels qui fonctionnent très bien pour simuler la performance dynamique d'un bâtiment, et qui tiennent compte de tous les paramètres dont on vient de discuter. Seul problème : ces logiciels ne sont pas réglementaires, obligeant à réaliser une étude dynamique, qui occasionne des surcoûts. Une première réponse serait de réaliser une étude réglementaire pour des bâtiments qui nécessiteraient une autre logique pour optimiser la performance énergétique. On pourrait alors utiliser de tels logiciels, très pointus, en remplacement des études réglementaires.

Je souhaite également intervenir sur la mesure de la consommation d'énergie. J'ai bien compris que tous les intervenants sont très favorables à mesurer la consommation d'énergie. Or, tout est conçu dans la filière bâtiment à partir des performances réglementaires, qu'il s'agisse du coefficient de performance d'une pompe à chaleur, du rendement d'un panneau photovoltaïque, etc. Tout cela est mesuré en laboratoire selon des règles conventionnelles. Ensuite, on installe un ensemble d'équipements sur les bâtiments. Comment dès lors mesurer l'ensemble en fonctionnement, lorsque tous les éléments sont connectés ? Le travail qu'on a mené sur les isolants est généralisable à tous les équipements et à des bâtiments complets. Notre principale difficulté ? Elle a consisté non pas à mesurer la consommation directe d'un bâtiment, mais à afficher une performance basée sur une consommation valide quelle que soit la météo. Pour cela, nous avons travaillé sur des logiciels thermiques qui permettent avec très peu de temps d'acquisition des données, d'être capable de prédire la performance de ce système sur un climat moyen d'un pays.

Imaginons qu'on procède au même raisonnement sur un bâtiment venant d'être réceptionné. On attend dix jours avant la venue de ses habitants. On fixe sa température à 19 degrés, puis on mesure l'évolution de sa consommation. On est aujourd'hui capable de donner la performance réglementaire à la réception de l'ouvrage, et de savoir si le bâtiment est conforme ou pas à ce qu'on attendait. Le fait d'avoir cloisonné et de n'avoir mis en avant que des approches réglementaires a occulté cet avantage de l'approche in situ, laquelle est une véritable réponse à la problématique de la mesure de la performance des équipements, mais aussi du bâtiment fini.

M. Olivier Cottet . - Mes travaux de recherche menés dans le cadre du programme Homes permettent de mesurer, pendant la vie du bâtiment, son isolation et son étanchéité à l'air. Ce faisant, on dispose d'un protocole de mesures et de vérifications de la qualité intrinsèque du bâti, comme on est capable de mesurer le rendement d'une pompe à chaleur ou la consommation d'une lampe.

- Présidence de M. Christian Bataille, député, rapporteur -

M. Christian Bataille, député, rapporteur . - Nous en venons à la deuxième partie de cette audition, sur la consommation électrique et les économies d'énergie, organisée dans le cadre de notre mission sur la sécurité nucléaire, la place de la filière et son avenir. Ce sujet, vous le savez, sera intégré au rapport déposé sur les bureaux de l'Assemblée nationale et du Sénat en décembre prochain.

Ce matin, nous avons pu constater qu'en matière de performance énergétique des bâtiments, bien des efforts restaient à faire pour transformer les déclarations d'intention du Grenelle de l'environnement en résultats concrets et mesurables sur notre consommation d'énergie. Trop souvent, d'aucuns pensent pouvoir passer sans délai du stade de l'idée à celui des résultats. C'est oublier que leur obtention exige, dans le domaine de l'énergie, une préparation de longue haleine, parfois plus d'une décennie avant de pouvoir bénéficier pleinement d'une nouvelle filière industrielle. J'aime à dire que le temps politique et le temps énergétique sont déphasés, le premier étant de cinq ans, contre cinquante ans pour le second, soit dix fois un quinquennat présidentiel. C'est une réalité qu'il faut bien avoir en tête, tant on entend des déclarations partiales sur le sujet de l'avenir de l'énergie.

Il est peu de domaines qui demandent plus de réflexion et de préparation, tant l'influence des décisions prises nous engage sur le long terme. La question de l'énergie est en effet intimement reliée à tous les aspects de l'activité économique de notre nation, et même de notre vie quotidienne. Imaginons un instant où en serait notre pays si, d'un commun accord, ses dirigeants politiques n'avaient pas pris, après le premier choc pétrolier, la décision d'assurer, par l'industrie nucléaire, notre indépendance énergétique, si nos ingénieurs, nos techniciens, nos ouvriers, n'avaient pas mis toutes leurs compétences et leurs efforts dans la réalisation de ce projet ambitieux, si nos concitoyens n'avaient pas accepté les sacrifices financiers nécessaires à un tel investissement.

La première table ronde concernera les évolutions de la consommation d'énergie dans l'industrie. Pour ne pas se tromper, il est essentiel de prévoir. Pourtant, la prévision est un exercice des plus difficiles dans le domaine énergétique, tant les facteurs à prendre en compte - croissance économique, population, habitudes sociologiques, innovations techniques - sont nombreux, et largement soumis aux aléas. Puisque nous essayons de cerner l'évolution de la consommation électrique, il nous a semblé essentiel de croiser sur ce sujet, dans cette première table ronde, les visions du gouvernement, des industriels et des universitaires qui y réfléchissent.

La parole est à Pierre-Franck Chevet, ingénieur général des Mines, directeur général de l'énergie et du climat, qui présentera la position du gouvernement sur la question de l'évolution de la consommation électrique de notre pays.

M. Pierre-Franck Chevet, ingénieur général des Mines, directeur général de l'énergie et du climat . - La France, depuis très longtemps, a développé une politique énergétique structurée et perçue comme telle par les autres pays. Vous avez cité les décisions historiques prises dans les années soixante-dix, au moment du premier choc pétrolier. On pourrait également évoquer la décision de développer la force hydraulique du pays initiée aux alentours de la deuxième guerre mondiale, décision structurante, dont on recueille aujourd'hui les bénéfices, notamment en matière de CO 2 . Au moment où, début 2000, se profilait l'ouverture des marchés, la France, tout en l'organisant, s'est astreinte, de par la loi, à un exercice de prévision systématique et organisé en matière énergétique. Il peut sembler étonnant de se lancer dans des exercices de prévision, au moment où un marché est libéralisé. Mais la France a souhaité suivre les choses, essayer d'anticiper autant que possible et donner des signaux aux marchés, notamment parce que les investissements en cause sont longs et importants. C'est le cas dans le domaine nucléaire, mais aussi pour l'éolien, tout comme pour les réseaux : entre la décision de construction d'une ligne électrique et sa réalisation, pas moins de dix ans sont nécessaires. C'est pourquoi nous essayons de réaliser des exercices de prévision, exercices prévus à chaque changement de législature. Le dernier portait sur les années 2006-2009, avec un horizon de temps à 2020. Le prochain est prévu en 2013, avec un horizon de temps à 2030.

Lorsqu'on effectue une prévision pluriannuelle des investissements (PPI), il s'agit d'examiner l'adéquation en énergie, et surtout, en puissance, point très important pour l'électricité. On effectue le même type d'exercice sur le gaz ou la chaleur pour lesquels les problèmes ne se posent pas de la même manière, dans la mesure où le stockage est possible.

Comment procédons-nous ? Nous nous appuyons sur un certain nombre d'exercices de prévision donnés par des spécialistes, notamment des gestionnaires de réseau, RTE pour la métropole et EDF-SEI pour les DOM-TOM, dont les scénarios sont revus tous les deux ans. La dernière version dont nous disposons a été rendue publique en juillet dernier par RTE. Des critères de sécurité d'approvisionnement sont mis en avant, avec une durée moyenne de défaillance visée annuelle de trois heures. La prise en compte de l'apport des interconnexions est également un point important. Comment le prenons-nous en compte ? Considère-t-on globalement qu'on construit un système tel qu'on pourrait s'en passer, dimensionné pour disposer, en moyenne, à satiété de l'énergie et de la puissance nécessaires ? Ou s'appuie-t-on plus sur l'apport des interconnexions ? C'est un point sur lequel je reviendrai, car il touche à des questions de principe qu'il convient d'approfondir. D'un côté, on met en place un marché européen, avec une plaque européenne d'échange, de l'autre, notre système s'est mis en place avec un certain degré d'autonomie s'agissant du paramétrage. Tout cela n'est pas incompatible. Encore faut-il assumer les conséquences de ses choix.

Le dernier bilan prévisionnel RTE, de juillet 2011, porte sur des horizons de temps à 2030. Une prévision à dix ou vingt ans n'est pas le même exercice qu'une prévision à un horizon plus lointain. Au plan politique, sous l'impulsion d'Eric Besson, ministre chargé de l'énergie, nous sommes en train de travailler à un exercice de prévision à 2050. Il faut cependant préciser que cette approche est très différente d'une approche à 2030, pour laquelle les technologies sont connues, même si des incertitudes demeurent, par exemple sur les coûts et les conditions de déploiement. A l'horizon 2050, un certain nombre de technologies sont encore inconnues et on s'engage, de ce fait, dans des scénarios d'équilibres plus globaux, plus ou moins technologiquement indépendants. A horizon de vingt ans, les scénarios sont d'une fiabilité relativement bonne. A plus long terme, on entre dans un autre domaine, nécessaire, mais qui s'appréhende de manière différente.

Vous pourrez apprécier sur les transparents que je commente un certain nombre de courbes, qui font état de la consommation telle qu'on peut l'imaginer en 2020 et 2030, les scénarios prenant en compte les croissances économique et démographique ainsi que les changements d'habitude de consommation. En 2030, les scénarios varient entre 500 et 600 TWh de consommation annuelle.

Le scénario « Grenelle », basé sur une hypothèse de mise en oeuvre des mesures du Grenelle de l'environnement dans les délais prévus, nous place, sur un scénario bas, avec des consommations à peu près inchangées entre aujourd'hui et 2020-2030. Ces mesures permettraient de stabiliser, malgré la croissance, la consommation d'électricité, étant entendu que je parle d'équilibre énergétique global sur une année.

Mais les scénarios ont également un effet sur la puissance maximale appelée. Sur ce point, on constate des résultats significativement différents entre les scénarios hauts, plutôt consommateurs, et les scénarios bas, faiblement consommateurs. Le taux de dépendance augmente beaucoup plus fortement, en proportion, entre les deux types de scénarios.

RTE a également pris en compte un scénario de Grenelle différé, à l'horizon 2030. Il nous rapproche du scénario haut.

Que se passe-t-il sur la pointe selon qu'on prend des hypothèses différentes aux frontières ? L'hypothèse classique retient un import/export nul à la pointe. En moyenne, notre système est dimensionné de façon à produire en son sein l'électricité nécessaire. Il devient alors possible de calculer pendant combien de temps il manquera de l'énergie, quelle puissance nous manquera, pour chiffrer ce manque de puissance que le système aurait s'il vivait en « autarcie ». Actuellement, ce qui manque en puissance de pointe est proche de zéro, à 0,4 GW. Dans les années qui viennent, la dépendance croîtra assez rapidement, pour nous amener à un manque de puissance de 7,2 GW. Dans l'autre hypothèse, qui s'appuie davantage sur les capacités d'importation et d'exportation, les chiffres augmentent beaucoup moins à horizon 2014, où ne manquent que 2,7 GW. Comment traiter la pointe ? Comment gérer la puissance ? Comment augmenter ou baisser la pointe de consommation pour être compatible avec la puissance qu'on délivre ? Tel est l'esprit de la loi NOME (Nouvelle Organisation des Marchés de l'Electricité), dans sa deuxième partie, dont on n'a pas assez parlé, soulignant que l'ensemble des fournisseurs, EDF et alternatifs, doivent avoir les capacités pour faire face aux besoins de leurs clients. Pour réaliser l'adéquation, la loi met en avant soit la puissance au regard de la consommation soit, à l'inverse, l'organisation de l'effacement. On le voit : le sujet est difficile. Traiter la pointe à 7,2 GW ou à 2,7 GW est sans commune mesure. C'est un sujet qui renvoie à l'ensemble du marché de capacité, qui est devant nous.

Cela dit, nous ne sommes pas tant limités par la capacité de production des autres pays que par la capacité physique des interconnexions, sujet qui renvoie à la manière dont on trace les lignes transfrontalières. Je pense en particulier à la ligne France-Espagne, qui est en train de trouver sa solution après vingt ans de travail, non pas simplement du fait d'une mauvaise volonté des marchés, mais aussi des questions légitimes des populations riveraines. Celles-ci se demandent pourquoi elles auraient à subir des pylônes au-dessus de leur tête, au nom du marché européen. Ces questions ne peuvent être balayées d'un revers de main. Elles doivent être traitées par l'enfouissement, solution qui coûte de l'argent.

Nous avons également fait fonctionner des scénarios à l'horizon 2030, scénarios qui prennent en compte l'énergie, le climat et l'air. Ils font des hypothèses énergétiques, tout en s'efforçant d'analyser finement les impacts en CO 2 et ceux sur la qualité de l'air. Un scénario prend les mesures telles qu'elles existent et les arrêtent dès lors qu'on sait qu'elles ont une fin de vie. Ainsi de la réglementation thermique 2012, dont on sait qu'elle est acquise. A l'inverse, un crédit d'impôt est une mesure votée, qui ne vaut que pour la période prévue par la loi. Un autre scénario « objectif facteur 4 » prend en compte tous les objectifs du Grenelle, de façon à estimer l'écart entre l'acquis et ce qu'il faudrait faire.

Point important, s'agissant du nucléaire, nous avons intégré, pour la période 2011-2020, compte tenu des décisions prises et sans préjuger de la manière dont le système s'organisera, une stabilité de la puissance nucléaire disponible.

Avec nos modèles, nous passons, dans les scénarios bas, de 450 TW en 2010 à 400 TW en 2020, la différence s'expliquant par les effets de la crise.

Dans à peu près tous les scénarios, des gains sur les émissions de CO 2 du secteur électrique sont mis en évidence. Pour les scénarios RTE, comparables entre eux et avec le scénario de référence, le gain s'élève à 53 % entre début 2010 et fin 2020, significativement moins pour le scénario qui prend l'hypothèse d'un nucléaire bas.

Lorsqu'on met bout à bout l'ensemble des mesures du Grenelle de l'environnement et l'argent que la collectivité y consacre, ce sont 4 à 5 milliards d'euros par an qui sont inscrits sur la transition énergétique. Par comparaison, l'ensemble des Français payent 60 milliards d'euros par an pour disposer de l'énergie. De telles sommes, on le voit, sont loin d'être anecdotiques, le prix de l'énergie étant un vrai sujet politique.

En conclusion, l'idée de prospective en matière d'électrique est bien intégrée dans la réflexion publique française. Dans le cadre de l'exercice Énergie 2050, nous avons d'ores et déjà listé une dizaine de scénarios qui traitent de ce sujet. Un des points importants de l'exercice en cours est d'essayer d'analyser beaucoup plus finement les hypothèses, pour mettre en avant des points d'alerte.

En consommation finale, l'électricité représente de 20 à 22 % de notre sujet. Si l'on décarbone toute l'électricité, on aura traité 100 % de 20 % du sujet, étant entendu qu'on n'ira pas jusqu'au facteur 4. Gaz, pétrole et hydrocarbures en général sont donc vitaux. C'est un sujet à traiter, qui renvoie aux usages et qui peut changer la donne.

S'agissant de la maîtrise de la demande, avec l'argent qu'on y inscrit et nos prévisions de baisse de 20 % sur l'efficacité énergétique, on parviendrait avec le Grenelle à gagner 17 %. D'autres pays européens ont beaucoup plus de problèmes que nous. Reste que nous ne sommes pas à - 20 %. D'où la table ronde sur l'efficacité énergétique, pour savoir comment compléter le Grenelle.

Enfin, derrière les questions de réseaux se cachent des questions de profils de consommation. Par exemple, le véhicule électrique peut être une vraie solution si l'on gère bien l'espace de stockage qu'il représente, mais un vrai problème si on les charge tous lorsqu'on rentre à la maison à 19 heures, comme on le fait avec nos autres appareils. La pointe est un sujet dont l'importance est appelée à croître.

M. Christian Bataille, député, rapporteur . -Votre intervention a soulevé plusieurs problèmes qui pourront nourrir les rapports de l'Office sur la législature. La parole est à M. Robert Durdilly, président de l'Union française de l'électricité (UFE), qui va nous faire bénéficier, en avant première, des résultats d'une étude réalisée par l'UFE sur le bouquet électrique en France, à l'horizon 2030, et évoquera notamment les scénarios d'évolution de la consommation identifiés dans ce cadre.

M. Robert Durdilly, président de l'Union française de l'électricité (UFE) . - Comme vous l'avez rappelé, nous avons lancé une étude en début d'année. L'UFE, je le rappelle, rassemble des producteurs, commercialisateurs d'électricité qui interviennent en France, mais aussi les gestionnaires de réseaux que sont RTE et RTF. Nous avons donc un panel assez large de tout le secteur électrique, qui nous permet de conduire des études assez approfondies, avec des angles de compétences et de préoccupations complémentaires, gage de robustesse de nos approches.

Nous avions anticipé que la question du bouquet électrique serait un sujet important, notamment dans le cadre du débat préalable à l'élection présidentielle, l'accident de Fukushima ne faisant que renforcer cette exigence de débat et d'interrogation autour de la place du nucléaire. Nous avons engagé cette étude avec un horizon de temps à 2030, les solutions technologiques à cet horizon étant déjà connues et éprouvées. Nous avons eu l'ambition de traiter à la fois le volet production et consommation, en essayant d'évaluer chaque scénario avec ses conséquences en matière d'investissements, très lourds sur la période, mais aussi en matière d'émission de CO 2 , d'approche climat/énergie, d'indépendance énergétique, de sécurité d'approvisionnement et de balance des paiements.

Il s'agit d'une approche globale qui vise à la fois les aspects de production, de réseau de transport, de distribution, de commercialisation, mais aussi l'approche sur les énergies renouvelables. Nous en diffuserons les conclusions la semaine prochaine, et je n'en mettrai en avant que quelques éléments. Je me concentrerai sur le volet consommation, étant entendu que nous nous sommes basés sur trois scénarios très contrastés, d'une situation tendancielle que l'on connaît aujourd'hui, le nucléaire y occupant 70 %, jusqu'à un scénario de sortie partielle du nucléaire, avec un poids du nucléaire à l'horizon de 2030 de 20 %.

S'agissant de la croissance de la demande, nous sommes partis des 490 TWh de 2010, corrigés de l'aléa climatique, point de départ sur lequel nous avons projeté trois grandes évolutions. La première est une évolution de transfert d'usage. Lorsque le mix électrique est peu carboné, on a intérêt à déplacer les usages du fuel vers l'électricité, sujet qui renvoie au thème emblématique du véhicule électrique, qu'il soit individuel ou collectif. Il renvoie aussi aux pompes à chaleur en substitution des chaudières fuel, ou, dans le domaine industriel, à des pompes à chaleur industrielles ou toute une série d'applications où l'on gagne à convertir les moteurs industriels vers l'électricité.

Voilà une première donnée qui tend à augmenter la consommation électrique, en substitution d'une énergie fuel.

Deuxième facteur d'évolution : la croissance de la demande, très corrélée à l'activité économique. Les scénarios en la matière évoluent entre 1%, 1,5 % et 2,5 % de croissance, en prenant en compte le développement des nouvelles technologies.

Quant à la maîtrise de l'énergie (MDE), c'est un sujet central. En la matière, nous avons retenu comme hypothèse de référence l'atteinte, à 50%, des objectifs du Grenelle de l'environnement.

Avec ces trois facteurs d'évolution, nous parvenons, à l'horizon 2030, à 570 TWh, soit une légère évolution de 0,8 % par an de 2010 à 2030. Même en faisant beaucoup d'efforts, avec un scénario atteignant 100 % des objectifs du Grenelle de l'environnement, nous sommes toujours en progression de consommation. A l'heure où une directive européenne prévoit une baisse de 1,5 % par an, les enjeux, on le voit, sont très lourds, la faisabilité de ce type d'objectifs devant être appréciée autrement que par une décroissance.

Mais notre approche porte aussi sur la puissance. Dans le système électrique actuel, la puissance croît plus vite que la consommation. Pour faire simple, 1 % d'augmentation de consommation correspond à environ 2 % d'augmentation de la puissance de pointe. Au total, donc, notre scénario met en avant un besoin supplémentaire de 30 GW en pointe si rien n'est fait. Toutes les actions de maîtrise de la demande d'énergie (MDE) contribuent à la maîtrise de la puissance, notamment celle visant à supprimer les ampoules à incandescence par des ampoules à économie d'énergie, qui représente une grande partie de la maîtrise de la puissance.

J'en reviens à l'hypothèse des 50 %. Elle repose sur un constat simple. Nous avons examiné, action de MDE par action de MDE, compte tenu des prix de l'énergie, les temps de retour des actions. Bien évidemment, on observe une grande dispersion. La moyenne de ces temps de retour est supérieure à vingt ans. Nous avons pris comme hypothèse les actions dont le temps de retour serait inférieur à quinze ans, en supposant que des dispositifs d'incitation complémentaires seraient mis en oeuvre. En gros, on atteint 50 % des objectifs du Grenelle.

Nous sommes allés plus loin, pour évaluer où la France en est par rapport aux objectifs et aux dispositifs existants, notamment les certificats d'économie d'énergie. S'agissant des gisements, notre étude s'est nourrie du retour d'expérience des certificats d'énergie, qui constitue une base de données très utile pour évaluer le coût et les effets bénéfiques de chacune de ces actions. Ce faisant, nous avons réévalué l'ensemble du potentiel, toutes énergies confondues. Nous avons mis en évidence des décalages entre les objectifs du Grenelle et le gisement possible. En résidentiel, nous étions plutôt au-dessus, avec un objectif de l'ordre de 150 TWh, pour un gisement théorique de l'ordre de 120 TWh. Pour le tertiaire, le sens est inverse. Il y a donc une question autour du calage de ces objectifs par rapport au potentiel réel, même si, pour le bâtiment, l'objectif global est à peu près calé par rapport au potentiel.

Une fois qu'on a défini un objectif cohérent, quelle chance a-t-on de l'atteindre ? Sur ce point, nous avons effectué une approche type d'action par type d'action, pour essayer d'évaluer l'efficacité propre de l'action, et le retour de cette action, en prenant un taux d'actualisation de 10 %. On a ainsi mis en lumière trois grandes catégories d'actions : celles naturellement rentables, celles économiquement pertinentes, raisonnablement accessibles, étant entendu qu'il faut un euro d'aide pour un euro investi, et celles plutôt hors de portée, compte tenu de l'état des technologies, nécessitant dix euros d'aides pour un euro investi. Sur ce type d'action, la priorité est de mettre l'accent sur la R&D pour faire baisser le coût des technologies correspondantes. C'est le cas de l'isolation des fenêtres ou des combles habitables.

Ce faisant, nous avons quelques messages simples. Il est d'abord important de bien donner la priorité aux actions de MDE efficaces. Le dispositif de certificat d'économie d'énergie, même s'il a permis de démarrer, apparaît complexe et pointilleux, et pas à la mesure des enjeux qui sont devant nous. Le système repose aujourd'hui essentiellement sur les fournisseurs, et l'on voit bien qu'il ne s'agit pas d'une question que les fournisseurs maîtrisent. Il faut faire baisser les coûts des équipements, structurer une filière de fabrication des équipements qui soit compétitive, structurer les filières d'installation en aval, la qualité de la réalisation et le meilleur coût de réalisation étant prépondérant pour que ces actions de MDE se traduisent efficacement. Il faut enfin avoir une action sur les comportements en incitant les propriétaires à agir.

Tels sont quelques éléments de réflexion que je souhaitais évoquer pour avoir une politique de MDE ambitieuse et la plus efficiente possible, à l'heure où l'on se préoccupe de manière de plus en plus aiguë des investissements et des mesures d'aides publiques à des hauteurs très significatives. Pour les objectifs MDE du Grenelle de l'environnement les investissements sont évalués à 150 milliards d'euros, un chiffre considérable. Il est donc primordial d'avoir une approche centrée sur l'efficacité et l'efficience de chacune des actions.

M. Christian Bataille, député, rapporteur . - La parole est à Mme Florence Rodhain, maître de Conférences HDR à l'Université Montpellier 2, qui va évoquer l'impact des nouvelles technologies sur la consommation d'électricité. Je la remercie d'avoir intégré à son exposé une présentation des principales données chiffrées disponibles, l'ADEME n'étant pas parvenue à assurer, dans le délai requis, la présence d'un de ses représentants.

Mme Florence Rodhain, maître de Conférences HDR à l'Université Montpellier 2 . - L'histoire des TIC est parsemée de faux espoirs et de vraies idées reçues. Dans les années quatre-vingt-dix, les gourous de l'informatique nous prévoyaient le zéro papier. Mon directeur de thèse a eu l'occasion d'assister à Montpellier à la suppression des imprimantes au sein de la société IBM, avec la montée en puissance des e-mail. Cette mesure n'a duré que deux semaines, les employés ne pouvant se passer de leur imprimante, notamment pour imprimer leurs e-mail. C'est en 1876 qu'a été inventé le téléphone. En 1879, on a retrouvé un éditorial du Times dans lequel un journaliste réputé de l'époque expliquait que les managers n'auraient plus à se déplacer grâce au téléphone. Dans les faits, depuis l'invention du télégraphe, on constate une corrélation très nette entre les progrès des TIC et ceux des autres consommations - papier, transport. Plus il y a de technologie de l'information, plus on consomme de papier et de déplacement.

Cela dit, qu'en est-il de la consommation électrique ? Un « avatar » sur second life consomme autant qu'un « vrai » Brésilien ou deux « vrais » Camerounais, soit l'équivalent de 4,8 kWh.an. Télécharger sur son ordinateur la version électronique d'un quotidien consomme autant d'électricité que de faire une lessive. Une recherche sur le site Google est équivalente à une heure de lumière dispensée par une ampoule à économie d'énergie. En juillet 2011, l'ADEME a montré que l'utilisation des e-mails dans une entreprise de 100 salariés est aussi polluante que 13 allers-retours de Paris à New-York. Un chercheur de l'université de Dresde juge qu'à ce rythme, Internet pourrait, dans vingt-cinq ans, consommer autant d'énergie que l'humanité toute entière aujourd'hui.

J'en viens à quelques données sur la consommation en France, reposant sur le rapport 2008 « TIC et développement durable », établi par le Conseil général de l'environnement et du développement durable et le Conseil général des technologies de l'information, mandatés par les ministères en charge de l'Ecologie et de l'Economie, ainsi qu'un rapport de l'ADEME et d'EDF.

D'après ces rapports, la consommation électrique des TIC en 2008 s'élève à 13,5 % de la consommation française. L'augmentation a été très soutenue entre 1998 et 2008, de l'ordre de 10 % par an. Dans le secteur résidentiel, les TIC occupent aujourd'hui le premier poste hors chauffage, consommant 30 % de l'électricité. Malgré une prise de conscience sur les systèmes de veille, ceux-ci continuent à consommer 10 % de la consommation totale des ménages.

En 2008, la totalité représentait 58,5 TWh.an. La plus grosse partie est occupée par l'informatique, avec 38 %, suivie par les télécoms et l'audiovisuel. Pour le secteur résidentiel, l'audiovisuel occupe la première place. S'agissant de la consommation informatique, les postes de travail professionnels occupent la première place, avec 50 %, contre 32 % chez les ménages. Les serveurs, avec 18 %, sont une grande préoccupation, car très énergivores, d'autant que leur consommation électrique est en très forte croissance, de l'ordre de 15 à 20 % par an, la moitié de cette énergie étant utilisée pour refroidir les serveurs.

Cela dit, cette augmentation doit peut-être être revue à la baisse. Un chercheur comme Jonathan Koomey a montré, en 2007, que la consommation d'électricité des serveurs avait doublé entre 2000 et 2005, mais augmenté de seulement 56 % entre 2005 et 2010.

S'agissant de la production de CO 2 , les TIC contribueraient à 5 % de leur production en France, avec une marge de 30 %, faute de données fiables. A l'échelle mondiale, on estime qu'elles contribuent à 5 % de la production de CO 2 , autant que le transport aérien.

Ces deux rapports estiment qu'en 2012 les TIC représenteraient 20 % de la consommation électrique française. Il faut cependant souligner qu'on manque cruellement d'études scientifiques et indépendantes sur ce sujet.

J'en viens à la conscience écologique des consommateurs, et des liens entre TIC et écologie. Nous travaillons sur un panel de consommateurs réputés avoir une très grande conscience écologique. Nous allons chez eux, où nous les interviewons. Ces individus se déplacent à vélo, pratiquent le covoiturage, régulent leur alimentation, consomment bio. Or ils n'ont qu'une conscience très obscure des liens entre TIC et écologie, conscience encore plus obscure entre TIC et électricité. Si ces personnes sont inconscientes des problèmes électriques, on peut supposer cette donnée généralisable à l'ensemble de la population. D'où l'exigence d'information.

Deuxième résultat : ces individus montrent une addiction aux TIC, jugeant leur comportement très difficile à réguler. Si on veut changer les comportements, il faut agir tôt et éduquer le plus tôt possible, avant qu'ils ne soient ancrés dans les habitudes.

En conclusion, ces chiffres montrent une incompatibilité entre l'objectif à 2020 et l'augmentation de la consommation électrique des TIC. Tous les gains réalisés sur l'électroménager et l'éclairage depuis 1995 sont annulés par l'augmentation de la consommation des TIC. Le rapport Emodes - qu'on pourrait presque qualifier de plaidoyer à charge contre l'industrie audiovisuelle - montre que la consommation électrique de l'audiovisuel, secteur qui apparaît comme un secteur qui évolue sans contrainte, a augmenté de plus de 78 % en dix ans. N'y a-t-il donc pas urgence à intervenir rapidement auprès de deux acteurs, à savoir la filière des producteurs ? Les deux rapports cités insistent beaucoup sur l'absence totale d'optimisation énergétique, alors que les gains possibles sont considérables. C'est ainsi qu'on met toujours sur le marché des boitiers ADSL ou des écrans plats qu'on ne peut pas éteindre. Une recommandation évidente serait d'interdire de telles pratiques.

Mais une deuxième recommandation serait d'agir sur le consommateur citoyen, de l'éveiller et l'éduquer sur la consommation des TIC. L'humanité a souvent tendance à s'en remettre au progrès technologique pour sauver la planète. Or sans développement de la conscience du citoyen, les progrès technologiques ne peuvent aboutir aux effets espérés du fait de « l'effet rebond ». Une économie d'énergie fonctionne généralement à comportement constant. Mais souvent, lorsqu'il y a économie d'énergie, il y a changement de comportement. Aussi est-il urgent de passer du vert à la vertu. Toutes les recherches sur les systèmes d'information montrent qu'il n'y a pas de déterminisme technologique, qu'il n'y a pas d'outils bons ou mauvais, verts ou noirs, mais que des utilisations vertueuses ou pas. Pour avoir une action efficace, il faut agir à la fois sur la technique, l'objet, et le sujet.

M. Christian Bataille, député, rapporteur . - Merci pour ce propos qui bouscule nombre d'idées reçues. La parole est à M. Patrick Geoffron, professeur d'économie et directeur du Centre de géopolitique, de l'énergie et des matières premières (CGEMP) à l'université Paris-Dauphine qui va présenter les enjeux économiques de la sobriété énergétique.

M. Patrice Geoffron, professeur d'économie et directeur du Centre de géopolitique, de l'énergie et des matières premières (CGEMP), université Paris-Dauphine . Ce week-end, au moment du passage à l'heure d'hiver, je me suis replongé dans une étude récente commandée par l'ADEME, montrant que les gains très modestes du basculement d'heure sont désormais plus que compensés par l'usage d'une heure de soirée supplémentaire pour se laisser aller aux addictions de type Facebook, dimension qui doit nous alerter.

Cela dit, j'ai été convié dans cette enceinte pour prendre le contrepied parfait de votre propos, pour montrer de quelle manière les technologies de l'information et de la communication (TIC) sont nécessaires pour, une fois insérées à haute dose dans les réseaux et les systèmes électriques, affronter les challenges qui se trouvent devant nous. Ils s'y trouvent d'autant plus au terme d'une année où nous avons appris la décision allemande, et qui semble se dessiner ailleurs, relative au nucléaire, qui nous conduira à introduire plus d'intermittence dans les systèmes électriques. Une telle évolution ne pourra pas se gérer sans plus d'appel aux technologies de l'information.

La contribution politique des TIC viendra donc compenser le tableau que vous venez de nous brosser. Il y a deux ans, mon laboratoire a été conduit à développer une coopération avec la commission de régulation de l'énergie (CRE), qui a développé un site dédié aux smartgrids . Cette coopération a donné lieu, en janvier 2010, à une journée à l'Assemblée nationale, où nous avions convié des industriels du secteur électrique, mais aussi Google, IBM et Cisco. Depuis, mon laboratoire a été lauréat d'un des appels à projet de l'ADEME sur la question des réseaux intelligents. Mon équipe devra ainsi sonder à Strasbourg, en collaboration avec la communauté urbaine de cette ville, la capacité de ménages équipés de boitiers intelligents à établir une relation différenciée avec l'électricité.

Cela dit, à l'horizon 2050, et même pour la partie de l'Europe qui nous concerne, le scénario de l'Agence internationale de l'énergie (AIE) prévoit une augmentation de la demande électrique. Elle est certes moins spectaculaire qu'en Chine ou en Inde, mais les ordres de grandeur mettent en avant des augmentations de 20 à 50 %, compte tenu notamment de l'apparition des nouveaux objets connectés et des consommations nouvelles liées aux véhicules électriques. Il faut y ajouter davantage d'énergie intermittente. Pour l'Union européenne, les ordres de grandeur sont pour le moins considérables. Mettre de l'intermittence dans des systèmes électriques, c'est avoir à les gérer suivant des mécanismes et une alchimie très différente selon qu'on fait appel à du nucléaire, du charbon ou du gaz. Pour résumer, on n'intégrera pas l'intermittence suivant les modalités actuelles de gestion du système de transport et de distribution. A l'horizon 2035, et si rien n'est fait, un scénario prévoit plus de 40 milliards de tonnes d'émission de CO 2 et une hausse de température indéterminée à la fin du siècle, de près de 6 degrés. Un autre scénario, dit vert, déjà hors de portée, pourrait nous maintenir aux alentours d'une hausse de 2 degrés, encore gérable.

J'ajoute que 50 % de l'effort sera assuré par les gains en efficacité énergétique. Beaucoup plus d'efficacité énergétique et beaucoup plus d'énergies renouvelables ne pourront se faire avec le type de système d'information qui se couple aujourd'hui avec le réseau électrique.

Avec la mise en oeuvre des smartgrids , les scénarios de long terme de l'AIE mettent en avant deux types d'impact du CO 2 : des effets directs, liés aux gains en efficacité énergétique, et des effets indirects, liés à la capacité à intégrer, ou pas, de nouveaux objets, type voiture électrique, et à les interconnecter, de manière vertueuse, dans ces réseaux, selon qu'ils tendront ou pas vers une insertion plus importante de TIC.

En élargissant le spectre au-delà de la France et de l'Europe, on constate de très gros enjeux en termes de réduction du CO 2 , liés au fait que les systèmes électriques seront amenés à reposer de plus en plus sur le charbon. Des réseaux intelligents en Chine et aux Etats-Unis, c'est également plus de capacité d'effacement, de renoncement à mettre en oeuvre, dans une période de pointe, une centrale à charbon, avec des effets de levier plus importants que dans ce qu'on imaginait de l'Europe continentale, au sein de laquelle on était censé conserver plus de nucléaire.

Que changent les smartgrids ? Les énergies intermittentes vont poser d'autres types de problèmes que ceux gérés habituellement. On peut gérer aujourd'hui la question de la pointe, qu'il est d'usage de voir apparaître en hiver à 19 heures 30. La question de l'intermittence introduit d'autres éléments de variabilité et d'imprévisibilité dans le système, à savoir que la chute du vent en Mer du nord n'a pas de raison d'intervenir durant la nuit, où l'on dispose de moyens de production de base qui peuvent être satisfaisant. Mais ces réseaux intelligents ont aussi une capacité à gérer non plus des problématiques sur une maille régionale et nationale, mais aussi sur une base locale, de quartier, au niveau d'un bâtiment et d'une maison.

Les représentations sont une chose et la technique une autre. Or c'est un fait qu'on ne sait pas encore comment faire techniquement. Ces nouvelles chaînes de valeurs ou ces nouveaux écosystèmes électriques, qui ont vocation à se dessiner progressivement dans les années 2020 et sans doute avant, conduisent à interagir et à faire travailler ensemble à la fois les acteurs des équipements et des systèmes électriques, mais aussi les acteurs des technologies de l'information, des produits de consommation et des industriels du bâtiment.

La capacité à interagir et à faire naître des modèles économiques est pour l'heure totalement indéterminée. Je vous renvoie sur ce sujet à un dossier de la CRE dédié aux modèles économiques des smartgrids , l'idée étant que des modèles innovants peuvent naître autour de l'économie du véhicule électrique, de la question de l'efficacité des bâtiments.

Pour en arriver là, il y a beaucoup d'écueils, liés en particulier aux prix du pétrole et au prix du CO 2 . Qu'on imagine des particuliers qui voudraient faire des choix technologiques les conduisant à être moins dépendants du fuel et à s'appuyer sur des combinaisons entre GPL et solaire. Tout cela prendra sens en fonction d'éléments relatifs au prix du pétrole. Autre écueil : la montée de l'endettement au sein de l'OCDE, chacun connaissant les contraintes en jeu, la seule certitude étant la plus faible disponibilité d'argent public pour accompagner cette transition et l'insertion des technologies de l'information dans les réseaux. Aussi les acteurs privés sont-ils dans l'obligation d'identifier dans les meilleurs délais des espaces économiques qui permettront de drainer de l'argent privé et de faire émerger des modèles d'affaire qui ne seront pas trop intensifs et consommateurs d'argent public.

Si l'on essaie de se convaincre que les besoins d'investissement seront globalement très conséquents, une manière de les évaluer consiste à se pencher sur l'évaluation réalisée par la DGEC en mars dernier, mettant en avant des investissements de l'ordre de 270 milliards d'euros par an à l'échelon européen, soit 1,5 % du PIB européen chaque année entre aujourd'hui et 2050. Au passage, cette somme est à comparer avec le niveau de la dette grecque.

Dernière inconnue : la manière dont les entreprises pourront s'adapter à ces évolutions. Les entreprises, a fortiori les plus grandes, ont la capacité à dédier des moyens pour entrer au sein de ses systèmes. Pour que nous réussissions cette transition, il faudra associer les ménages à la compréhension de ces systèmes. Pour l'heure, il faut reconnaître que cette compréhension est à peu près égale à zéro, le système dans lequel nous vivons nous ayant placés dans un paradis énergétique, fait d'une continuité d'approvisionnement et de prix bas. La seule fenêtre par laquelle nous entrevoyons les fracas du monde énergétique est le prix à la pompe. Il faudra regarder cette réalité à travers d'autres compteurs, notamment intelligents. Reste que notre compréhension de mécanismes comme les effets d'une chute de vent sur le parc éolien allemand en Mer du Nord n'est pas très bonne. Pour les sciences sociales, il s'agit d'un champ de recherche très important, car on ne réussira pas cette transition sans y associer massivement, et sur des délais plutôt courts, les consommateurs.

Cela dit, il y a une raison d'espérer, nos concitoyens ayant montré, dans la dernière décennie, une aptitude à s'approprier des objets nouveaux et à comprendre des mécanismes complexes. Par contre, leur capacité à s'adapter à ces évolutions pourrait être indexée sur leur niveau de revenu, sujet qui renvoie à la question de la précarité énergétique. Nous avons organisé une conférence sur le sujet à Dauphine, où nous avions convié EDF, l'ADEME et la Fondation Abbé Pierre. Nous avons ainsi appris que l'Allemagne, pourtant réputé être le coeur de la prospérité européenne, était le pays comportant le plus de précaires électriques. Si les Allemands ont probablement une relation plus vertueuse que la nôtre aux consommations énergétiques, il n'en reste pas moins que les populations les plus modestes n'ont pas pu s'adapter aux évolutions. La fracture numérique se doublerait d'une fracture énergétique, les classes moyennes et les classes plus privilégiées ayant la capacité à entrer dans ces nouveaux mécanismes et à en tirer parti pour accroitre leur confort énergétique, alors que les classes les plus modestes seraient dans l'incapacité d'accompagner ce mouvement.

M. Christian Bataille, député, rapporteur . - Merci à tous d'avoir situé les enjeux de la sobriété énergétique et d'avoir rappelé que l'objectif essentiel est la lutte contre le réchauffement climatique, enjeu qui a tendance à être oublié du fait d'autres débats.

Le débat est ouvert.

M. Bernard Tardieu. Je veux revenir sur la question de la puissance, pour bien comprendre comment se fixeront les prix sur un marché libre. Quelles seront les interactions entre la loi NOME II et le marché Spot pour déterminer le prix de la pointe ? Dans la mesure où le suivi de charge du nucléaire n'est pas très rapide, il y aura certainement un appel en urgence sur le transitoire. Comment, dans un marché libre, se fixerait ce prix ?

M. Christian Bataille, député, rapporteur . - D'après vous, le marché actuel n'est pas libre ?

M. Bernard Tardieu . Si. On peut vendre sur le marché libre. Mais une bonne partie des gens dépendent d'un marché régulé. Quelle seront les évolutions en la matière ?

M. Pierre-Franck Chevet . Il n'existe pas de réponse simple à cette question, étant entendu que nous sommes en train d'y travailler. Il y a une différence entre régler les prix de marché à l'instant « t » et vérifier l'adéquation entre l'offre et la demande à tout moment par l'existence d'un marché de capacité installée. Nous travaillons sur les textes d'application, lesquels sont nécessaires et urgents, l'objectif étant de disposer d'une règle du jeu pour 2012, pour qu'on puisse se positionner sur un marché de capacité. Il s'agit d'un sujet complexe, la question de la sécurité d'approvisionnement, qu'on oublie trop souvent, étant au premier plan. Le dernier « blackout » connu en France date de 2007 et a duré au maximum 3 heures. A douze heures, l'effet aurait été tout autre. C'est donc un sujet essentiel, qui se rappelle à nous bruyamment et par surprise. Il s'agit non pas de mettre en avant l'aspect productiviste, vision classique de notre système, mais de donner un début de sens à l'effacement et à ce que chacun d'entre nous peut faire.

M. Christian Bataille, député, rapporteur . - Cette deuxième table ronde sera l'occasion de réfléchir à l'évolution de notre consommation électrique, en nous intéressant tout particulièrement aux effets de l'innovation dans l'aménagement urbain et les transports, domaines où l'évolution des technologies pourrait influer substantiellement sur notre consommation électrique à venir. De telles évolutions comportent de nombreux obstacles, autant d'ordre technique que sociétal. Elles exigent également des investissements conséquents, notamment pour la création d'infrastructures adaptées. Dès lors, on peut légitimement s'interroger sur la possibilité de créer un marché grand public substantiel.

La parole est à M. Bernard Decomps, professeur émérite de l'École normale supérieure de Cachan et conseiller du président du pôle de compétitivité ADVANCITY, qui va nous présenter les conclusions des travaux de l'Académie des technologies sur la performance énergétique de la ville et l'impact de la structure urbaine sur la compétitivité des entreprises.

M. Bernard Decomps, professeur émérite de l'École normale supérieure de Cachan, conseiller du président du pôle de compétitivité ADVANCITY, Académie des technologies. Je vais aborder de façon synthétique trois axes de la question : quels sont les enjeux ? Qui est responsable ? Quels sont les handicaps et les atouts de la France.

Premièrement, les enjeux. Une ville, il faut le rappeler, est d'abord un lieu dans lequel les gens peuvent se rencontrer, développer des activités économiques, sociales et culturelles. S'ils y parviennent en dépensant le moins possible d'énergie, ce facteur pourra réguler la capacité d'une ville à remplir sa fonction. En Europe ou en Amérique du nord, où la population urbaine reste stable, la performance a pour objectif premier de réduire la dépense et le coût de l'énergie, ainsi que la dépendance aux pays exportateurs de ressources primaires.

La population, en revanche, explose dans les pays émergents et en Afrique, où il ne s'agit plus de réduire la consommation d'énergie, ce qui n'aurait aucun sens, compte tenu de la très faible consommation par habitant dans ces pays. Par conséquent, on ne peut espérer que la contenir, tout comme les émissions de gaz à effet de serre, dont l'impact sur le réchauffement climatique de la planète est très réel, contrairement aux pays du nord.

La performance énergétique constitue un objectif majeur : comment l'ensemble des villes pourront-elles abriter, dans les cinquante ans à venir, les trois quarts de la population mondiale, avec des objectifs qui diffèrent fondamentalement au nord et au sud ?

Qui est responsable de la performance énergétique d'une ville ? Pour la France, sans dédouaner l'Etat, il faut rappeler que les citadins ou usagers ont une importance capitale, y compris dans la ville. Ils assument une part des responsabilités qui incombent aux autorités locales, lesquelles modèlent la structure urbaine et assurent la maîtrise d'ouvrage des investissements dédiés à la maintenance et à l'amélioration de la performance énergétique. Une part au moins égale revient aux acteurs économiques. J'entends par là les entreprises (construction, transports, alimentation en énergie, bureaux d'ingénierie, organismes financiers) dont les prestations innovantes concrétisent une performance constatée par les citadins et, plus largement, par ceux qui aspirent à des avancées comparables en France ou à l'étranger.

La réussite d'un îlot, d'un quartier ou d'une ville est un gage de progrès et de confort pour les habitants. Mais c'est aussi un démonstrateur de la performance technique, et un atout pour remporter des marchés à l'international, dans des domaines hautement compétitifs. Grâce aux acteurs économiques, qui savent démontrer leur capacité d'innovation et remporter des marchés à l'export dans les pays du sud, les pays du nord combinent l'essor économique avec l'emploi et un intérêt climatique et éthique. C'est par ce biais qu'on pourra agir efficacement sur au moins une tendance, pour réduire l'emballement du réchauffement climatique.

Quels sont les handicaps et les atouts de la France à l'export ? Les villes françaises accusent indéniablement un retard dans le secteur très concurrentiel de la sobriété énergétique. Elles disposent toutefois de champions industriels de rang mondial dans la construction, l'environnement et l'énergie, et d'un tissu de sociétés d'ingénierie. Ceux-ci misent aujourd'hui sur des programmes nationaux, tels que les éco-quartiers ou les éco-cités, et sur des réalisations urbaines globales initiées par les collectivités. Il suffit d'aller à Rennes, Toulouse ou Lyon pour constater le dynamisme et l'effort d'imagination et d'intelligence réalisé. Le Grand Paris nous promet à ce sujet des choses magnifiques.

Pour remporter les marchés à l'international, la réalisation de démonstrateurs mettant en avant des solutions maîtrisées constitue un gage de notoriété des technologies nationales dans un pays accueillant de très nombreux touristes.

J'en viens à quelques leviers de la performance énergétique, en essayant d'éviter d'évoquer ceux développés par les autres participants à cette table ronde.

Additionner des effets de levier n'a pas de sens tant il est vrai que tout est interdépendant dans une ville. En améliorant la performance énergétique dans les villes, on constate qu'on augmente les prix du foncier. Une telle évolution pousse un certain nombre des habitants à rejoindre un halo dans lequel la densité est trop faible pour pouvoir imaginer des transports collectifs. Par conséquent, cette population qui continue à travailler à l'intérieur de la ville réduit sensiblement les gains réalisés par une organisation intelligente. C'est un phénomène constaté dans toutes les villes du monde, en particulier les villes françaises que j'ai déjà citées.

Trois questions représentent des enjeux considérables. La première concerne la gouvernance et son autorité dans la durée. En règle générale, le territoire concerné par un problème énergétique s'étend sur plusieurs communes. Par conséquent, la gouvernance énergétique doit relever d'instances comme les communautés urbaines, lesquelles ne disposent pas toujours de l'autorité souhaitable. On se prend à envier le grand Londres, où un maire élu au suffrage universel direct, dispose de pouvoirs extrêmement étendus en matière d'organisation urbaine, d'autant que les pouvoirs des collectivités sont, en France, singulièrement réduits par rapport à ceux de collectivités de taille comparable dans d'autres pays européens.

En France, les collectivités, toutes l'affirment, doivent surmonter deux handicaps : l'impossibilité de peser réellement sur les prix du foncier et de contourner un code des marchés publics dont l'application rigoureuse constitue souvent une entrave à la réalisation des démonstrateurs.

Le deuxième levier concerne l'allocation des espaces urbains et l'organisation des flux de déplacement quotidien. Espace de rencontre, la ville tire avantage de la densification urbaine et, accessoirement, du télétravail ou des téléservices. Le modèle simple de la ville organisée autour d'un point de passage obligé des déplacements internes atteint rapidement ses limites. Si une marge de progrès demeure possible pour des villes de 100 000 habitants, ce modèle ne permettrait pas d'en héberger plusieurs millions sans imposer des déplacements quotidiens sur des distances prohibitives. Des agglomérations européennes comme Hanovre, Stockholm ou Barcelone figurent à l'avant-garde des innovations. Elles expérimentent l'assemblage de quartiers cohérents autour de gares de proximité, dont la pluri-activité est irriguée par des déplacements en mode doux, réduisant les consommations d'énergie. Les différents quartiers sont reliés entre eux par des transports rapides entre gares, objectif attendu du Grand Paris. On estime que cette réorganisation des villes réduirait à elle seule la consommation de quelque 10 %, soit la moitié de l'objectif fixé à l'horizon 2020.

Le troisième levier concerne la confection du bouquet énergétique, d'une part, à partir d'énergies en provenance de fournisseurs extérieurs et, d'autre part, d'énergies produites ou recyclées sur le territoire. Aujourd'hui, les fournitures externes se composent essentiellement de carburants, liquides ou gazeux et d'électricité, fournie par un réseau national garant des approvisionnements à tout instant. Elles peuvent inclure de la chaleur issue du refroidissement d'installations industrielles ou de centrales électriques, thermiques ou pourquoi pas nucléaires, à condition, cependant, de déployer des réseaux sur une centaine de kilomètres autour de chaque installation électrique d'importance.

Les approvisionnements venant de l'extérieur, aujourd'hui largement majoritaires en quantité, sont complétés par la production, le stockage ou le recyclage d'énergie sur le territoire, tantôt à partir d'énergie renouvelable locale : photovoltaïque, éolien, géothermique, tantôt à partir d'installations industrielles situées en ville, tantôt par le recyclage d'énergies plus ou moins dégradées. La récupération de chaleur dans les eaux usées, naturelles, fluviales, dont l'effet est accru par des pompes à chaleur, et le traitement des déchets ou des boues, se développe à bonne allure, au profit des ilots, dans les quartiers, et à plus longue échéance dans les agglomérations. Vu l'ampleur des investissements, il s'agit d'un chantier de longue haleine, qui exigerait des tests en vraie grandeur, pour mesurer son coût et son acceptabilité par la population. En revanche, pour une ville neuve, la production locale d'énergie pourrait devenir majoritaire, dès lors que plusieurs obstacles techniques importants seraient levés. Je propose que nous y réfléchissions ensemble.

Ce faisant, on peut regarder l'incidence sur la politique énergétique nationale, en lien avec la compétitivité des entreprises. A priori , les avancées de la performance énergétique permettent de revisiter la doctrine nationale en matière de production d'électricité, pour se caler sur la perspective allemande de sortie du nucléaire. Avant de répondre positivement ou négativement, il faudrait opérer un basculement, concevable en principe entre les rôles de l'approvisionnement national et local, mais qui se heurte aujourd'hui, au moins pour plusieurs décennies, à des obstacles techniques et commerciaux majeurs, sauf à ignorer les risques climatiques. Imaginez l'exemple que la France donnerait si elle décidait de s'engager dans la construction des centrales à charbon, alors qu'elle est reconnue comme un pays où l'électricité est plutôt produite sans CO 2 .

Il ne s'agit pas d'ignorer ou de masquer les progrès rapides du photovoltaïque, notamment dans les dispositifs en couche mince, seul secteur où la suprématie de la Chine n'est pas définitivement établie. Les avancées dans les autres énergies renouvelables, le différentiel de prix du KWh conservent aux énergies nucléaire et hydraulique une avance confortable pour l'approvisionnement externe d'une ville importante, d'autant qu'avec la chaleur, on peut améliorer le système et chauffer quasiment gratuitement tous les bâtiments des villes et le tertiaire. Sauf à imaginer des progrès spectaculaires dans le stockage de l'énergie à un coût abordable, il est probable qu'on sera tenté de confiner les énergies nouvelles, notamment en raison de leur variabilité dans la journée et de leur caractère imprévisible à plusieurs jours, dans des fonctions d'appoint.

Si des impératifs de sécurité devaient changer la donne, en précipitant un arrêt de l'exploitation des centrales nucléaires en état de fonctionnement ou un gel prolongé de nouvelles constructions, en dépit d'une demande d'électricité accrue avec la voiture électrique et les TIC, on ne pourrait éviter de se retourner vers des centrales à carburant fossile. Une telle décision adresserait un bien mauvais signal aux pays émergents, en raison des émissions de gaz à effet de serre et de leur impact sur le réchauffement climatique, et l'on sait que scénarios se prononcent pour une hausse de 6 ° des températures. Les techniques de capture et de séquestration du carbone ont suscité bien des espoirs, mais elles sont à encore trop aléatoires et trop chères pour fournir une alternative crédible.

Dans ces conditions, et par son concours à l'indépendance énergétique, le développement des énergies nouvelles est un axe porteur pour l'économie nationale et les entreprises. Dans la ville, les énergies produites localement sont appelées à jouer un rôle croissant dans le chauffage et la climatisation. En revanche, elles peuvent dès à présent jouer un rôle déterminant dans les quartiers neufs, où l'installation de réseaux de chaleurs devrait s'imposer. La production locale d'électricité est-elle susceptible de dépasser la fonction d'appoint qui lui est dévolue ?

Les travaux sur les systèmes complexes impliquant plusieurs millions de producteurs consommateurs, avec des smartgrids sophistiqués, n'incluent plus totalement une telle révolution conceptuelle, lorsque les obstacles techniques, notamment sur le stockage d'énergie seront levés. Les échéances sont difficiles à prévoir, et les coûts d'investissement bien trop élevés, sauf dans des démonstrateurs d'ilots ou de quartiers basés sur ce principe.

C'est la raison pour laquelle le bouquet énergétique qui offre les meilleures chances pour les entreprises à l'export est à l'évidence la superposition d'une offre d'électricité traditionnelle, et du potentiel de chauffage d'un réseau de chaleur diffusé à partir d'installations industrielles. Voilà une solution immédiatement crédible pour l'approvisionnement de base de villes neuves en construction, au sein desquelles les énergies nouvelles sont appelées à jouer un rôle grandissant.

Alors que le pays ne dispose plus d'avantages compétitifs dans la production d'énergie et d'électricité dans les centrales thermiques, le déploiement du bouquet nucléaire, hydraulique et énergies nouvelles, renouvelables ou pas, confère aux entreprises françaises de bonnes chances de succès à l'export. Les réseaux de chaleur ouvrent dès à présent une solution élégante, combinant performance énergétique, et contribution minimale au réchauffement de la planète. N'oublions pas qu'en France, le chauffage des bâtiments et du tertiaire représente 45 % de la consommation d'énergie, enjeu considérable s'il en est.

Un délai supplémentaire de plusieurs décennies sera sans doute nécessaire pour concrétiser, avec l'échange des rôles du local et du national dans le bouquet énergétique d'une ville, une révolution conférant aux énergies locales, nouvelles ou traditionnelles, un nouvel espace d'innovation qu'on devrait préparer sans retard.

M. Christian Bataille, député, rapporteur . - Vous vous êtes inquiété d'une évolution possible de la France vers la production d'électricité à partir de charbon. Heureusement, ce n'est pas le cas. Mais je voudrai rappeler que l'Allemagne, que certains voudraient ériger en modèle pour notre pays, produit plus de 40 % de son électricité à partir du charbon.

Cela dit, la parole est à M. Philippe Watteau, adjoint au directeur de la recherche du CEA, qui va évoquer le partenariat avec Renault dans le domaine des véhicules électriques, lequel a abouti il y a quelques jours à une commande spectaculaire à plus de 15 000 utilitaires Kangoo ZE pour les administrations et 18 entreprises rattachées au secteur public.

M. Philippe Watteau, adjoint au directeur de la recherche technologique, CEA . Je vous propose d'aborder, au travers du partenariat entre Renault et le CEA, les principaux défis posés par le véhicule électrique ainsi que les apports du CEA et de la recherche française en matière d'innovation, pour aider notre industrie nationale à se positionner comme leader sur ce marché.

Je traiterai d'abord du coeur du véhicule électrique, les batteries, puis de ses autres dimensions, ce véhicule étant une nouvelle approche de l'automobile.

Premièrement, les batteries. En la matière, il n'existe pas de batterie miracle, qui révolutionnera l'automobile pour en faire un véhicule universel. De fait, il existe différents types de batteries, tout comme il existe différents types de moteurs thermiques, diesel, à essence, avec plusieurs niveaux de cylindrés. De même, il existera différents types de véhicules électriques pour différents usages. Vous mentionnez la Kangoo ZE pour le secteur public : elle répond à certains types d'usage. Les constructeurs, notamment Renault, offrent déjà une gamme qui répond à différents besoins.

Pour ces différents usages, différents types de batteries vont se développer. C'est un point essentiel. Le partenariat entre la recherche française, via le CEA, et l'automobile, se fait au travers d'un cahier des charges technico-économique très précis, qui répond au besoin d'un constructeur français et à celui de ses clients. C'est ainsi qu'une batterie présente une certaine durée de vie, un coût, une autonomie.

Pour autant, des défis sont assez partagés au sein de la communauté automobile de recherche. Le premier défi est celui de la sécurité. Un véhicule à moteur thermique peut toujours prendre feu et comporte toujours un certain degré de dangerosité. Cela dit, pour des véhicules innovants, comme le véhicule électrique, la sécurité s'avère encore plus importante. Ainsi, les explosions dans des parkings de véhicules GPL ont cassé le marché. Il faut donc éviter à tout prix cet effet pour le véhicule électrique.

Nous avons donc un point d'attention très poussé sur la sécurité. La chimie constitue une partie de notre réponse. Le CEA dispose ainsi de brevets pionniers au plan mondial sur le fer/phosphate, solution très sûre sur le plan chimique, par opposition à d'autres, comme le cobalt, susceptible de s'enflammer facilement.

Le deuxième défi est celui de l'autonomie. Un véhicule électrique doit non seulement être sûr, mais aussi pouvoir rouler sur une certaine distance. En matière de recherche, dans les laboratoires du CNRS comme du CEA, des performances intéressantes, de 250 à 280 km d'autonomie, sont atteintes. La question est celle du passage à l'échelle industrielle : passer de la construction de batteries en laboratoire et en petite quantité à plusieurs dizaines de milliers d'exemplaires. En la matière, la filière industrielle joue un rôle essentiel. Il faut être capable de produire les matières premières, notamment les poudres, à grande échelle, pour assurer une production de batteries en grande quantité, défi qui prendra plusieurs années.

On a parlé du temps politique et du temps énergétique. Au moins trois années sont nécessaires pour passer du laboratoire au stade industriel. Le CEA est aujourd'hui en mesure de produire des batteries à plusieurs centaines d'unités. Mais avant que l'usine de Flins produise des tranches de 10 000 batteries, il faudra passer à un stade pré-industriel de 3 à 4 000 unités : c'est la prochaine étape qui se présente devant nous, les résultats en laboratoire étant intéressants.

Le troisième défi est celui de la durabilité. Quelle est la durée de vie de ces batteries ? C'est la grande question. Imaginez des batteries de 300 kilomètres d'autonomie seulement les deux premières années, autonomie suivie ensuite par une décroissance. Une telle innovation serait de peu d'intérêt, surtout dans le modèle économique de Renault, où la batterie est louée. Le client de Renault, je le rappelle, paye 80 € par mois pour un véhicule électrique. Dès que la batterie n'est plus performante, le constructeur la remplace. La transparence est assurée pour le consommateur, pas pour le constructeur. Voilà pourquoi la durabilité est un critère fondamental, une batterie devant durer dix ans. Du coup, la question du coût de la batterie est directement liée à celle de sa durée de vie.

Le dernier défi est celui du recyclage, ou plutôt de l'éco-conception. Sur ce point, il s'agit d'intégrer en amont la possibilité de recycler facilement la batterie. Aussi les cellules doivent-elles être conçues en amont, pour que les batteries soient facilement recyclables en aval. L'objectif est de mettre au point des batteries 100 % recyclables. Cela ne signifie pas pour autant qu'elles seront recyclées à 100 %. C'est la raison pour laquelle j'insiste sur l'éco-conception et l'importance de l'intégration en amont de la facilité de recyclage.

De manière transverse, nous disposons de deux leviers forts d'innovation. Le premier touche aux matériaux, domaine qui relève de la recherche amont, des sciences de la matière et des grands équipements, type Synchrotron. Il s'agit d'exacerber les propriétés de la matière pour qu'elle donne le meilleur d'elle-même afin d'assurer l'autonomie, mais aussi la sécurité, de bien comprendre l'organisation des atomes pour que la batterie soit la plus performante. C'est une première rupture de type amont, qui impliquera beaucoup le CNRS et les grands équipements.

Le deuxième levier touche aux systèmes, à la gestion intelligente de la batterie. Aussi va-t-on placer des capteurs sur cette batterie, pour savoir comment elle évolue dans le temps, puis une couche d'intelligence pour modéliser sa situation. Il s'agit de répondre à deux questions simples : quelle est la taille et le niveau de mon réservoir, de manière à fournir des informations constantes au client ? Cette intégration système interne à la batterie, permettra d'en connaître l'état mais sera aussi une interface très forte avec le véhicule électrique.

J'en viens à mon deuxième point, en soulignant d'abord qu'un véhicule électrique doit avant tout être très économe en énergie. Plus il est économe en énergie, plus la batterie autorisera une autonomie et des prestations maximales.

Trois leviers sont identifiés à cette fin. Le premier est le poids. Un véhicule classique pèse 1,4 tonne, poids peu compatible avec l'utilisation de batteries. Renault travaille donc fortement sur la réduction du poids, l'idéal étant de passer à 800 kg. L'enjeu porte alors sur la sécurité des voitures, de passer d'une voiture dotée de moyens en sécurité passive, à des moyens de sécurité active, pour éviter l'accident. Cela suppose des dispositifs de communication, de véhicule à véhicule, et de véhicule à infrastructure, pour minimiser les accidents. Par ce biais, on réduira l'arsenal de sécurité passive.

Le deuxième levier est la consommation des auxiliaires. On a parlé de chauffage et de climatisation pour le bâtiment. La problématique est la même pour un véhicule électrique. En la matière, il faut trouver des moyens de chauffage et de climatisation qui soient bien plus en rupture, pour ne pas pomper sur la batterie pour chauffer et mettre de la climatisation dans le véhicule.

Le troisième levier est de donner au véhicule des capacités à s'autocharger. Il existe ainsi différents moyens de récupération d'énergie, au freinage, notamment, les petits ruisseaux pouvant faire de grandes rivières. Aussi sommes-nous en train de développer des technologies pour que la voiture puisse se charger au maximum.

Pour conclure, le partenariat Renault/CEA a été signé en 2010. Nous nous sommes donné cinq ans pour élaborer la deuxième génération de véhicules électriques avec de nouvelles batteries. Nous sommes sur la bonne voie, avec une dynamique de brevets très importante, de l'ordre de cinquante par an, la capacité à générer de l'innovation et à la protéger étant un point essentiel dans la compétition mondiale. Nous avons également engagé un travail sur l'articulation entre le véhicule et les smartgrids , notamment au travers de bornes de recharge intelligentes, capables d'articuler au mieux des capacités de stockage des véhicules par rapport au réseau.

M. Christian Bataille, député, rapporteur . - La parole est à M. Didier Marginedes, conseiller du président du Groupe Bolloré, que je reçois avec d'autant plus de plaisir que nous avions cherché, avec Claude Birraux, à l'auditionner lors de notre réflexion sur la stratégie de recherche en énergie. Il avait alors décliné notre invitation en raison du secret industriel sur le développement en cours d'une nouvelle génération de batterie lithium/polymère. Il va nous présenter Autolib, un système de partage de véhicules électriques.

M. Didier Marginedes, conseiller du président du Groupe Bolloré . - Nous avons en effet développé une filière de batteries qui nous est propre, et je remercie l'intervenant précédant pour son cours de chimie et de nous avoir rappelé l'importance de la capacité, de la puissance de la batterie, comme de sa durabilité, son recyclage ou sa sécurité, points sur lesquels nous travaillons depuis une quinzaine d'années. C'est parce que nous sommes parvenus à un certain stade de performance que nous avons été retenus pour le projet Autolib, avec lequel la présence de véhicules dans les rues va devenir une réalité.

Ce projet a été lancé sur fonds propres voilà une vingtaine d'années. C'est la raison pour laquelle je n'avais pas répondu à votre invitation, notre président souhaitant conserver le secret sur ce sujet. Nous avons investi beaucoup d'argent sur ce projet, depuis de nombreuses années, avec l'argent du groupe et une volonté importante de Vincent Bolloré de travailler sur ce domaine.

Notre approche stratégique visait d'abord le développement de techniques de stockage d'énergie. Un véhicule électrique sans une batterie qui a des performances importantes n'existe pas. Pour mémoire, en 1899, un véhicule électrique a été mis au point, qui a dépassé les 100 km/h. Il avait pour nom la « Jamais Contente », et a lutté contre le véhicule thermique. Il ne s'est pas développé en raison d'un rendement insuffisant. En revanche, le pétrole s'est fortement développé, un kilogramme de pétrole représentant trois cents fois plus d'énergie qu'un kilogramme de batterie plomb, soit 10 kWh d'énergie contenue dans le premier, contre 30 Wh pour le second.

Aujourd'hui, nous disposons de batteries dotées de 100 à 120 Wh/kg. Dit autrement, faire un kilomètre exige un kilogramme de batterie. L'autonomie du véhicule électrique tel qu'on peut l'envisager à un horizon prévisible sera donc limitée. Mais c'est une étape importante qui a été franchie, la « Jamais Contente II », développée par Gildo Pastor, ayant dépassé les 500 km/h.

Cela dit, nous avons travaillé sur deux systèmes de stockage d'énergie, les batteries et les supercondensateurs, utilisés dans les systèmes stop/start, dont toutes les voitures seront équipées. Le système stop/start ? C'est le début de l'électrification du véhicule. C'est à dire qu'une voiture s'arrête au feu rouge, permettant ainsi d'éliminer la consommation du moteur pendant cette période.

Dans les années 1998-1999, où nos batteries avaient atteint un certain degré de performance, on n'a pas trouvé beaucoup de constructeurs automobiles intéressés par le véhicule électrique.

Notre président a donc décidé d'investir dans un véhicule électrique construit autour de la batterie, et pas de l'électrification d'un véhicule existant. Nous avons réfléchi au poids du véhicule, point critique, étant entendu qu'à des vitesses inférieures à 50 km/h, c'est essentiellement le poids qui consommera de l'énergie. Nous avons également réfléchi aux auxiliaires, qu'il faut minimiser. Dès que vous consommez un kWh, vous ne disposez plus d'un moteur thermique qui fournit de la chaleur gratuitement. Il faut payer pour toutes les énergies, ce qui suppose d'optimiser la consommation énergétique et de réfléchir à l'intérêt d'un certain nombre de fonctions de confort. Nous avons aussi travaillé sur une chaîne de traction adaptée à notre véhicule et à notre batterie, en l'absence de traction performante. Il a donc fallu intégrer toutes les lois de conduite d'un véhicule électrique.

Ce faisant, nous avons été retenus pour le projet Autolib, disposant d'une solution complète d'électro-mobilité, avec bornes de charge, de location, d'abonnement, un système de supervision complet pour optimiser la disponibilité des véhicules, et un système d'information qui permet d'assurer la facturation des services.

Quel est le paysage du véhicule électrique ? Il va du stop/start jusqu'au véhicule totalement électrique. Entre les deux, se trouve une maille d'hybrides, avec récupération d'énergie au freinage. Il s'agit là d'un gros consommateur et producteur d'énergie, ce qui suppose d'être en mesure de récupérer l'énergie à temps, la quantité d'énergie variant selon le degré du freinage, étant entendu, sécurité oblige, que vous ne différerez pas le freinage pour récupérer de l'énergie. Le « full hybrid », comme la Prius, permet d'ajouter quelques kilomètres électriques. Le « plugin hybrid », lui, commence à disposer d'une énergie stockée importante, de l'ordre de quelques kWh, ce qui permettra au véhicule de faire une dizaine de kilomètres en tout électrique. Et l'on finit par le véhicule tout électrique, disposant d'encore plus d'énergie, issue de la batterie, qui pourra faire de 200 à 300 km, suivant la capacité de la batterie et ses performances.

Il est important d'avoir ce paysage en tête. Si l'on veut réduire notre consommation et notre production de CO 2 , tous ces domaines doivent se développer. Disposer de millions de véhicules en stop/start permet déjà de gagner quelques grammes de CO 2 . Multiplier par des millions, les chiffres sont non négligeables.

Sans revenir sur l'électrochimie, je veux simplement rappeler les points importants que sont la sécurité et la performance de la batterie, et son intégration dans un pack qui a une intelligence, pour assurer l'optimisation de sa charge, de sa décharge , de sa durée de vie, et veiller en permanence à son état de santé. La batterie étant à l'extérieur, elle va subir des variations climatiques, être utilisée un jour pour faire 10 kilomètres, un autre pour en faire 100. Les états de charge seront donc complètement différents, situation qui n'est pas celle des batteries d'ordinateurs ou de téléphones portables, qui restent à température ambiante et ont des performances qui varieront en capacité. Bref, le cahier des charges est très particulier pour la batterie du véhicule électrique, très difficile à tenir.

Pour réaliser ces batteries, nous disposons de deux usines, nous permettant de construire 5 000 packs de batteries en Bretagne, et 7 500 au Canada, soit un nombre conséquent de voitures. Nous avons mis au point deux véhicules : celui que nous avons construit avec Pininfarina et un bus qui commence à rouler au Luxembourg et à Laval. C'est un petit bus de ville, avec un plancher très bas, qui permet un accès facile aux personnes à mobilité réduite ou avec poussettes. Ce bus de 8,50 mètres peut contenir 22 personnes, avec une autonomie de 120 kilomètres. Ses batteries situées sur le toit contiennent 90 kWh. Par comparaison, une voiture en contient 30. La régénération au freinage est très élevée, dans la mesure où la vitesse du bus est limitée, le freinage électrique étant bien développé dans un bus.

Le véhicule individuel pèse moins de 1 100 kg, étant entendu que du chemin reste à parcourir pour atteindre 800 kg. Sa vitesse est limitée à 110 km/h. Son accélération est conséquente, et son autonomie est de l'ordre de 250 km en cycle urbain.

Autolib est une solution intégrée et complète, d'autopartage.

Il s'agit d'un service public de location de point à point. Vous prenez un véhicule au point A, vous le rendez au point B, sans obligation de restitution du véhicule au point de départ. Les véhicules sont sans émission, sans bruit et sans odeur. 3 000 véhicules représentent une réduction estimée de 22 500 véhicules privés et plus de 150 millions de kilomètres par an parcourus par des véhicules propres.

C'est un service qui s'étend sur 46 communes : Paris et les communes limitrophes. Certaines devraient rejoindre le syndicat mixte dans les mois à venir pour compléter le panorama. Toutes ces villes sont équipées de bornes de recharge.

Trois types de bornes seront installées. Vous vous rendez à une borne d'accueil puis d'abonnement, muni de votre permis de conduire, d'une pièce d'identité et d'une carte de crédit. Puis on vous délivrera une carte RFID, qui vous permettra de vous identifier, de vous attribuer un véhicule et de vous réserver une place à l'arrivée. Une troisième borne sert à charger le véhicule. Lorsque vous prenez le véhicule qui vous a été attribué, vous le déconnectez de la borne, et la location commence. Celle-ci s'arrête lorsque vous reconnectez le véhicule au point d'arrivée.

Ce service, vous le voyez, est simple. Nous avons démarré le 2 octobre avec 66 voitures et 33 stations. Le premier jour, ce sont 1 500 personnes qui ont pu essayer les voitures, presque que des gens qui ont trouvé l'expérience positive. Ils ont préféré ce système au taxi, estiment qu'il ne pollue pas et qu'il leur permettra de remplacer une deuxième voiture. L'accueil a été favorable.

L'inauguration officielle aura lieu le 5 décembre, avec 250 stations et autant de voitures. En juin 2012, nous aurons déployé plus de 1 000 stations pour 2 000 voitures. En 2013, nous atteindrons 3 000 voitures, 1 200 stations et 6 000 places de parking. L'abonnement est de 12 euros par mois. La première demi-heure coûte 5 euros, la deuxième 4 euros, et les autres 6 euros. Un abonnement à la semaine coûte 15 euros, avec un prix de 7 euros pour la première demande, 6 euros la deuxième, et 8 euros pour les autres. Un abonnement découverte existe pour le touriste d'un jour, pour 10 euros. Il pourra utiliser sa voiture à raison de 7 euros la première demi-heure, 6 euros la deuxième et 8 euros les suivantes.

Ce dispositif fera travailler près de 1 000 personnes, dont 250 dans un centre opérationnel et 750 à 800 sur le terrain, pour répondre aux demandes des clients et rééquilibrer le parc. Nous ne savons pas encore comment les véhicules seront utilisés : l'expérience nous le dira. Quant à la charge, elle est lente, à hauteur de 3 kW, étant entendu qu'on disposera de 6 000 points de charge et qu'on optimisera en essayant de charger de nuit plutôt que de jour. Ce faisant, nous ne tirerons pas sur le réseau de façon inconsidérée. Notre véhicule sera soit en train de rouler, soit de se charger. S'il roule 20 heures par jour, d'aucuns diront qu'on n'aura pas le temps de le recharger. Mais dans un premier temps, on pense qu'il roulera de 8 à 10 heures par jour, ce qui nous laisse largement assez de temps.

Mme Florence Rodhain . - J'ai lu dans un journal scientifique que les voitures silencieuses posaient des problèmes pour les personnes aveugles, qui ne les entendaient pas.

M. Didier Marginedes . - A vitesse faible, c'est un fait qu'on n'entend pas le véhicule électrique. C'est pourquoi nous avons équipé la flotte d'un bruiteur, qui se met en marche à très faible vitesse. J'ajoute que l'absence de bruit constitue l'un des avantages du véhicule électrique.

M. Christian Bataille, député, rapporteur . - D'autres observations ? Mesdames, Messieurs, je vous remercie. Prochaines auditions, le 17 novembre, sur le bilan et les perspectives de la filière nucléaire, et le 24 novembre, sur les énergies alternatives, l'intermittence et le stockage.

M. Bruno Sido , sénateur, rapporteur . - La journée a été très instructive du début jusqu'à la fin. Ces auditions constitueront des apports importants pour notre rapport commun.

PERSPECTIVES DE LA FILIÈRE NUCLÉAIRE
Jeudi 17 novembre 2011

La sécurité nucléaire et l'avenir de la filière nucléaire

M. Bruno Sido, sénateur, rapporteur . - Je suis heureux d'ouvrir cette troisième audition de la seconde partie de nos travaux sur la sécurité nucléaire, la place de la filière et son avenir. Je remercie ceux qui ont accepté d'intervenir dans le cadre de cette audition, et ceux qui sont venus pour les écouter et les interroger.

A l'occasion de l'audition du 27 octobre dernier, nous avons pu constater combien les divergences entre les politiques de l'énergie de nos voisins étaient justifiées par leurs spécificités, par exemple, pour l'Allemagne, par ses importantes réserves en lignite. Lors de l'audition du 3 novembre, nous avons pu mesurer le chemin qui reste à parcourir pour atteindre une réelle performance énergétique des bâtiments. Nous avons pu jauger les effets des innovations, telle l'informatique ou le multimédia ou, demain, la voiture électrique sur notre consommation de courant électrique.

Aujourd'hui, nous allons essayer d'évaluer l'impact de la filière nucléaire sur notre économie, et de faire le point sur l'avenir à long terme de cette filière au travers des développements en cours sur les réacteurs de quatrième génération et, au-delà, sur la fusion nucléaire. Cette matinée débutera par une présentation de notre collègue Christian Bataille, rapporteur, qui s'est rendu avec Catherine Procaccia au Japon. Il va nous informer des conséquences sur la production énergétique de ce pays, de l'accident de la centrale de Fukushima, provoqué par un tremblement de terre suivi d'un tsunami d'une ampleur inattendue.

M. Christian Bataille, député, rapporteur . - Je me suis en effet rendu au Japon avec la sénatrice Catherine Procaccia. A mon sens, il est très important d'aller constater sur le terrain des réalités qui font l'objet de commentaires souvent peu avisés, reposant sur une information incomplète.

Le rapporteur donne ensuite lecture de la note, annexée au rapport, sur « les principaux enseignements de la visite au Japon du 18 au 22 octobre ».

M. Bruno Sido , sénateur, rapporteur . - Je vous remercie. Je me tourne à présent vers notre collègue Catherine Procaccia qui a participé à ce déplacement : souhaitez-vous compléter la présentation faite par M. Bataille ?

Mme Catherine Procaccia , sénateur . - Ce voyage a été très instructif. Comme l'a rappelé M. Bataille, nous avons rencontré les principaux intervenants, à la fois sur le plan politique, mais aussi technique. Nous sommes arrivés au moment de leur « N20 » - sorte de G20 - une rencontre qui existe depuis dix-huit ans entre les intervenants nucléaires français et japonais. Cela nous a permis d'échanger avec les Japonais et les Français, sans compter tous les entretiens prévus.

J'ai été frappée par la façon dont les Japonais abordent les conséquences de Fukushima et le sens collectif des responsabilités dont ils font preuve dans cette situation. Sans doute peut-on l'expliquer par la culture japonaise. Encore faut-il souligner que l'opérateur Tepco a fait preuve de négligence. D'une part, un tsunami d'une telle ampleur était déjà survenu au XIX e siècle ; d'autre part, des fuites sur les piscines étaient déjà intervenues. Aussi la transparence de Tepco est-elle très discrètement remise en cause par les autres opérateurs électriques.

L'arrêt des centrales nucléaires a pu être compensé par un effort de solidarité nationale. Les particuliers, comme les entreprises, ont joué le jeu pendant toute l'année 2011. D'aucuns craignent que les black-out, qui ne manqueront pas d'arriver en 2012, faute de centrales, ne provoquent une hausse importante du prix de l'électricité. Les Japonais, rappelons-le, importent massivement, sans avoir pu négocier, des énergies fossiles. Cette situation serait d'autant plus inquiétante que l'acceptation des efforts serait moindre.

Sur le plan de l'emploi, on observe peu de mouvements. Les salariés qui travaillaient dans les centrales sont tous encore employés à de la maintenance ou des travaux. Dans la centrale que nous avons visitée, en particulier, tout le personnel est sur place pour effectuer des travaux. Si en avril ou mai, aucune des centrales ne redémarre, des licenciements se produiront, qui s'agrégeront à ceux liés à la crise économique au Japon. L'économie japonaise, il faut le souligner, est une économie industrielle. Elle aura du mal à supporter une deuxième année de croissance économique ralentie. L'IEEJ ( Institute of Energy Economics, Japan ) a évalué la diminution du PIB à 1,6 % pour 2012 si les centrales redémarraient. Sans redémarrage, celui-ci diminuerait d'environ 3,6 %.

Les Japonais mesurent donc bien les conséquences économiques et sociales de l'arrêt complet du nucléaire. M. Bataille l'a bien souligné : nous avons été frappés par le système de prise de décision. C'est ainsi que le Premier ministre qui s'était déjà déclaré plutôt anti-nucléaire, a pris la décision d'arrêter progressivement toutes les centrales nucléaires. Ce sont les maires et les gouverneurs de province qui doivent donner leur autorisation au redémarrage des centrales. Les processus sont beaucoup moins formalisés et organisés qu'en France.

Nos interlocuteurs japonais semblent nous dire que les positions des maires et des gouverneurs des provinces seraient bien plus variées que ce que laisserait supposer la décision d'arrêt de l'ensemble des réacteurs. Ils placent leurs espoirs dans le nouveau Premier ministre, M. Yoshihiko Noda, qui semble vouloir ramener le gouvernement à une position plus neutre.

La conclusion principale que je tire de ce voyage est que nous avons la chance, en France, de disposer d'une autorité de sûreté nucléaire indépendante, l'ASN ; au Japon, ce type de décision n'est que politique, qu'il s'agisse de politique locale ou nationale.

M. Bruno Sido , sénateur, rapporteur . - Je vous remercie et j'ouvre maintenant le débat.

M. Christian Bataille, député, rapporteur . - Je précise nous vous communiquerons notre présentation, à laquelle nous devons apporter quelques rectifications de détail, notamment sur la dichotomie entre le nombre d'évacués et de réfugiés, et les dimensions de la zone d'exclusion. La situation japonaise, j'insiste, est méconnue dans notre pays, alors que le Japon sera confronté par la force des choses, dans les mois qui viennent, à l'arrêt de toutes ses centrales nucléaires. Il devra alors faire face à une situation très difficile.

M. Bernard Tardieu, Académie des technologies, membre du comité d'experts . - A propos de la stratégie sur l'énergie fossile, vous n'avez pas fait état d'importations importantes de charbon, matière relativement disponible dans la zone. Par ailleurs, d'aucuns estiment que le prix du gaz sur le marché spot est bas. Or vous avez souligné qu'il n'avait pas été possible de négocier les achats de gaz et que le prix du gaz est élevé. Selon le niveau du prix du gaz et du charbon, l'impact économique sur le prix de l'électricité variera considérablement.

M. Christian Bataille, député, rapporteur . - Nous nous sommes surtout intéressés à la situation nucléaire, l'objectif de notre voyage n'étant pas de nous livrer à une étude approfondie de l'approvisionnement énergétique du Japon. Il faut donc prendre avec réserve les propos que vous avez évoqués, qui reproduisent ce qu'on a entendu au détour d'entretiens. J'ai cité les hydrocarbures, le Japon étant déjà très dépendant du charbon importé. Il sera amené à augmenter ses importations de charbon, cette matière représentant 25 % du bouquet énergétique, contre 27 % pour le gaz. Le Japon aura recours aux approvisionnements qui sont déjà les siens, en augmentant considérablement les quantités.

Mme Catherine Procaccia , sénateur . - Nos interlocuteurs nous ont dit qu'après la décision d'arrêt des centrales, ils se sont précipités sur les marchés, quels qu'ils soient : Indonésie, Australie, Moyen Orient. Ils n'avaient pas encore eu le temps de négocier, du moins pour 2011 ?

M. Bruno Sido , sénateur, rapporteur . - L'heure est venue d'aborder notre première table ronde. - La filière nucléaire française trouve son origine dans la création, dans l'immédiat après-guerre, du Commissariat à l'énergie atomique par le Général de Gaulle. S'il a décidé de doter notre pays de cet outil de recherche scientifique dédié à l'étude de l'atome, c'est qu'il le jugeait indispensable au maintien de notre indépendance nationale. L'histoire lui a donné raison. D'abord, bien évidemment, sur le plan de nos forces armées, mais aussi, après le premier choc pétrolier, pour notre indépendance énergétique.

Lors de notre précédente audition, Christian Bataille s'est interrogé sur la situation qui serait aujourd'hui celle de notre pays si, du début des années soixante-dix jusqu'à ce jour, nos gouvernants successifs, toute tendance politique confondue, n'avaient pas eu le courage de maintenir le cap fixé en 1945 par le Général de Gaulle. Au cours de cette première table ronde, nous allons essayer d'appréhender l'importance de la filière nucléaire pour notre pays sur le plan économique, mais aussi environnemental. A cette fin, nous allons entendre les principaux acteurs scientifiques et industriels de la filière, c'est-à-dire le Commissariat à l'énergie atomique et aux énergies alternatives, EDF et Areva.

Cet exercice d'évaluation est hautement périlleux, bien entendu, comme l'a montré il y a quelques jours la bataille des chiffres dont les médias se sont fait l'écho. Le cas échéant, les questions qui suivront leur exposé permettront à chacun de leur demander les éclaircissements qui apparaîtraient nécessaires sur les chiffres avancés.

Bilan de la filière nucléaire

M. Bruno Sido , sénateur, rapporteur . - Pour ouvrir cette table ronde, la parole est à M. Jean-Guy Devézeaux de Lavergne, directeur de l'Institut de technico-économie des systèmes énergétiques, I-tésé (CEA/DEN), qui traitera des principaux aspects économiques de la filière nucléaire.

M. Jean-Guy Devézeaux de Lavergne, directeur de l'Institut de technico-économie des systèmes énergétiques . - Il s'agit essentiellement de deux types d'enjeux : ceux du parc existant et ceux du parc futur. Ils se cumulent peut-être dans la perspective qui anime la réflexion de certains, d'une évolution forte du bouquet énergétique.

Cela dit, je traiterai surtout du parc futur, M. Jean-Paul Bouttes devant traiter du premier sujet. Combien coûte le nucléaire ? Combien coûtera-t-il ? Combien coûteront les prochains réacteurs ?

Une étude a été réalisée en 2010 par l'AEN et l'AIE, étude qui classe par grandes zones dans le monde les mérites microéconomiques relatifs des différentes formes de production d'électricité. On constate que le nucléaire est l'énergie la moins chère ou parmi les moins chères. En Asie, le nucléaire en développement est la source d'énergie électrique la moins chère en base.

En matière de durabilité, le coût de l'uranium dans le coût du kilowattheure est marginal, de l'ordre de 5 %. En matière de réserves énergétiques, on constate que le charbon représente la moitié de l'ensemble, le nucléaire, moins de 10 %. Demain, avec les nouvelles technologies, le nucléaire permettrait de disposer de réserves de plusieurs milliers d'années au taux actuel de consommation.

Les coûts des réacteurs sont relativement divers. Selon les zones, les réalités sont assez différentes, les spécificités des pays étant marquées, qu'il s'agisse des coûts locaux, des contraintes de site ou du droit du travail. On évalue le coût d'un réacteur EPR à environ 6 milliards d'euros, étant entendu qu'on peut estimer à 3,5 milliards d'euros un EPR fabriqué en Chine.

De tels coûts sont en hausse, et pour diverses raisons. Néanmoins l'accumulation d'expérience que les industriels sont en train de constituer sera un facteur déterminant dans leur baisse. Ces coûts ont augmenté de plusieurs dizaines de points de pourcentage. Encore faut-il rappeler que le coût des centrales à charbon ou des centrales à gaz a également augmenté de manière significative.

Dans les années qui viennent, on peut identifier plusieurs défis, qui ont trait aux retours d'expérience, à des retours sur la façon de construire les réacteurs. La standardisation jouera à coup sûr un rôle important, comme l'effet de série, qui se développera. Il y aura des effets d'échelle et des duplications. Le rodage du dialogue avec les autorités de sûreté contribuera à réduire les délais.

La conjoncture économique a déjà changé depuis deux ans : une moindre pression sur les matières premières, les coûts de l'énergie, l'ingénierie internationale. Par contre, des tensions s'exercent sur les taux d'intérêt, suivant les zones mondiales.

A long terme, le facteur le plus important est la R&D. Le nucléaire est une industrie de progrès technique, qui se traduit dans nombre de dimensions, comme l'augmentation du taux de combustion ou la réduction du volume des déchets radioactifs. Je pense en particulier aux déchets de moyenne activité à vie longue (MAVL), puisqu'on constate, en France, un rapport de 50 au kilowattheures produit, en termes de volume, entre la deuxième et la troisième génération. Tous ces progrès vont se poursuivre dans le futur et contribueront à la réduction des coûts. De nombreuses pistes de travail sont en cours d'étude, notamment au CEA.

Cela dit, où se place le nucléaire vis-à-vis de ses principaux compétiteurs ? Je parlerai essentiellement du gaz, et non du charbon qui, dans la perspective européenne, n'est pas l'énergie qui nous permettra d'aller vers l'objectif de réduction des émissions de CO 2 d'un facteur quatre d'ici 2050 (scénario facteur IV). Le gaz pourra être un point intermédiaire, sans doute pas pour la France. Quant aux énergies renouvelables, M. Bouttes en parlera.

De fait, la concurrence est vive entre le nucléaire et le gaz. Même si le gaz peut apparaître peu cher dans certaines zones, notamment aux États-Unis avec les gaz de schistes, plusieurs questions méritent d'être évoquées. Je pense en particulier à un engagement aussi long en matière de gaz que dans le nucléaire lorsqu'on développe des politiques d'approvisionnement en électricité, compte tenu des aspects réseaux et contractuels. Aussi certains pays se retrouvent-ils en situation de « lock-in », comme l'Allemagne qui a dans ces cartons nombre de constructions de centrales à gaz. Mais elle risque de rencontrer de sérieux problèmes d'évolution vers le facteur IV si elle construit un nombre significatif de grosses centrales à gaz. Une fois qu'elles seront installées, il ne sera évidemment plus question de les arrêter avant plusieurs dizaines d'années.

Autres facteurs : la volatilité des prix du gaz et leur augmentation annoncée ; une place très importante de ce prix dans le coût de production de l'électricité nous rendrait très vulnérables en termes de variabilité, à la différence du nucléaire ; des émissions de CO 2 qui restent significatives, de l'ordre de la moitié de celles des émissions de centrales à charbon, et des conséquences en matière de sécurité d'approvisionnement.

Pour l'Europe, si le gaz peut être choisi par certains, une telle option n'a guère de sens pour la France.

Un mot sur les évolutions du prix du gaz. En la matière, tout laisse à penser que l'avenir ne sera pas calme, que les augmentations tendancielles s'empileront, rendant la compétitivité du gaz défavorable.

S'agissant des énergies nouvelles et renouvelables, la plupart des projections reposent sur les coûts totaux de ces énergies qui restent supérieurs à ceux du nucléaire, avec peut-être un bémol sur l'éolien terrestre, qui pose cependant un certain nombre de questions, notamment en matière de réseau.

J'en viens à quelques éléments de conclusion. En premier lieu, le nucléaire existant en France est compétitif, et même très compétitif. C'est un point acquis, et un avantage très significatif pour notre pays.

Pour le nucléaire futur, les études internationales montrent qu'il est compétitif, dans la meilleure zone de compétitivité vis-à-vis de ses concurrents directs, notamment le gaz, des nuances devant être apportées selon les pays. Il est bien placé en France, en ayant passé cette phase de début de la génération III. Bien évidemment, le coût microéconomique n'est pas le seul facteur qui déclenche les investissements. On le voit bien dans le cas du Japon, ou de l'Allemagne. Il faut aussi insister sur l'appréciation du partage des risques entre les différents acteurs et les États.

Par ailleurs, tout écart par rapport à l'optimum économique est susceptible d'induire rapidement des coûts qui, pour un pays comme la France, se chiffrent en centaines de milliards d'euros. Les ordres de grandeur, on le voit, sont extrêmement importants. Il faut bien sûr continuer à viser cet optimum, de très nombreux scénarios s'en écartant résolument. Il comportera sans doute une part d'énergie nouvelle et renouvelable. Devant nous, nous avons encore des travaux de développement technologique, de R&D, pour que ces énergies nouvelles et renouvelables pénètrent. Nous avons bien évidemment aussi encore devant nous des travaux de R&D pour améliorer le nucléaire. Le CEA travaille dans ces deux directions.

Le concept d'optimum microéconomique peut être discuté. Reste qu'il est intéressant. La théorie microéconomique standard nous dit que si une énergie s'avère être la plus compétitive en base, il faut remplir toute la base avec cette technologie. L'optimum économique est là. Autrement dit, pour un pays comme la France, où le nucléaire est l'énergie la plus compétitive en base, il faut conserver cette base. Si on la réduit, les compteurs commencent à s'incrémenter, avec des coûts qui se chiffrent en centaines de milliards d'euros.

M. Bruno Sido , sénateur, rapporteur . - La parole est à M. Jean-Marc Miraucourt, directeur de l'ingénierie nucléaire d'EDF, pour évoquer le plan de mise à niveau des centrales nucléaires du parc français récemment annoncé, et ses conséquences économiques, notamment en termes d'emploi. Il va aussi comparer ces conséquences avec celles d'une décision de démantèlement anticipé du parc.

M. Jean-Marc Miraucourt . - La durée de fonctionnement des centrales nucléaires est un enjeu industriel majeur pour la filière.

Premièrement, les enjeux liés à la durée de fonctionnement. Le parc français est caractérisé par une mise en service massive dans les années 80, avec 50 000 mégawatts mis en service en dix ans. C'est un parc jeune, en moyenne vieux de 25 ans, pour un domaine de conception technique initiale de 40 ans. Sa durée de vie à 40 ans est techniquement largement acquise, en cours d'obtention en France sur le plan réglementaire, réacteur par réacteur, par un processus de réexamens décennaux de sûreté. Pour l'heure, les premières tranches mises sur le réseau, les premiers réacteurs 900 mégawatts, sont l'objet d'un programme de troisième visite décennale à trente ans, dans le cadre de cette loi.

Si l'on extrapole cette tendance avec une hypothèse d'arrêt à 40 ans des centrales, on observe une décroissance symétrique de la part sur le réseau de 5 000 mégawatts par an à partir des années 2019-2020, et la nécessité de compenser à partir de 2009 cette perte de puissance, en rétablissant sur le réseau 5 000 mégawatts. Il s'agit de puissance installée, étant entendu qu'il ne faut oublier que ces 5 000 mégawatts fonctionnent de manière prédictible, avec un coefficient de disponibilité d'environ 80 %. C'est une donnée à prendre en compte dans l'hypothèse de centrales qui seraient stoppées après 40 ans de fonctionnement.

Cela correspondrait à un flux d'investissement annuel colossal, dont il faudrait s'occuper très activement dès à présent. Cela dit, je veux souligner la contrainte industrielle à cet horizon de temps. Les grandes filières industrielles, telles que les forges, les usines, les bureaux d'études et les chantiers d'intervention sur site, constitueraient un goulot d'étranglement, conduisant soit à des importations massives de matériels ou de savoir-faire, voire à des impossibilités industrielles, dans la mesure où il y aurait saturation de capacité de production, en France comme au plan mondial.

La cible technique de prolongation d'exploitation au-delà de 40 ans pour les réacteurs à eau pressurisée est très largement validée sur le plan international, particulièrement aux États-Unis. Dans ce pays, 112 réacteurs à eau pressurisée sont en fonctionnement. A ce jour, 60 d'entre eux ont obtenu une extension de leur licence d'exploitation de 40 à 60 ans dans des conditions techniques qui sont très proches de celles que nous avons prévues de mettre en place dans le cadre de notre projet industriel. Un programme est d'ores et déjà lancé aux États-Unis pour étendre à 80 ans la durée de ces réacteurs, avec en particulier des efforts de R&D dans le domaine de la durée de vie des cuves.

J'en viens au cadre réglementaire des réexamens de sûreté. Le nouveau cadre réglementaire, résultant de la loi sur la transparence et la sécurité nucléaire (dite TSN) du 13 juin 2006 et des décrets d'autorisation des réacteurs, ne fixe pas de durée de fonctionnement a priori . Il impose un processus de réexamen décennal. Tous les dix ans, la loi dispose que l'exploitant doit procéder à un réexamen de sûreté qui consiste à vérifier la conformité de l'état de ses installations, mais aussi à accroître la sûreté de ses centrales au travers d'un processus de réexamen de sûreté. C'est pourquoi, dans le cadre des examens complémentaires de sûreté post Fukushima, nous tirons tout le profit des augmentations de niveaux de sûreté vis-à-vis des séismes et des inondations, qui ont déjà été réalisés sur les réacteurs, en particulier les réacteurs 900 mégawatts, lors de leur deuxième et troisième visites décennales.

S'agissant de l'état des lieux, les centrales 900 mégawatts sont en train de connaître leur troisième visite décennale à trente ans. Les visites décennales à trente ans ont déjà été effectuées pour Tricastin 1, Tricastin 2, Fessenheim 1, Bugey 2, Bugey 4 et Dampierre 1. Sont en cours de réalisation Fessenheim 2 et Gravelines 1.

L'ensemble de ces réacteurs ont d'ores déjà connu une grande partie du grand carénage, à trente ans. Aussi sont-ils les matériels les plus rénovés du parc après ces troisièmes visites décennales.

Sur le plan réglementaire, la loi dit que l'autorité de sûreté remet un avis au ministre en charge de la sûreté nucléaire pour la prolongation ou l'exploitation des réacteurs, pour les dix années suivant leurs visites décennales. En novembre 2009, un avis générique positif de l'ASN a été prononcé pour l'ensemble du palier 900 mégawatts. Nous travaillons sur des réexamens qui ont été standardisés, notre politique tendant à mettre au même niveau de sûreté l'ensemble des centrales d'un même palier. Conformément à la loi TSN, l'ASN se prononce réacteur par réacteur. A ce jour, elle s'est prononcée sur deux réacteurs, émettant un avis positif sur leur aptitude à fonctionner pour dix ans supplémentaires, à savoir les réacteurs de Tricastin 1 et de Fessenheim 1.

En parallèle à ce processus, se déroule l'exercice d'examen complémentaire de sûreté, qui n'est pas lié à la durée de fonctionnement, mais aux conditions de protection des sites vis-à-vis des séismes et des inondations.

Les points clés pour la durée de fonctionnement sont au nombre de deux. Il s'agit premièrement d'un grand carénage, d'une rénovation des gros matériels de la centrale. Sur le plan international, comme en France, cette opération doit avoir lieu aux alentours de trente ans. Elle concerne les générateurs de vapeur, les alternateurs, les transformateurs et des matériels de ce type.

Cet investissement s'impose à trente ans. Le fait de retarder certains investissements, on l'a bien vu en France, entraîne une perte de disponibilité du parc nucléaire dans les années précédentes. Cette année, le fait d'avoir entamé ce grand carénage et d'avoir rattrapé les investissements se traduit d'ores et déjà par une amélioration du coefficient de disponibilité des centrales, qui pourra être constatée fin 2011.

Le deuxième point clé est le « saut de sûreté », à réaliser à 40 ans, pour mener les réacteurs jusqu'à 60 ans, cible correspondant à ce jour à une pratique industrielle courante, en particulier aux États-Unis.

J'en viens aux besoins d'investissement pour aller à soixante ans. En matière de maîtrise technique du vieillissement, on distingue les composants non remplaçables des composants remplaçables. Pour les premiers, on tire profit des meilleures connaissances scientifiques de leur comportement dans le temps, mais aussi des précautions d'exploitation prises. Ainsi pour la cuve, l'on a appris, depuis le démarrage des centrales, à mieux positionner les assemblages de combustibles en son sein, réduisant ainsi le vieillissement dû aux flux neutroniques venant des assemblages combustibles vers l'acier de la cuve.

S'agissant du grand carénage, les générateurs de vapeur sont sans doute les composants les plus importants que nous remplaçons. Jusqu'à ce jour, 20 réacteurs  900 mégawatts ont connu le remplacement de leur générateur de vapeur, dont les deux réacteurs de Fessenheim. Les deuxièmes gros composants sont les alternateurs et transformateurs de puissance. Sur Tricastin et Fessenheim, l'ensemble de ces travaux ont été réalisés. On rappellera que ces travaux sur la centrale de Fessenheim, qu'on vient de terminer pour le réacteur numéro 2, représentent l'équivalent de 300 millions d'euros par tranche.

S'agissant des modifications de sûreté, l'autorité de sûreté nous a fixé comme objectif que les études de sûreté pour aller à soixante ans soient conduites au regard des objectifs de sûreté applicables aux nouveaux réacteurs, comme l'EPR. C'est dans cet esprit que nous avons développé ce programme, entamé en 2007 et 2008. On notera qu'il est très cohérent avec nos premières conclusions sur l'accident de Fukushima. Le renforcement de la protection des centrales, en matière d'aléas naturels - séismes, inondations, canicules - demeure l'un des axes majeurs de notre programme industriel pour aller au-delà de quarante ans. La maîtrise des accidents graves reste un élément majeur d'amélioration de la sûreté des centrales existantes.

S'agissant de Fukushima, les examens complémentaires de sûreté ont confirmé qu'il n'y avait pas de lacune significative dans le niveau de protection des centrales en France vis-à-vis des séismes et inondations, et que ce niveau de protection est satisfaisant. Sur ce point, on tire tout l'impact positif des réexamens successifs, en particulier après l'incident qui s'était produit à la centrale du Blayais. L'intégralité des protections des systèmes de sauvegarde avait alors été réhaussée à la suite de ces examens de sûreté.

Fukushima nous a amenés à regarder au-delà du domaine de dimensionnement des centrales et à définir, de façon déterministe, un noyau dur de matériels robustes qui concourrait à faire face à des situations où, malgré les marges prises, les protections se seraient avérées déficientes. Vis-à-vis des accidents graves, cet exercice nous a amené à prendre en compte une gestion de crise multi-tranches, avec notamment le renforcement des moyens de crise, au travers d'une force d'action rapide nucléaire. Tout cela est cohérent avec les axes du programme de durée de fonctionnement que nous avions lancé dès 2008. Le retour d'expérience de Fukushima nous confirme dans nos choix, en nous incitant à développer plus rapidement que nous ne l'avions prévu ces améliorations de sûreté complémentaires.

Ce programme induit un projet industriel très ambitieux, qui exige des investissements très importants pour la durée de fonctionnement, amplifiés et accélérés, pour prendre en compte le retour de l'accident de Fukushima, dont la réussite repose sur la mobilisation de nos fournisseurs, pour répondre à une augmentation significative de leurs charges. En 2010-2011, nous en sommes à près de 2 milliards d'euros d'investissements de maintenance, en particulier pour le changement de gros composants sur le parc. Ce programme pourrait doubler d'ici les années 2015-2016, pour atteindre 4 milliards d'euros sur le parc.

Ce projet industriel est une opportunité considérable pour l'industrie française, représentant plusieurs dizaines de milliards d'euros sur dix ans. Il s'agit de retrouver un rythme d'investissement, de construction et d'activité industrielle qui se rapproche de la construction du parc dans les années 80. Pour EDF, la clé de la réussite est d'établir des programmes très importants en taille et en durée, en donnant de la visibilité à l'industrie, pour l'inciter à investir dans les capacités de production et dans le recrutement. La dimension de bureau d'étude, de fabrication, et d'intervention sur site, est capitale pour la réussite de ce programme. Il s'agit d'organiser et de développer le tissu industriel français dans le respect du droit européen, en respectant les règles de concurrence. L'avantage du tissu industriel français est de connaître parfaitement nos centrales, de les avoir construites pour la plupart, et de participer très fortement à leur maintenance, depuis 30 ans pour les plus anciennes.

En conclusion, il s'agit d'un enjeu de politique énergétique nationale, d'un programme technique défini, et d'une cible déjà largement validée à l'international. Après Fukushima, les modifications prédéfinies en 2008 restent pertinentes. Le programme post Fukushima est en cours d'instruction par l'autorité de sûreté. Nous avons exposé ce programme au groupe permanent les 8, 9 et 10 novembre derniers. Bref, c'est un projet stratégique pour l'entreprise et l'ensemble de la filière industrielle française.

M. Bruno Sido , sénateur, rapporteur . - La parole est à M. Raphaël Berger, directeur des études économiques d'AREVA, qui traitera de l'impact économique de la filière, et plus particulièrement des perspectives à l'export avant et après Fukushima.

M. Raphaël Berger . - Je souhaite avant tout remercier l'Office de permettre à AREVA de s'exprimer, étant entendu que nous n'avons pas vocation à nous substituer au politique dans le débat énergétique actuel. Cela dit, nous n'hésiterons pas à y contribuer, au niveau qui est le nôtre, celui d'un grand groupe industriel public.

Au-delà de la fourniture abordable, sûre et respectueuse de l'environnement, l'objectif de la politique énergétique doit être de développer des filières énergétiques nationales. Il s'agit à la fois de promouvoir l'emploi, l'activité économique, de préserver la balance commerciale et de contribuer au rayonnement du pays sur la scène internationale.

Dans un premier temps, je souhaite mentionner une étude qui a été réalisée à l'initiative d'AREVA par le cabinet PricewaterhouseCoopers (PwC) sur le poids socioéconomique de l'électronucléaire en France. Cette étude a été réalisée de manière totalement indépendante par PwC, à l'initiative d'AREVA, pour fournir, grâce à une méthodologie robuste, des éléments quantitatifs sur la place du nucléaire dans l'économie française. Il s'agissait de fixer une photographie de l'industrie française et de réaliser une projection de son évolution possible dans les prochaines décennies.

Le développement de notre parc électro-nucléaire a permis d'assurer à l'industrie française une position de leadership mondial sur tous les maillons de la chaîne de valeur. Sont présents dans cette salle les trois principaux donneurs d'ordre de cette filière française : premièrement EDF, le plus grand exploitant de centrales nucléaires au monde, avec un parc installé de plus de 70 gigawatts; deuxièmement AREVA, qui a développé un modèle intégré, leader sur les marchés de la construction de nouvelles centrales nucléaires, et contribué à installer plus du quart du parc historique de centrales, de l'ordre de 100 gigawatts, mais aussi leader sur le marché des services aux centrales installées et sur le cycle du combustible nucléaire ; troisièmement le CEA, un des organismes de recherche les plus expérimentés et reconnus au monde, point fondamental, dans la mesure où la recherche permet la pérennité de long terme de la filière nucléaire et de son avance technologique.

Cette filière n'entraîne pas que des donneurs d'ordre. On dispose de plusieurs milliers de fournisseurs. Parmi eux, PwC a dénombré environ 500 entreprises qui sont parties intégrantes de la filière, au sens où elles ont développé des savoir-faire spécifiques dans le nucléaire, dont 20 % de PME.

Pour l'économie nationale, PwC a dénombré 125 000 emplois directs - ceux des entreprises de la filière - soit à peu près autant que l'aéronautique, soit encore 4 % des emplois industriels en France. A ces emplois directs, il convient d'ajouter les emplois de nos fournisseurs, et ceux soutenus par la consommation des employés de la filière, soit un total de 410 000 emplois - 2 % de l'emploi français. En termes de contribution à la valeur ajoutée, au PIB, l'industrie française génère une valeur ajoutée de 34 milliards d'euros annuellement, soit 2 % du PIB national. J'ajoute que l'implantation du nucléaire est essentiellement locale, autour des installations nucléaires, implantation qui contribue au développement de bassins d'emplois, soit un tissu très dense de fournisseurs et d'employés, comprenant des « clusters » locaux. Je pense à la Bourgogne, pour la fabrication de gros composants, à la Basse Normandie, pour les activités de retraitement. L'usine d'AREVA à La Hague assure ainsi près de 20 % des emplois du Nord Cotentin, ce qui en fait le premier employeur de la région.

Cela dit, La filière française a une très forte contribution à l'export. En 2010, le groupe AREVA a réalisé plus de 60 % de son chiffre d'affaires en dehors de France. Les autres PME de la filière sont particulièrement dynamiques et fortement exportatrices, plus que la moyenne des PME nationales. C'est ainsi que le pourcentage du chiffre d'affaires des entreprises françaises réalisé à l'international s'élève à 30 %, contre 50 % pour les PME de la filière nucléaire. Il faut ajouter les exportations d'électricité permises par le parc électronucléaire français, qui génère un bénéfice et améliore la balance commerciale de l'ordre de 2 à 3 milliards d'euros.

Les entreprises de la filière nucléaire exportent. Le nucléaire contribue à l'amélioration de la balance commerciale française. La facture pétrolière et gazière en France s'élève à 45 milliards d'euros pour 2010, soit 90 % du déficit commercial de la France. C'est un chiffre qui n'est pas appelé à diminuer, notamment dans la mesure où le prix des hydrocarbures est appelé à augmenter à l'avenir. Ces filières continueront durablement à détériorer la balance commerciale du pays. A l'inverse, le recours à l'énergie nucléaire permet d'éviter une grande quantité d'importations de combustibles fossiles. Aussi, l'étude de l'UFE (Union française de l'électricité) évalue entre 25 et 30 milliards d'euros la dégradation de la balance commerciale imputable à une sortie du nucléaire. Si l'on considère la balance des biens et services, notre pays est dans les tout premiers exportateurs mondiaux d'équipements, avec un chiffre d'affaires de l'ordre de 6 milliards d'euros à l'export, soit un des postes les plus bénéficiaires en France.

En termes de potentiel, l'étude PwC nous montre que, où qu'elle soit, l'implantation d'un EPR créée des emplois et de la valeur ajoutée pendant près de 90 ans. C'est encore plus vrai en France, où la construction d'un EPR génère plus de 8 000 emplois sur le territoire national, et 650 millions d'euros de valeur ajoutée annuellement. C'est également vrai à l'export. Exporter un EPR peut générer un nombre d'emplois qui variera en fonction des capacités du pays où le réacteur est exporté, en fonction de son appétit pour une localisation d'une partie de la construction du réacteur. Pour PwC, une telle activité génère environ 4 000 emplois en France et 300 millions d'euros de valeur ajoutée. J'ai mentionné les emplois et la valeur ajoutée générée pendant la phase de construction. La filière nucléaire étant intégrée, elle contribue à la durée de vie des centrales, y compris exportées, avec des services de maintenance et du cycle de combustible.

Pour évaluer le potentiel de la France à l'export, il faut se pencher sur les perspectives du nucléaire à l'international pendant les prochaines années. Si l'accident de Fukushima réitère l'impératif de sûreté pour l'industrie nucléaire, les fondamentaux du secteur énergétique n'ont pas changé. La demande en énergie va croître mondialement. La sécurité d'approvisionnement restera une inquiétude pour les États. La préoccupation liée au changement climatique est toujours aussi prégnante. Dans le contexte actuel d'augmentation structurelle des coûts de l'énergie, et dans le contexte macroéconomique actuel, les questions de pouvoir d'achat des ménages et de compétitivité des industries sont encore plus fondamentales et doivent présider aux choix énergétiques.

L'accident de Fukushima n'a pas représenté un coup d'arrêt au nucléaire.

M. Yves Cochet, député . - Et l'Allemagne ?

M. Raphaël Berger . - En Europe, un très grand nombre de pays ont confirmé leur motivation à poursuivre leur programme électronucléaire, comme le Royaume-Uni, la Finlande, la République Tchèque, les Pays-Bas, la Bulgarie, la Hongrie, la Roumanie, la Suède et la Lituanie. Des pays comme la Suisse ou l'Italie se sont montrés plus réservés. Quant à l'Allemagne, c'est un cas isolé en Europe de par le caractère irrévocable de sa décision. Encore faut-il souligner que cette décision avait été prise dès 2001. L'Allemagne est donc revenue à une position ancienne sur le nucléaire. La Chine, elle, n'a absolument pas remis en cause, bien au contraire, la nécessité du nucléaire. Elle réfléchit au choix de sa technologie, ce qui est une bonne nouvelle pour les réacteurs comme l'EPR proposé par la filière française. L'Inde est dans une situation identique. Aux États-Unis, AREVA vient de signer un contrat pour achever la construction d'un réacteur en Alabama. Nous devons terminer la construction d'un réacteur au Brésil. Je pourrais aussi citer la Corée du Sud, la Russie et l'Afrique du Sud, parmi les pays émergents, qui ont fait état de leur souhait d'avoir recours au nucléaire et l'ont confirmé après Fukushima.

Ces déclarations se confirment dans les projections des organisations internationales, notamment de l'AIE, qui a publié la semaine dernière ses scénarios du World Energy Outlook , et qui prévoit une augmentation de 50 % du parc nucléaire d'ici à 2030. Ces projections tiennent compte de l'impact de Fukushima, mais l'augmentation n'est que de 2 % inférieure à la même prévision de l'année précédente. C'est bien la preuve que le nucléaire n'a pas subi un coup d'arrêt à la suite de Fukushima. Ce résultat sur la croissance du parc mondial, je le souligne, est en ligne avec les projections réalisées par AREVA et publiées cet été.

Si l'accident de Fukushima réitère l'impératif absolu de sûreté pour l'industrie nucléaire, on peut imaginer que l'EPR étant reconnu internationalement comme le réacteur le plus sûr du marché, cette exigence de sûreté réitérée constituera un avantage compétitif pour la filière nucléaire française à l'export.

D'ici à 2030, PwC estime que la filière française pourra bénéficier de 30 000 emplois directs supplémentaires, à comparer aux 125 000 emplois sur la période. Les 410 000 emplois soutenus par la filière pourront se transformer en plus de 500 000 emplois, augmentation de 20 % qui vaut aussi pour la valeur ajoutée.

Toutes ces données correspondent au potentiel de la filière française à l'international. Bien évidemment, les choix de politique énergétique auront un impact sur la façon dont la filière française sera capable de réaliser ce potentiel. Jean-Paul Bouttes interviendra sur les conséquences de la sortie du nucléaire en France. Elles seraient importantes en termes d'augmentation de prix de l'électricité, d'impossibilité à satisfaire nos engagements climatiques, de dégradation de sécurité d'approvisionnement, de disparition d'un grand nombre d'emplois et de poursuite de la désindustrialisation de la France.

Je m'attacherai, pour ma part, à l'impact sur le potentiel de la France à l'export. La filière française, il faut le rappeler, est positionnée sur un très grand nombre d'appels d'offres à l'international et dans des négociations pour la fourniture de réacteurs EPR. C'est le cas au Royaume-Uni, où EDF a sélectionné l'EPR pour la construction de réacteurs, en Chine, où l'électricien CGNPC pourrait ajouter deux réacteurs supplémentaires sur le site de Taishan où deux EPR sont déjà en construction. C'est le cas en Inde, où nous sommes en train de finaliser nos négociations pour la fourniture de deux EPR pour le site de Jaitapur. L'EPR est aussi présent sur tous les appels d'offres en cours ou à venir, au Royaume-Uni, en Finlande, en Pologne, en République Tchèque, en Inde et en Afrique du Sud. Bien évidemment, la filière française se positionnera quand les appels d'offres démarreront dans un certain nombre de pays comme la Suède, la Hongrie, la Turquie, l'Arabie Saoudite, le Brésil ou le Vietnam.

Les choix nationaux ont nécessairement des conséquences à l'export. Nous sommes positionnés sur un grand nombre de ces appels d'offres. Si la France devait entrer dans une politique de désengagement manifeste, toute l'industrie française serait privée de ventes des réacteurs à l'export. Les électriciens qui nous sollicitent et font appel à notre technologie le font parce qu'ils savent que nous sommes en mesure de les accompagner dans la durée. Les durées sont longues, l'EPR étant construit pour être exploité pendant au moins 60 ans. Si nous devions annoncer un désengagement de la France du nucléaire, les électriciens ne nous feraient plus confiance de par le monde pour les accompagner dans la durée. C'est toute l'industrie française qui se trouverait menacée.

A l'opposé, des pays comme la Russie, la Chine, la Corée du Sud et l'Inde se mettent en ordre de bataille pour gagner des contrats à l'export. Ils le font sur la base de compétences que leurs industries sont capables d'acquérir, parce qu'elles les ont acquises sur leur marché national. A l'inverse, Siemens a pris la décision de sortir du nucléaire, conséquence partielle de la nature de son marché domestique, rendant cette entreprise peu crédible à l'export.

En conclusion, l'industrie nucléaire française a de belles perspectives à l'export, dans la mesure où les choix de politique énergétique les lui permettent.

M. Bruno Sido, sénateur, rapporteur . - La parole est à M. Jean-Paul Bouttes, directeur de la stratégie et de la prospective d'EDF, qui va revenir sur la récente polémique qui a éclaté sur les conséquences d'un arrêt de la filière nucléaire. Il détaillera les conséquences économiques et environnementales des différents scénarios de politique énergétique.

M. Jean-Paul Bouttes . - Quels sont les principaux enjeux auxquels nous devons faire face ? Le premier enjeu : des besoins considérables à l'échelle de la planète, mais aussi la crise à laquelle les pays industrialisés doivent faire face. Tant pour les pays en développement que pour ceux de l'OCDE, disposer, pour faire face à ses besoins, d'une énergie sûre et à coût maîtrisé constitue un point clé. Le niveau des prix de l'électricité peut être un point clé pour les pays industrialisés dans un contexte de crise économique.

Le deuxième enjeu est la sécurité d'approvisionnement. C'est une vraie question pour le pétrole et le gaz, dont la rareté est certes un peu physique, mais pas tant que cela pour les cinquante ou cent ans qui viennent. En revanche, la rareté est surtout géopolitique, environnementale et économique. Plus on cherche du gaz et du pétrole, plus il faut creuser en profondeur, ce qui engendre des coûts supplémentaires. Pour vous donner un ordre d'idée, un prix de 90 dollars le baril correspond à un gaz à 15 $/Mbtu, soit le prix d'accès au niveau de la zone du Japon, un gaz très cher aujourd'hui.

L'impact sur la balance commerciale, en lien avec la sécurité d'approvisionnement, constitue un autre enjeu. En matière d'uranium, je rappelle qu'on distingue les réserves prouvées, qui pourraient permettre d'exploiter le parc existant environ 80 ou 100 ans, les ressources, dont nous sommes à peu près sûrs qu'elles existent, à des coûts relativement maîtrisés, dès lors qu'on s'y prend suffisamment à l'avance. Elles doivent permettre, selon les experts internationaux, d'exploiter un parc avec la génération II ou III, à peu près trois à quatre fois la puissance installée mondiale actuelle, ce qui nous laisse des perspectives pour les trente ou quarante ans qui viennent.

L'uranium, vous le savez, représente 5 % du coût complet, avec un contenu énergétique très fort, 1 gramme d'uranium représentant jusqu'à 100 000 tonnes de pétrole et l'on sait qu'il est beaucoup plus facile à stocker. Ce faisant, l'impact sur le prix de l'électricité est beaucoup plus faible. En termes de stock stratégique, il faut dépenser beaucoup pour avoir trois mois de stocks stratégiques de pétrole, alors qu'il est beaucoup plus simple de disposer de quelques années de stocks stratégiques d'uranium. Dès lors que l'on maîtrise l'ensemble de la filière et que l'on a la perspective de la génération IV, qui multiplie par 50 ou 60 ces perspectives, on peut être relativement serein et considérer que l'uranium et le nucléaire contribuent largement à notre sécurité d'approvisionnement.

S'agissant du charbon, les réserves physiques sont encore importantes, et j'ai envie d'ajouter hélas, compte tenu du troisième et dernier facteur que je veux mettre en avant, à savoir l'évolution du climat et l'impact en termes de CO 2 . Beaucoup de ressources physiques de charbon, donc, mais un problème majeur en matière d'émissions de CO 2 .

J'ajoute que la dernière publication de l'AIE revient sur ces deux ou trois points clés en insistant sur le fait que, malgré la crise économique, on a enregistré 5 % de croissance des besoins en énergie en 2010, une hausse considérable. Dans le même temps, les émissions de CO 2 ont augmenté de manière très significative, contrairement aux attentes, essentiellement parce que des centrales charbon et gaz se sont fortement développées en 2010.

S'agissant des enjeux climatiques, il faut préciser que la production d'électricité génère à l'échelle mondiale 40 % des émissions de CO 2 , contre 20 % pour le transport et 40 % pour l'industrie. En France, l'essentiel des émissions est lié aux transports et aux bâtiments. J'ajoute que le bouquet électrique mondial est composé de 40 % de charbon, 25 % de gaz et de pétrole, 15 % de nucléaire et autant d'hydraulique, et 2 à 3 % d'énergie renouvelable, soit un tiers d'énergie sans CO 2 . On a bien en tête qu'on peut faire la différence, au moins au niveau de l'électricité. La Suède et la France consomment respectivement 45 % et 75 % de nucléaire, 45 % et 15 % d'hydraulique, ces deux pays émettant 6 tonnes de CO 2 par habitant. L'Allemagne et le Danemark consomment 50 % de charbon. Même avec le développement des renouvelables, ils émettent 10 tonnes de CO 2 par habitant, les 40 % de différence étant dû à l'électricité.

Dans l'ensemble des discussions auxquelles nous participons à l'échelle internationale, l'électricité est bien le premier moyen de combattre les émissions de CO 2 . C'est probablement celui qui, si l'on s'y prend bien, nous permet de le faire de la façon la plus économique, en respectant le développement économique et la croissance. Comment parvient-on à réconcilier croissance, développement économique et respect de l'environnement ? Tel est l'enjeu principal.

Pour faire simple - la réalité étant plus complexe - on peut distinguer deux catégories de technologies, compte tenu du rythme majestueux de l'innovation technologique dans le secteur de l'électricité.

Les premières sont les technologies compétitives, ou quasiment, pour les quinze ou vingt ans qui viennent, technologies qu'il faut déployer massivement. Elles sont estimées en coût complet, et pour les pays développés, entre 60 et 100 euros par mégawatts heure, avec un prix du CO 2 compris entre 20, 30, ou 40 euros par tonne de CO 2 . Il s'agit du charbon supercritique, des cycles combinés à gaz, de l'hydraulique, des nouvelles centrales nucléaires et de l'éolien terrestre, proche de la compétitivité, qu'on peut développer tant qu'on ne bute pas sur les problèmes d'intermittence.

Les deuxièmes sont dans le pipeline de la R&D. Ce sont celles sur lesquelles il faut vraiment travailler, étant entendu qu'elles sont les options intéressantes pour demain, pour l'horizon 2030-2050, mais qui sont encore aujourd'hui deux à huit fois plus chères. L'objectif, bien évidemment, n'est pas d'en rester là. Il s'agit de la capture et séquestration du CO 2 - deux fois plus cher - de l'éolien en mer - deux à trois fois plus cher - du solaire à concentration - deux à quatre fois plus cher - du photovoltaïque - six à huit fois plus cher - et du nucléaire de génération IV, de l'ordre de 80 % plus cher. L'essentiel, en la matière, est de faire de la R&D, de construire des démonstrateurs, et de préparer la maîtrise des coûts.

Cela dit, l'enjeu est bien de développer les technologies pour opérer cette réconciliation entre exigences de respect de l'environnement et maîtrise des coûts, au bon endroit, au bon moment. De ce point de vue, il est intéressant de se rappeler que le mix électrique combine trois éléments qui, tant qu'on n'aura pas procédé à des percées technologiques sur le stockage de l'électricité, sont non pas concurrents, mais complémentaires. On a besoin d'une base, soit de l'ordre de 80 % de l'électricité de base, de pointes, essentiellement des turbines à combustion ou de l'hydraulique de barrage. Il est également utile de disposer du développement des énergies intermittentes que sont les éoliennes et le photovoltaïque. Tant qu'on ne dispose pas de percée technologique sur le stockage, il y a complémentarité entre ces technologies. Pour la base, on peut dire que les technologies en concurrence sont le nucléaire, le gaz, le charbon et, dans certains pays, l'hydraulique, mais pas les énergies intermittentes.

De ce point de vue, il est intéressant de rappeler quelques ordres de grandeur. En Allemagne, les énergies intermittentes représentent 25 % de la puissance installée pour environ 8 % de la production d'électricité, avec 27 gigawatts d'éoliennes et 17 gigawatts de photovoltaïque en 2010, contre, pour le nucléaire, 12 % de la puissance installée et 23 % de la production d'électricité.

Un mot qui illustre la complexité du problème et le fait qu'il faut développer les technologies au bon endroit. Le photovoltaïque, ai-je dit, est de l'ordre de 6 à 8 fois plus cher, soit 300 euros par mégawattheure, alors que le service qu'il rend est plutôt de l'ordre de 40 euros par mégawattheure, en production hors pointe, compte tenu du fait qu'il y a peu de soleil en hiver au moment de l'extrême pointe. En Californie, par contre, où le soleil brille deux fois plus qu'en France, le coût n'est plus de 300, mais de 150 euros par mégawattheure, la pointe étant celle de l'air conditionné en été. Le service rendu est alors de l'ordre de deux à trois fois celui rendu en France ou en Allemagne, autour de 100 euros par mégawattheure. En Californie, le photovoltaïque sera donc de l'ordre de 3 à 5 fois plus cher seulement. Sur une technologie de ce type, à horizon de cinq ou dix ans, on peut arriver à la compétitivité sur la base des meilleures technologies disponibles, alors que dans les pays comme la France ou l'Allemagne, des percées technologiques beaucoup plus importantes s'imposent.

J'en viens au coeur de notre discussion. Dans ce contexte, la France est dans une situation spécifique, à laquelle d'autres pays sont confrontés. Pour les quinze années qui viennent, l'un des principaux enjeux est la base. Souhaite-t-on prolonger les centrales nucléaires existantes, dont le coût complet tourne autour de 45 à 50 euros par mégawattheure, donc en dessous de la fourchette de compétitivité des nouveaux moyens de production que j'ai évoqués ? Les alternatives seront essentiellement des cycles combinés à gaz et/ou des énergies renouvelables, dont les coûts seront de l'ordre de deux à trois fois les 45 à 50 euros par mégawattheure dont je viens de faire état. Aujourd'hui, en Europe, avec les prix du gaz de l'ordre de 10 $/Mbtu, et un prix du CO 2 de l'ordre de 20 euros la tonne, on atteint un coût complet du cycle combiné à gaz qui tourne autour de 75 euros par mégawattheure. Si on retient pour l'horizon 2020 les prix du gaz que propose l'AIE, soit 13 $/Mbtu pour l'Europe, avec un prix du CO 2 de l'ordre de 40 euros par tonne, on en vient à un prix coût complet du cycle combiné à gaz de 100 euros par mégawattheure, soit plus du double du prix de la prolongation du parc existant. Du côté des renouvelables, l'ordre de grandeur est 100 euros par mégawattheure pour les éoliennes terrestres, 150 à 170 euros par mégawattheure pour l'éolien en mer, et 250 à 300 euros par mégawattheure pour le photovoltaïque. En étant optimiste, on atteint des niveaux prix de l'ordre de 150 euros par mégawattheure, soit trois fois le coût d'une prolongation des centrales existantes.

Sur cette base, on peut procéder à un exercice à trois scénarios, détaillés dans mes transparents, me concentrant plus particulièrement sur le deuxième. Si l'on remplace l'ensemble du parc nucléaire par un bouquet fait à parité de gaz et de renouvelable, le surcoût sera de l'ordre de 75 €/MWh, soit le niveau de prix moyen de l'électricité en France. Autrement dit, le prix de l'électricité serait multiplié par deux, soit un surcoût annuel de 30 milliards d'euros, chiffre d'affaire de l'électricité en France aujourd'hui. Cela supposerait 400 milliards d'investissements à consentir, pour un déficit de la balance commerciale de 10 à 12 milliards d'euros. Ce sont aussi des émissions de CO 2 multipliées par 2,5 fois.

S'agissant de l'emploi, je rappelle que le nucléaire représente 125 000 emplois directs et 400 000 emplois induits et indirects. En matière de perspectives industrielles, on évalue entre 50 000 et 100 000 les emplois liés aux exportations de la filière nucléaire. Une sortie du nucléaire, ce serait un prix de l'électricité multiplié par deux. C'est un point sur lequel les microéconomistes travaillent depuis longtemps, mettant en avant les impacts des chocs pétroliers. Le Conseil d'analyse économique a produit il y a deux ans une étude sur le pétrole, montrant, sur la base d'études macroéconomiques, qu'une augmentation de 20 % du prix du pétrole aurait des conséquences se chiffrant entre 120 000 et 130 000 emplois. Un tel choc, spécifique à la France, serait amplifié sur la croissance, le pouvoir d'achat des ménages et la compétitivité des entreprises. Au total, 500 000 emplois seraient touchés.

En conclusion, on a le sentiment, au vu de ces chiffres, que la prolongation des centrales nucléaires en France, pour les vingt ans à venir constitue une opportunité de disposer d'une électricité compétitive, qui donne des marges de manoeuvre pour poursuivre une politique de maîtrise de la demande structurée, ambitieuse, et qui donne le temps de mettre en place une stratégie industrielle ambitieuse sur les énergies renouvelables. Un des points clés, il ne faut pas l'oublier, est que le contenu en emplois de la filière nucléaire, et les trois quarts des emplois liés aux euros dépensés, sont en France. En matière de gaz, de photovoltaïque ou d'éolien, sur un euro dépensé, moins d'un emploi sur quatre est en France, et plus de trois sur quatre dans des pays étrangers.

M. Bruno Sido , sénateur, rapporteur . - Avant d'ouvrir le débat, je souhaite redonner la parole à M. Jean-Marc Miraucourt, pour apporter quelques précisions sur le sujet du démantèlement, insuffisamment abordé jusqu'ici.

M. Jean-Marc Miraucourt . - Neuf réacteurs sont en cours de déconstruction dans le cadre du programme portant sur les réacteurs graphite/gaz.

En 2001, EDF a choisi de retenir un programme de démantèlement sans attente, dés l'arrêt définitif des réacteurs, contrairement au programme précédent, qui tendait à attendre dix à vingt ans avant d'entamer le démantèlement. Cette stratégie est reconnue sur le plan international comme la meilleure. Une telle démarche permet de disposer d'une bien meilleure mémoire de l'histoire de l'exploitation au moment où l'on entame le démantèlement, de ne pas laisser cette charge aux générations futures, même si celle-ci est complètement provisionnée pour répondre aux obligations légales dans les comptes des entreprises. Il s'agit aussi d'apporter la démonstration complète de la faisabilité du bouclage de cycle de vie d'une centrale, jusqu'à son démantèlement total, en tirant profit des progrès réalisés en termes de robotique pour s'affranchir des aspects de radioprotection, sans devoir attendre la décroissance de la radioactivité. Il faut rappeler qu'on procède d'abord à l'évacuation du combustible, 99,9 % de la radioactivité n'étant plus présente sur l'installation en démantèlement.

Sur la plan réglementaire, nous agissons dans le cadre de la loi Transparence et Sûreté Nucléaire (TSN) du 13 juin 2006. A ce jour, nous disposons d'un décret s'appliquant à l'ensemble de nos installations. Pour Brennilis, nous ne disposons que d'un décret d'autorisation partielle, et nous nous apprêtons à disposer d'un décret d'autorisation complet pour la fin de l'année 2011.

S'agissant du planning du programme de première génération, nous avons attaqué le gros des opérations industrielles. A Chooz, nous avons commencé à découper et à démanteler le circuit primaire lui-même. Après avoir, dans les années précédentes, démonté la partie non nucléaire des installations, nous sommes en phase de démontage effectif du circuit. Pour nous, c'est une expérience industrielle très significative, puisqu'il s'agit des prémices de ce que représentera le démantèlement des 58 réacteurs actuels à eau pressurisé, de technologie identique. A ce jour, deux générateurs de vapeur sont déposés, en cours de décontamination, avant d'être envoyés à la filière de stockage définitive de Morvilliers, dans l'Aube, au centre de très faible activité.

La deuxième opération majeure en cours est la déconstruction de Creys-Malville. Les gros composants du circuit primaire ont été traités, et le sodium retiré. L'installation de traitement du sodium est mise en service depuis un an et demi. Près de 25 % du sodium est d'ores et déjà traité.

Pour Brennilis, nous avons surtout déconstruit les bâtiments autour du réacteur. Le décret de démantèlement partiel va nous permettre de débuter le démantèlement de la partie nucléaire, qui sera achevé au titre du décret définitif.

Pour les centrales graphite/gaz, nous en sommes à la phase des études. En la matière, nous tirons complètement profit des expériences menées aux États-Unis, avec le démantèlement de Fort Saint-Vrain.

S'agissant du parc en exploitation, composé de 58 réacteurs pour dimensionner des provisions et des actifs dédiés au titre de la loi du 28 juin 2006, nous avons retenu une hypothèse prudente d'une durée de fonctionnement des réacteurs de 40 ans, avec un démantèlement des réacteurs sur une période de 20 ans, suivant la politique de démantèlement sans attente de ces réacteurs. Les coûts de déconstruction font l'objet de multiples audits, audits internes, de la Cour des comptes, de la DGEC, mais aussi de comparaisons internationales. Nous sommes dans le « mainstream » international, avec un coût pour les réacteurs à eau pressurisée de l'ordre de 290 euros par mégawatt installé, soit 17 % du coût des investissements d'origine. Nous sommes dans le milieu de la fourchette internationale, la France tirant parti de la standardisation de son par cet de l'expérience que nous sommes en train d'accumuler, tout particulièrement via le démantèlement de Chooz A.

Le coût de démantèlement du parc REP est régulièrement réexaminé au travers d'une étude, Dampierre 2009 , qui nous a permis de mener en totalité l'exercice de quantification de l'effort industriel et des coûts pour une centrale de quatre tranches comme celle de Dampierre. Le démantèlement de cette centrale est ainsi quantifié à 9 millions d'heures de travail, réparties sur une durée de vingt ans, soit entre 350 et 400 personnes présentes sur le site. Le démantèlement de 58 tranches exigerait environ 5 000 emplois directs, mais très peu d'emplois induits, 5 000 emplois à comparer aux 410 000 de la filière actuelle. J'ajoute que ces 5 000 emplois détruisent des moyens de production, donc de la valeur, contrairement aux 410 000 emplois, qui, eux, créent de la richesse nationale, non seulement en export, mais aussi en moyens de productions d'énergie.

M. Bruno Sido, sénateur, rapporteur . - Ces interventions nous ont permis de mieux mesurer l'importance de la filière nucléaire dans notre pays. Le débat est ouvert.

M. Yves Cochet, député . - Depuis l'ouverture de cette audition, les propos des experts que j'ai entendus ne m'étonnent pas, compte tenu de la pression idéologique du nucléaire en France depuis des décennies. Qu'on se souvienne des déclarations grossières de M. Proglio, PDG d'EDF, dans Le Parisien la semaine dernière ! On vient de nous présenter nombre de transparents, des prospectives et des perspectives. Aussi j'espère avoir le temps de développer mes vues, rappelant que nous sommes dans le cadre d'un débat parlementaire, qui se prolongera bientôt par un débat politique dans un contexte électoral. De fait, les acteurs du nucléaire sont très présents depuis longtemps dans le débat parlementaire, mais aussi le débat politique, comme on a pu le constater hier. Et pour ma part, je ne crois pas qu'ils reviennent aux acteurs eux-mêmes de faire la politique énergétique de la France.

S'agissant d'abord du coût, plusieurs facteurs ont été évoqués. Je ne vais pas tous les reprendre, ne disposant pas du temps dont ont disposé les experts. Le coût du nucléaire, estiment-ils, est inférieur à tous les autres. Encore faut-il que la comparaison soit équitable. Or combien valait le coût du kilowatt nucléaire en 1950, au moment où le nucléaire était une industrie émergente, comme c'est le cas aujourd'hui des énergies renouvelables ? Dans les pays de l'OCDE, on observe ainsi que les dépenses publiques de R&D étaient de 60 % pour le nucléaire, 8 % pour l'efficacité énergétique, autant pour les renouvelables. Lorsque, pendant des décennies, vous mettez à disposition 60 % de votre dépense publique de R&D dans le nucléaire, heureusement qu'on constate, 50 ans après, un kilowatt compétitif ! Et pourtant, je ne crois pas qu'il soit compétitif, pour des raisons que j'expliquerai plus tard. D'après le rapport Charpin-Dessus-Pellat, de 2000, l'estimation de l'investissement initial, tout compris, pour ces 58 réacteurs, est de l'ordre de 450 milliards d'euros, valeur 2000. Donnez-moi autant : en 2030, je vous sortirais un coût du kilowattheure photovoltaïque ou éolien tout à fait compétitif. Bref, les comparaisons doivent être équitables, faute de quoi on triche.

Par ailleurs, le coût du kilowattheure intègre-t-il vraiment tous les coûts ? Je ne le crois pas. Reportez-vous au livre magnifique de MM. Dessus et Laponche, En finir avec le nucléaire , auteurs qui sont également experts dans le domaine de l'énergie. Ils expliquent toutes les tricheries et les omissions réalisées pour l'évaluation du coût du nucléaire, s'agissant notamment du démantèlement, de l'assurance et des provisions. Le coût de production est de l'ordre de 4 centimes, contre un coût de 12 à 13 centimes pour les ménages, soit un facteur 3. Ces 4 centimes devaient être augmentés de 6 à 7 centimes, simplement parce que les sommes provisionnées ne couvriront pas les coûts réels de démantèlement, comme le montre des estimations produites en Grande-Bretagne, où l'on est passé du simple au triple, alors que cette dernière est moins nucléarisée que la France. Du temps de M. Roussely, on s'en souvient, il y a eu quelques tricheries sur les manipulations des provisions pour le démantèlement. Mais il est vrai qu'on avait alors voulu faire du Monopoly en matière de gestion.

Mais surtout, le nucléaire ne paye pas ses coûts d'assurance, contrairement à toutes les industries, notamment chimiques. On vient de commémorer le dixième anniversaire de la catastrophe d'AZF à Toulouse. Les gens de Total plaident le fait que leurs usines relèvent des normes Seveso 2, ce qui engendre des coûts d'assurance considérables. Pour le nucléaire, le payeur en dernière instance est l'Etat, soit les contribuables. Quel est aujourd'hui le coût du kilowattheure nucléaire au Japon ? Combien coûtera la partie nucléaire de ce qui se passe à Fukushima ? 30 milliards d'euros ? 100 milliards d'euros ? Une évaluation des coûts futurs s'impose.

Je vous invite donc à lire ce livre, mais aussi les comparaisons énergétiques entre la France et l'Allemagne s'agissant de l'énergie en général, notamment du nucléaire. Bien sûr, lisez le très beau scénario Négawatt, publié le 29 septembre dernier, qui montre qu'on peut sortir du nucléaire vers 2033 en France, à coût constant par rapport au coût du renouvellement. Car vous ne comptez jamais qu'il faut choisir une option énergétique en ce qui concerne l'électricité. Soit il s'agit de sortir du nucléaire dans 25 ou 30 ans, soit de renouveler le parc.

Le parc, dites-vous, était prévu pour 40 ans. A l'origine, il était prévu pour 30 ans, l'ASN se prononçant pour des prolongations de dix ans. Pour l'heure, il n'existe aucun retour d'expérience dans le monde de réacteur nucléaire qui ait duré plus de 47 ans. Pousser jusqu'à 60, voire 80 ans ? Ce sont des spéculations de gens convaincus, du volontarisme industriel, alors qu'on ne dispose d'aucun retour d'expérience.

J'en viens au désapprentissage en marchant et à l'évolution du coût d'investissement nucléaire au cours du temps depuis 1977. A cette date, on comptait 5 000 francs par kilowattheure installé pour le palier de 900 mégawatts. Pour les 900 mégawatts du palier CP2, on comptait 8 000 francs par kilowattheure installé, contre 10 000 francs par kilowattheure installé d'investissement pour le pallier P4. On comptait à peu près 13 000 francs par kilowattheure installé pour le pallier N4, celui des 1 500 mégawatts, et 20 000 francs par kilowattheure installé pour l'EPR. Contrairement à toutes les autres technologies de par le monde, quelles que soient les industries, plus le nucléaire a de l'expérience, plus cher est son coût d'investissement par kilowatt.

S'agissant enfin de l'emploi, les experts nous ont dit que le nucléaire était très bon. Je ne connais pas une étude sérieuse qui montre que le nucléaire, du point de vue de la prodigalité des emplois, est meilleur que l'efficacité, la sobriété et les renouvelables. On le voit bien en Allemagne, qui essaie de sortir du nucléaire. Qui penserait que les Allemands ou les Suisses sont des gens déraisonnables, pris d'une folie « écolo » ? En matière d'emploi, ces pays ont apparemment de meilleurs résultats économiques que les nôtres, M. Sarkozy ayant récemment déclaré qu'il fallait s'inspirer de l'Allemagne, comme M. Fillon.

En matière de création d'emploi, une politique de sortie du nucléaire, vers un triptyque sobriété, efficacité et renouvelables, serait bien meilleure que la politique nucléaire, et ce dans tous les domaines - construction et maintenance. Relisez cette interview scandaleuse de M. Proglio dans Le Parisien de la semaine dernière, son arrogance et ses mensonges éhontés. M. Proglio n'est pas un ingénieur. Il préfère le marketing. Et pourtant, il est à la tête de la plus grande entreprise mondiale de service énergétique. Il y a de quoi être inquiet...

Bref, en matière d'emploi, je ne connais pas d'études sérieuses montrant que le nucléaire est meilleur que le triptyque dont j'ai fait état. J'aurais beaucoup d'autres choses à dire, mais j'ai dû faire preuve de sobriété, alors que les experts ont parlé plus d'une heure et demi. Je vous transmettrai une note qui répond de manière précise aux affirmations mensongères de M. Proglio de la semaine dernière, et aux affirmations des experts.

M. Christian Bataille, député, rapporteur . - Je n'ai pas vocation à répondre à M. Cochet. Je veux simplement relever un aspect sur lequel nous avons travaillé, et sur lequel je veux exprimer mon désaccord avec lui. Je veux parler de son analyse de la politique énergétique allemande. Je vous renvoie au rapport qui fait suite au déplacement que nous avions réalisé avec Marcel Deneux, voilà quelques semaines. Ce rapport montre que la situation allemande n'est en rien comparable à la nôtre. Pourquoi ? Parce que la France est sortie du charbon, alors que l'Allemagne n'est pas prête à sortir du charbon et du CO 2 . Plus de 40 % de sa production électrique est à base de charbon, pourcentage qui ne va pas diminuer. Plus de la moitié de cette production, de l'ordre de 22 %, est faite à partir de lignite. J'admets que les Allemands ont beaucoup progressé dans la technologie. Cela dit, le lignite reste du charbon, même s'il est désulfuré. Derrière le discours sur les renouvelables en Allemagne, je vois une supercherie autour de la sortie du nucléaire, supercherie qui consiste à maintenir cette grande ressource allemande qu'est le lignite - 350 ans de réserves au rythme d'exploitation actuelle. Les Allemands ont-ils envie de laisser tomber cette richesse ? Je ne le crois pas.

J'ajoute qu'en matière de réacteur nucléaire, Siemens a beaucoup cafouillé et a abandonné cette filière, AREVA ayant été bien meilleure que lui. Siemens se replie désormais sur la technologie de centrales à cycle combiné gaz. Nous avons du reste visité des centrales gaz très performantes. De telles centrales représentent un atout pour l'industrie allemande dans le monde. Telle est la spécialité allemande. Nous avons, nous, les centrales nucléaires, les Allemands ayant échoué en la matière.

Bref, je ne crois pas que la situation allemande soit comparable à la situation française. La France n'a plus aucune ressource énergétique naturelle. Certes, le nucléaire est peut être développé à l'excès dans ce pays. Encore faut-il ajouter que nous ne disposions pas des ressources dont l'Allemagne dispose dans son sous-sol.

Ces discussions sont tout à fait normales dans le cadre du travail parlementaire. Cela dit, notre mission n'est pas un débat parlementaire, mais la préparation d'un rapport. Il est donc logique que nous auditionnions aujourd'hui les grandes industries françaises partenaires, qui représentent une force industrielle dans ce pays. C'est donc tout à fait légitimement qu'elles ont exprimé leur point de vue, et ce, d'une manière très construite, élaborée, avec des données très précieuses, tant de la part du CEA, d'EDF que d'AREVA. Ce sont des industries qui ont un retour d'expérience, la question d'aujourd'hui étant celle de l'avenir de l'énergie nucléaire.

M. Miraucourt a parlé des investissements de remise à niveau du parc. Il y a une dizaine d'années, nous avons, dans le cadre de l'Office, rédigé, avec Claude Birraux, un rapport sur le sujet. A cette époque, la durée théorique affichée par les constructeurs était de trente ans, le rapport faisant état du palier de 40 ans. Toutes les centrales devraient atteindre sans encombre ce palier. Sur ce point, il faut admettre le rôle joué par l'Autorité de sûreté nucléaire (ASN). Certes, les élus ont un point de vue à donner sur l'avenir énergétique de notre pays. Mais à mon sens, l'ASN est le tribunal décisif, qui dira si, au-delà du palier de 40 ans, certaines centrales peuvent aller jusqu'à 50 ans. Les Américains, qui ont démarré leur programme nucléaire beaucoup plus tôt que nous, nous devancent, et l'on peut observer avec intérêt la manière donc certaines de leurs centrales atteignent 50 ans d'âge.

M. Yves Cochet, député . - 47 ans !

M. Christian Bataille, député, rapporteur . - Autant dire que nous ne sommes pas loin de 50 ans. On peut retenir aujourd'hui de la doctrine française le palier des 40 ans, étant entendu que l'avis de l'ASN permettra d'envisager d'aller plus loin, comme le souhaite l'exploitant EDF.

M. Miraucourt a donc parlé des investissements de remise à niveau du parc, qui se font à l'occasion des révisions. Comment se comparent de tels investissements avec ceux requis dans le domaine des énergies renouvelables et du parc éolien en mer ? La remise au niveau du parc nucléaire va-t-elle représenter une dépense supérieure ou comparable à celle des investissements en matière d'énergies renouvelables ?

M. Jean-Marc Miraucourt . - Je n'ai pas la réponse. J'ai cité le chiffre de 35 milliards d'euros pour la période 2015-2025 pour la remise à niveau et le step sûreté . C'est un chiffre à rapporter au nombre de mégawatts et surtout de mégawattheures produits, avec un coefficient de disponibilité à mettre en regard.

M. Jean-Paul Bouttes. A très gros traits, je dirais qu'il faut deux à trois fois plus d'investissements pour prolonger le parc nucléaire existant que pour mettre en service 6 000 mégawatts d'éoliennes en mer. A l'inverse, disons qu'un tel investissement coûterait deux à trois fois moins, de l'ordre de 12 à 15 milliards d'euros pour les éoliennes en mer, avec cependant une production en térawatts sans commune mesure, de l'ordre de deux à trois fois moins.

M. Frédéric Ména, IRSN. J'interviens en lieu et place de M. Michel Schwarz, du comité d'expert, qui vous demande d'excuser son absence. Ma question porte sur les études et les estimations de coûts présentées. Ne serait-il pas judicieux d'apporter un éclairage supplémentaire en s'intéressant à la question du coût du risque d'accident ? On peut estimer le coût d'accidents de niveaux de gravité différents, non seulement celui du démantèlement, de l'indemnisation d'éventuelles victimes, mais aussi de l'impact sur l'économie et le tourisme. J'ai ainsi noté le chiffre de 2 points de PIB en moins au Japon, dans l'hypothèse où le scénario du non redémarrage des centrales nucléaires se concrétiserait. Il est donc possible d'estimer de tels coûts. Par ailleurs, on dispose, pour les installations nucléaires, d'études probabilistes qui permettent d'estimer la probabilité d'occurrence de ces accidents, pour une partie importante d'entre eux. L'ASN, on le sait, fixe des objectifs probabilistes de survenue de tel ou tel type d'accidents.

Ne serait-il pas intéressant d'évaluer ces coûts, et de les pondérer par la probabilité que survienne l'accident, pour disposer d'une estimation d'un coût du risque accidentel ? Ce faisant, on répondrait à la question de M. Cochet sur l'assurance, l'État assurant une partie du risque.

M. Jean-Guy Devézeaux de Lavergne. Un tel exercice est en effet intéressant, l'IRSN étant engagé dans cette voie. Cela dit, cette question n'est pas nouvelle. M. Cochet a évoqué de nombreux sujets qui ne sont pas nouveaux, et qui ont été longuement instruits, comme celui que vous évoquez. Sur ce point, je veux rappeler que la Commission européenne s'est intéressée à ce thème dès les années 90. Au sein du groupe de travail Externe-I, elle a mené une évaluation extrêmement prudente. A l'époque, on avait envisagé que l'activité économique d'un territoire équivalent à un département français serait durablement entravée. Ce travail prenait également en compte des probabilités d'accident. Un groupe de travail s'était également intéressé à la question du risque et du coût relatif perçu par les individus, mettant en évidence une aversion pour le risque tout à fait significative, d'un facteur cinq.

Dans les coûts comparatifs du nucléaire avec les autres énergies, et de celles-ci avec le nucléaire, la question des externalités liées à des accidents est très ancienne, elle date au moins de vingt ans. Nous avions mis en évidence, résultat sans doute pas démenti par Fukushima, que les coûts étaient augmentés de quelques pour cents, et qu'ils ne révolutionnaient pas l'ordre de mérite du nucléaire par rapport aux autres énergies. Cela dit, dans la logique de l'économie de l'énergie, il faut continuer à progresser.

M. Jean-Marc Miraucourt. Ce principe est totalement intégré dans la loi anglaise, qui met en avant un principe de diminution du risque au regard du coût économique. La législation anglaise est particulièrement développée sur ce point.

M. Bernard Tardieu, membre du comité d'experts, Académie des technologies. M. Miraucourt a expliqué très précisément l'impact de l'augmentation de la durée de vie et le coût du démantèlement. On n'a cependant pas compris pourquoi cette augmentation n'avait pas un impact positif sur les prix du killowattheure produit. J'imaginais qu'en repoussant la dépense de démantèlement et en amortissant au mieux les dépenses initiales, le prix du killowattheure vendu diminuerait.

M. Jean-Marc Miraucourt. A ce jour, les provisions obéissent à une règle de prudence, ce pourquoi nous en sommes restés à 40 ans. L'accroissement de la durée de fonctionnement des centrales devra se traduire dans la comptabilité. A ce jour, la réglementation allant de dix ans en dix ans, nous ne pouvons retranscrire dans la comptabilité des espoirs de succès de notre programme industriel, prudence oblige.

M. Bernard Tardieu. Dans ses prévisions, M. Bouttes n'a pas intégré la possibilité d'une baisse du prix du nucléaire, du fait de l'augmentation de la durée de vie. Vous faites un choix industriel, sans en mesurer les conséquences.

M. Jean-Paul Bouttes. Les chiffres que j'ai présentés, c'est un fait, n'incluent pas certains éléments qui, à mon sens, renforceraient l'opportunité de prolonger les centrales du parc existant, et je pense notamment à la prolongation de la durée de vie, donnée pas prise en compte. Plus fondamentalement, on imagine bien qu'un arrêt rapide d'une partie significative du parc français aurait un impact sur les prix du gaz et du CO 2 . L'essentiel des surcoûts que j'ai évoqués sont surestimés. De fait, nous avons refusé d'entrer dans cette problématique.

Cela dit, je souhaite revenir sur quelques questions de M. Cochet. S'agissant des emplois, je crois très important, comme économiste, de distinguer la maîtrise de la demande d'énergie du photovoltaïque. Il ne s'agit pas du tout du même type d'emploi, ni du même type de situations pour la France. Pour le dire rapidement, je suis complètement d'accord pour reconnaître avec vous le point relatif à la maîtrise de la demande d'énergie et d'électricité. Un potentiel économiquement accessible et des emplois locaux ? C'est du gagnant/gagnant. Or aujourd'hui, le photovoltaïque est bien plus cher et n'est pas économique en France. De surcroît, le contenu en emploi pour les technologies qui lui sont relatives se délocalise en Asie. C'est vrai aussi pour l'Allemagne, où les grands opérateurs sont en train de faire faillite, pour se délocaliser en Asie. Pour autant, il ne faut pas baisser les bras. Je fais partie de ceux qui sont convaincus qu'une partie de notre avenir se joue sur ce point, et j'y travaille depuis une dizaine d'années. On dépense autant en investissement dans les énergies renouvelables que dans le nouveau nucléaire. J'ai visité lundi dernier un laboratoire du CNRS où l'on prépare les technologies de demain. Un des points clés est de parvenir à trouver de nouvelles technologies renouvelables, qui ne soient pas trop chers, et dont le contenu en emploi soit tel qu'elles ne seront pas délocalisées en Asie, dès lors que les brevets seront prêts.

Le mensonge ? Je n'ai pas le sentiment d'avoir cherché à mentir. S'agissant des emplois, je suis d'accord qu'il y a débat, et j'ai été macroéconomiste. Mes propos rapides prennent appui sur de très nombreuses études d'économistes, qui mettent toutes en avant deux idées simples. La première est qu'un dispositif beaucoup plus cher, qui entamerait la compétitivité du pays, équivaudrait à un choc pétrolier, et ne manquerait pas d'avoir un impact fort sur le pouvoir d'achat et les emplois. La deuxième est que si l'on développe des technologies utiles pour la vie de la cité, dont l'essentiel des emplois sont créés ailleurs que dans un pays donné, il y aura un impact.

S'agissant du démantèlement, je ne suis absolument pas d'accord avec les propos de MM. Dessus et Laponche, pas plus que l'ensemble de la communauté des économistes. Le coût du démantèlement est estimé pour nous à 15 % du coût d'investissement de nos centrales, soit 15 milliards d'euros, qui seront dépensés à la fin de la durée de vie, soit 0,5 euro par mégawattheure en prenant pour base une durée de vie de trente ans. En Angleterre, on le sait bien, le prix du démantèlement est cinq à six fois plus cher, car il y a cinq ou six fois plus de matières à traiter. Pour avoir été impliqué dans la communauté du groupe d'experts intergouvernemental sur l'évolution du climat (GIEC), j'observe le même type de fonctionnement dans les communautés scientifiques d'économistes. Cette communauté existe, des voix différentes s'y expriment, ce dont on ne peut que se féliciter. Mais sur ce point, le consensus est plutôt la règle. De la même manière, le coût des assurances est peut-être de l'ordre de 2 à 3 euros par mégawattheure, le point clé étant qu'un Fukushima ne puisse pas se produire chez nous. Telle est bien notre conviction, et c'est la raison pour laquelle nous poursuivons dans cette voie et nous travaillons sur des tests de résistance. Un accident sérieux peut toujours arriver, mais pas avec les conséquences qu'on a observées au Japon.

M. Yves Cochet, député . - Ce n'est pas ce que dit M. André-Claude Lacoste. Je constate, comme MM. Bataille et Sido, qu'on dispose en France d'une autorité de sûreté du nucléaire, qu'on dit indépendante. Elle est de fait extrêmement vigilante, ne se privant pas de faire des observations, comme d'autres autorités, anglaise ou finlandaise, sur l'ensemble du parc nucléaire européen. Après Fukushima, M. Lacoste a déclaré qu'il fallait faire très attention à la dérive des coûts, et qu'une catastrophe nucléaire n'est pas inimaginable en Europe. Nous sommes les champions du monde de la sûreté. Sans doute est-ce la raison pour laquelle on a raté, du temps de Mme Lauvergeon, quelques marchés à l'exportation face à des centrales que M. Bataille lui-même a qualifiées de « low cost », la sûreté ayant toujours un coût.

Cela dit, lorsqu'on compare la France avec l'Allemagne et d'autres, on s'aperçoit que le nucléaire n'a pas réduit la dépendance de la France au pétrole. Ce programme existe depuis le gouvernement de Pierre Messmer, en 1974, et s'est mis en place en 35 ans, les dernières centrales ayant été construites avant 2000. Or en matière de dépendance par habitant en France, en Allemagne, en Grande Bretagne et en Italie, la France a un résultat de 1,06 tonne de pétrole par habitant et par an, contre 1,01 pour l'Allemagne, 0,99 pour la Grande-Bretagne, et 0,92 pour l'Italie. Le nucléaire, qui n'existe pas en Italie, et moins en Grande-Bretagne et en Allemagne qu'en France, ne rend pas ces pays moins dépendants au pétrole par habitant.

S'agissant des ménages, on observe dans les ménages allemands 25 % de moins de consommation électrique par rapport à la France. C'est, vous l'avez dit vous-même, une question de pointe d'électricité pour faire face aux hivers froids. Faut-il rappeler le marketing incroyable, qui a duré une trentaine d'années et qui continue, pour la promotion du chauffage électrique, alors qu'il s'agit d'une aberration thermodynamique ? Faire de l'électricité pour du chauffage est absurde, l'électricité devant être réservée à des usages spécifiques. On se souvient des publicités scandaleuses d'EDF pour le chauffage électrique. D'où, aujourd'hui, le problème de la monotone de charge, à 19 heures, pendant les jours les plus froids de l'année, où la demande de puissance est considérable, et à laquelle il faut répondre.

La première action à mettre en oeuvre est donc de sortir du chauffage électrique en France, qui serait la première des économies d'énergie, la plus raisonnable. Pourtant, on continue à réaliser des publicités pour la promotion du chauffage électrique. La France, comme toujours, et son lobby nucléaire - EDF et AREVA - ont une politique de l'offre forcenée. Or, il est essentiel aujourd'hui de se concentrer sur les besoins. On a besoin de chaleur, de lumière, de force électromotrice, de mobilité, et pas besoin du nucléaire. Ce qui compte, c'est l'usage final, étant entendu qu'on peut toujours discuter sur les sources primaires et secondaires.

Quant à l'empreinte carbone par habitant en Allemagne et en France, elle est inférieure en Allemagne. S'agissant du photovoltaïque, on disposait de la plus grande usine en France de fabrication de cellules, Photowatt, dans la région Rhône-Alpes. Elle a fermé tout récemment. L'État aide à coup de dizaine de milliards le nucléaire. Par contre, il est incapable de soutenir sa plus grande usine de fabrication de cellules photovoltaïques, qui ne parvenait pas à satisfaire la demande.

On parle de Fessenheim I. L'ASN exige le renforcement de la dalle de béton sous le coeur du réacteur. Allez-vous procéder à ce renforcement, de quelle manière, et pour quel coût ?

M. Jean-Marc Miraucourt. L'ASN demande que les travaux soient achevés pour mi 2013. Le contrat a déjà été passé à cette fin avec des industriels. Nous n'aurons aucune difficulté à réaliser les travaux pour la date prévue, pour un coût de l'ordre de 10 millions d'euros par réacteur, étant entendu que nous nous apprêtons à procéder aux mêmes travaux sur Fessenheim II.

M. Bruno Sido , sénateur, rapporteur. Mesdames, Messieurs, je vous remercie.

L'avenir de la filière nucléaire

- Présidence de M. Christian Bataille, député, rapporteur -

M. Christian Bataille, député, rapporteur . - Ce matin, nous avons pu juger de l'importance de la filière nucléaire pour notre économie et la maîtrise de nos émissions de CO 2 qui, je le rappelle, sont de 3 à 4 fois inférieures à celles de nos voisins allemands et danois par kilowatt produits. Ce qui s'est dit ce matin quant aux empreintes carbones qui seraient plus dramatiques en France qu'en Allemagne, ne me paraît ainsi pas crédible, sauf à tordre les chiffres. La filière nucléaire représente pour notre pays un atout industriel majeur. Elle reste, après l'accident de Fukushima, pourvoyeuse d'activité économique, d'exportation et d'emploi. Certains nous décrivent un avenir radieux, où, après l'abandon de notre industrie nucléaire, les emplois bien réels perdus se trouveraient opportunément compensés par d'autres, encore hypothétiques, dans le secteur des énergies renouvelables.

Pour ma part, je suis convaincu de la nécessité de continuer à bâtir de véritables filières industrielles créatrices d'emploi dans des secteurs comme l'éolien ou le solaire. A l'occasion de notre prochaine et dernière audition, le 24 novembre, nous pourrons d'ailleurs mesurer les efforts réalisés en ce sens dans notre pays. Pour autant, je ne pense pas que nous devions lâcher la proie pour l'ombre en renonçant, sans aucune garantie de compensation, à l'un des fleurons de notre industrie nationale.

Dois-je rappeler, à ce sujet, les difficultés qui touchent, depuis quelques mois, l'industrie photovoltaïque européenne face à la concurrence chinoise ? C'est le cas en France, avec le dramatique dépôt de bilan de la société Photowatt. Mais c'est aussi le cas en Allemagne, où les résultats d'entreprises telles que Q-Cells et SolarWorld - entreprises qui nous étaient encore tout récemment présentées comme des symboles de la réussite industrielle allemande dans ce secteur - viennent littéralement de s'effondrer. La position de premier plan de notre filière nucléaire fait incontestablement l'envie de nombreux concurrents étrangers, en Asie comme en Amérique, mais aussi en Russie. Si demain, pour des motifs de courte vue, nous devions prendre, contre nos propres intérêts nationaux, une décision d'arrêt de nos installations nucléaires, ces concurrents en tireraient mécaniquement les bénéfices sur nos marchés d'exportation.

Compte tenu de l'importance des intérêts en jeu, des milliards en exportations et des milliers d'emplois, il serait naïf de considérer que ces concurrents étrangers ne s'intéressent pas de très près au débat en cours sur l'avenir de notre production énergétique. Aussi devons-nous, plus que jamais, rester vigilants sur ces questions et exiger que l'ensemble des conséquences pour nos concitoyens des décisions qui pourraient être prises leur soient présentées en toute transparence, et non avec un a priori idéologique, comme cela est malheureusement trop souvent le cas.

A cet égard, l'abandon annoncé, supposé, du chantier du réacteur EPR à Flamanville, constituerait une décision particulièrement dommageable. Ce réacteur, de conception franco-allemande, représente en effet non l'avenir, mais le présent de notre filière nucléaire. Le problème de retard et de surcoût des deux têtes de série française et finlandaise ne remet d'ailleurs aucunement en cause la conception de l'EPR, comme le montre l'exemple des deux unités construites en Chine dans les délais annoncés.

Nous ne reviendrons pas sur ce réacteur de troisième génération que nous avons déjà eu l'occasion d'étudier de près, au cours de la première partie de notre mission, dont le rapport a été déposé fin juin. J'en présenterai donc ici les principales caractéristiques. S'il reprend le principe des réacteurs de deuxième génération équipant le parc français, le réacteur à eau pressurisée EPR offre de nouveaux dispositifs de sûreté, tels qu'une double enceinte de confinement, un récupérateur de corium et quatre systèmes indépendants de refroidissement. A l'exportation, dans le contexte de l'après Fukushima, il permet, mieux qu'aucun modèle concurrent, de répondre aux attentes des pays souhaitant s'équiper de nouveaux réacteurs présentant un haut niveau de sûreté.

En France, l'autorité de sûreté nucléaire a, quant à elle, déjà fixé pour les nouveaux réacteurs, tout comme pour la prolongation de ceux déjà construits, l'exigence du respect des objectifs de sûreté associés à la conception du réacteur EPR. Si les réacteurs les plus anciens ne pouvaient être prolongés, le réacteur EPR deviendrait ainsi leur remplaçant naturel.

Quant à l'abandon du procédé du recyclage, il correspondrait à la perte d'une technologie dans laquelle la France tient la première place mondiale. Qui plus est, elle hypothéquerait les perspectives de séparation et de transmutation des déchets nucléaires de haute activité, qui permettent d'envisager une réduction de leur radioactivité et de leur durée de vie. Pourtant, même les écologistes allemands n'ont pas voulu remettre en cause l'utilité des recherches dans ce domaine. Une décision d'arrêt des centrales ne fait en effet pas disparaître comme par enchantement le problème de gestion des déchets auquel je me suis beaucoup consacré depuis deux décennies.

La table ronde de cet après-midi traitera de l'avenir de la filière nucléaire, et sera l'occasion de nous intéresser au réacteur de quatrième génération et, au-delà, à la fusion nucléaire, à travers le projet ITER.

Je donne d'abord la parole à M. Sylvain David, de l'Institut national de physique nucléaire et de physique des particules au CNRS, membre de notre comité d'experts, qui va nous expliquer les enjeux des réacteurs nucléaires de quatrième génération.

M. Sylvain David, Institut national de physique nucléaire et de physique des particules, CNRS . - Mon propos se limitera aux réacteurs de quatrième génération régénérateurs, qui permettent une économie substantielle sur les ressources. Quelle est la consommation d'uranium des réacteurs actuels ? Produire un gigawatt électrique pendant un an équivaut à la fission d'une tonne de matière. Comme les réacteurs utilisent essentiellement l'uranium 235 qui représente seulement 0,7 % du minerai d'uranium, il faut, pour faire fissionner cette tonne de matière, extraire de terre environ deux cents tonnes d'uranium naturel. Il est possible de réduire cette consommation de minerai d'un facteur deux sans aucune rupture technologique, simplement en optimisant la phase d'enrichissement et en recyclant l'uranium et le plutonium, comme on le fait déjà en grande partie en France. Ayons donc en tête une consommation raisonnable de 130 tonnes par gigawatt électrique par an pour les réacteurs de deuxième et troisième génération.

A l'opposé, les filières régénératrices de quatrième génération utilisent un tout autre combustible, l'uranium 238, et produisent du plutonium 239, qui est le noyau fissile. Chaque fois qu'il disparaît pour produire de l'énergie, il est régénéré par capture d'un neutron sur l'uranium 238. Au final, la consommation de ces réacteurs est de l'ordre d'une tonne par gigawatt électrique par an, seul l'uranium 238 étant consommé. Avec le stock d'uranium appauvri accumulé en France depuis le début de l'industrie nucléaire, qui est de l'ordre de 300 000 tonnes aujourd'hui, nous aurions avec ce type de réacteur plus de cinq mille ans de production d'électricité, à une puissance de 60 gigawatts, équivalente à celle du parc actuel.

La régénération, on le voit, résout pour un temps très long le problème de la ressource en uranium. Cependant, elle n'est pas possible dans les réacteurs actuels et exige le recours à des technologies plus innovantes, notamment à neutrons rapides.

De façon schématique, quel est le coût du kilowattheure nucléaire en fonction du prix de l'uranium naturel pour les réacteurs de deuxième et troisième génération ? C'est une courbe qui est faiblement croissante, la part du prix de l'uranium dans le kilowattheure étant faible. A l'inverse, pour les réacteurs régénérateurs, comme la consommation est divisée par 200, la courbe est totalement plate, le prix du kilowattheure étant indépendant du prix de la ressource en uranium. Au-delà d'un certain prix de l'uranium naturel, il est par conséquent plus avantageux, d'un point de vue économique, de construire des réacteurs de quatrième génération, même s'ils sont plus chers à l'investissement.

Lorsqu'on discute des ressources en uranium, on fixe toujours un prix d'extraction maximal pour l'uranium naturel. Au-delà, il serait plus avantageux de construire des réacteurs de quatrième génération. Si les réacteurs de quatrième génération n'existaient pas, on peut se demander si l'on fixerait un prix d'extraction maximal pour calculer les ressources en uranium. Dans les faits, les choses sont plus compliquées, dans la mesure où l'on a de grosses incertitudes sur le coût des réacteurs de quatrième, comme de troisième génération. Si le prix moyen de référence au kilo est pris à 400 dollars certains font état de prix qui varient entre 150 et 1000 dollars. On agit donc dans un monde relativement incertain.

J'en viens à deux scénarios de déploiement du nucléaire dans le monde. Le premier est un scénario d'enveloppe maximale, de déploiement rapide et massif dans les 40 années qui viennent. Le second est un scénario plus raisonnable, celui d'une multiplication par deux du parc nucléaire d'ici 2050. Dans ce dernier scénario, en 2100, la consommation cumulée d'uranium ne dépasse pas les 10 millions de tonnes et reste donc en dessous des ressources estimées d'uranium. Par contre, dans le premier scénario, des tensions sur le prix de l'uranium surviennent aux alentours de 2050.

Dans un premier temps, on peut donc penser que le recours à la régénération est lié ou s'impose dans des scénarios de déploiement massif et rapide du nucléaire. Encore faut-il souligner que certains éléments peuvent conduire à anticiper le déploiement des réacteurs rapides, même si le problème de la ressource et des millions de tonnes d'uranium cumulés ne se pose pas. Ainsi, un réacteur de troisième génération est construit pour soixante ans. Aussi peut-on imaginer que le constructeur a besoin d'une visibilité sur la ressource en uranium sur des dizaines d'années, point qui peut conduire à anticiper le déploiement des réacteurs rapides. Par ailleurs, même si les ressources sont présentes, sera-t-on capable de les extraire à un rythme suffisamment soutenu ? Ouvrir des mines d'uranium peut poser certains problèmes, sans compter qu'il est possible qu'on soit limité en termes d'extraction d'uranium, à deux ou trois fois les taux d'extraction d'aujourd'hui, de l'ordre de 50 000 tonnes par an. Même si le nucléaire ne se développe pas d'un facteur huit, il est possible qu'on soit amené à développer des réacteurs régénérateurs pour des questions d'accès à la ressource uranium.

La fermeture du cycle en plutonium est un autre argument, les réacteurs rapides étant mieux à même de multi-recycler le plutonium, sans produire massivement des actinides mineurs plus lourds. Des arguments favorables au déploiement des réacteurs rapides peuvent donc reposer sur une meilleure gestion du plutonium et des coûts liés aux actinides mineurs.

Je ne décrirai pas les technologies. Le cycle uranium, je l'ai dit, nécessite des neutrons rapides. En la matière, la filière la plus aboutie est celle des réacteurs au sodium, avec trois alternatives principales : les réacteurs au plomb, les réacteurs rapides refroidis à l'hélium, et les réacteurs à sels fondus.

Une des caractéristiques des réacteurs à neutrons rapides est qu'ils ne consomment quasiment plus de matière, soit une tonne d'uranium 238 par an. Chaque fois que le plutonium est consommé, il est régénéré. Ces réacteurs ne consomment plus de plutonium une fois qu'ils ont démarré, étant entendu qu'ils ont besoin d'une première charge en plutonium pour être démarrés. Cette charge initiale est assez importante, estimée à 16 à 20 tonnes par gigawatt électrique. Multiplié par le nombre de réacteurs en France, soit 60, c'est un inventaire de plutonium à l'équilibre de l'ordre de 1000 tonnes qui est nécessaire, l'inventaire actuel de 2010 étant de l'ordre de 300 tonnes.

Dans le cadre de déploiement de réacteur rapide, le plutonium, on le voit, est une matière précieuse, qu'il faut accumuler pour pouvoir espérer démarrer des réacteurs rapides lorsqu'on le souhaitera.

Un scénario de référence de déploiement des réacteurs de quatrième génération à puissance constante démarrerait en 2040, avec une deuxième salve en 2080, la transition s'achevant en 2100, après l'arrêt des premiers EPR, construits en 2020. On constate que la transition est assez longue, s'achevant avant la fin du siècle. Les calculs de scénarios sur ce type de réacteurs montrent que nous avons juste ce qu'il faut de plutonium produit par les réacteurs de deuxième et troisième génération pour alimenter le premier chargement des réacteurs rapides.

Dans ce type de stratégie, il est, bien sûr, impossible de considérer le plutonium comme un déchet, puisqu'on en a besoin pour démarrer les réacteurs rapides. Ce type de scénario n'est pas non plus applicable à d'autres pays, qui verraient leur puissance nucléaire augmenter - et je pense notamment à la Chine - dans la mesure où les réacteurs de deuxième et troisième générations n'auraient pas assez produit de plutonium pour démarrer les réacteurs à neutrons rapides. Le cas de la France est certes spécifique. Encore faut-il souligner qu'on est en mesure d'assurer une transition vers la génération III et IV avec suffisamment de plutonium pour alimenter les réacteurs rapides.

S'agissant de la transmutation des actinides mineurs, les réacteurs rapides doivent nécessairement recycler et multi-recycler l'uranium et le plutonium. Dans un système de référence, tous les autres actinides sont considérés comme des déchets. Mais l'on peut envisager leur recyclage afin d'éviter de les mettre dans les déchets vitrifiés, pour produire des déchets allégés, beaucoup moins radiotoxiques sur le long terme.

Cette stratégie peut se faire dans les réacteurs rapides eux-mêmes, par transmutation homogène. Elle peut se faire également dans des réacteurs dédiés, les performances en termes de production de déchets étant identiques.

La transmutation permet de réduire la radiotoxicité à long terme des déchets. S'agissant de la radiotoxicité du réacteur à neutrons rapides, si l'on arrête le réacteur rapide au bout de mille ans de fonctionnement - durée très longue s'il en est - son inventaire en plutonium sera aussi radiotoxique sur le long terme que la totalité des déchets qu'il aura produit pendant mille ans. Il faut aussi prendre en compte le fait que ces réacteurs rapides ont un inventaire assez important en plutonium, qu'il faudra gérer le jour où l'on arrêtera ces filières, le plutonium étant un combustible, non un déchet.

J'en viens rapidement au cycle du thorium, le troisième actinide présent sur Terre en grande quantité. Il a la particularité de ne pas avoir d'isotopes fissiles naturels, comme l'uranium 235. Il implique le recyclage et la régénération. Théoriquement, il permet d'atteindre la régénération au spectre thermique, avantage appréciable s'il en est. Dans la pratique, c'est beaucoup plus complexe, du fait d'une contamination rapide du réacteur par des poisons neutroniques. Une autre spécificité est la présence d'uranium 232, responsable d'une forte émission gamma, ce qui complique le cycle du thorium, notamment les phases de fabrication de combustible solide. En revanche, il permet une production d'actinides mineurs réduite, donc des radiotoxicités de déchet à long terme réduites.

Il existe deux stratégies plus ou moins innovantes, basées sur les réacteurs actuels, à eau, où sur une filière plus exotique, basée sur des sels fondus. Même si le cycle du thorium n'est pas régénérateur dans les réacteurs à eau classique, il est tout à fait possible de réduire en amont la consommation d'uranium naturel des réacteurs à eau, en mettant en oeuvre un cycle du thorium qui recycle à la fois le plutonium et l'uranium 233, qui est la matière fissile du thorium. On peut construire un parc mixte, avec la moitié de REP classiques, le plutonium étant envoyé dans des REP fonctionnant au thorium. Avec la même technologie de réacteur à eau, on aura ainsi divisé par deux la consommation d'uranium naturel. En optimisant les technologies de réacteur à eau éprouvées, on peut encore gagner un facteur deux sur la consommation d'uranium naturel, sans changer fondamentalement de technologie de réacteur. Ce sont des stratégies intermédiaires entre des scénarios 100 % REP et 100 % RNR.

Je terminerai par le réacteur à sel fondu, très bien adapté au thorium. Sur le papier, il présente des avantages très intéressants. Il s'agit d'un réacteur très différent des réacteurs actuels, puisque le combustible est liquide et sert lui-même de caloporteur. Le concept est surgénérateur avec le cycle thorium. L'inventaire de matière fissile est de 5 tonnes par gigawatt électriques, à comparer aux 17 tonnes des réacteurs à neutrons rapides au sodium, soit 300 tonnes de matière fissile à l'équilibre dans le parc, soit la masse de plutonium d'aujourd'hui.

Le combustible liquide permet le retraitement en ligne. D'un point de vue théorique, il présente des avantages intéressants, parce qu'un combustible liquide peut être géré de façon très différente des combustibles solides, notamment dans des phases d'accidents.

M. Christian Bataille, député, rapporteur . - Je vous remercie M. David pour cette présentation des plus pédagogiques. Je laisse à présent la parole à M. Thierry Dujardin, directeur adjoint, science et développement, à l'Agence de l'OCDE pour l'énergie nucléaire qui va nous présenter le forum international génération IV (GIF).

M. Thierry Dujardin, directeur-adjoint, science et développement, OCDE/AEN . - Le GIF regroupe 13 pays, plus précisément 12 pays et la communauté européenne de l'énergie atomique Euratom, qui veulent coopérer en matière de R&D pour développer les systèmes d'énergie nucléaire du futur. Les neuf pays fondateurs ont commencé par définir ensemble des objectifs qu'ils partagent. On en compte deux en matière de développement durable, à savoir la meilleure utilisation des ressources naturelles et la minimisation des déchets ultimes à traiter. On notera qu'il s'agit d'une définition du développement durable différente de celle admise à l'OCDE, qui s'appuie sur les trois piliers de l'économie, de l'environnement et de l'aspect social. Le GIF a choisi de réduire le concept de développement durable à une meilleure utilisation des matières naturelles et la minimisation des déchets.

On compte également deux objectifs économiques, la compétitivité et la minimisation du risque financier, de façon à ce que le risque financier du développement d'un réacteur de génération IV ne soit pas supérieur aux autres risques financiers pris dans le développement d'autres sources énergétiques. Il s'agit d'un défi lorsqu'on sait l'importance du poids capitalistique, induisant des risques financiers majeurs, de l'énergie nucléaire.

On compte également trois objectifs en matière de sûreté et de fiabilité : un, une certaine excellence, deux, une faible probabilité d'accidents graves, et l'absence de nécessité de plan d'urgences externes, de façon à éviter toute conséquence hors site, trois, un objectif de résistance à la prolifération, pour éviter le détournement de matière et améliorer la protection physique.

Les neuf pays fondateurs ont commencé par élaborer une feuille de route technologique, de façon à identifier les systèmes les plus prometteurs. Ils sont partis d'une centaine de systèmes, pour en retenir six. Pour chacun, il s'agit d'identifier les besoins de R&D pour les faire progresser en vue d'une commercialisation éventuelle. Un planning de R&D est inclus dans cette technology world map, avec trois phases : viabilité, performance et démonstration, étant entendu que cette dernière ferait intervenir de l'ingénierie et des industriels.

Les quatre systèmes sont bien connus et vous les trouverez sur mes transparents. Pour des raisons de développement durable, on constate une large majorité de réacteurs à neutrons rapide, à cycle fermé. Il s'agit du SFR, du LFR, qui seront évoqués dans les présentations ultérieures. Le GFR est un réacteur à haute température visant un fonctionnement à 850°, refroidi à l'hélium, avec un combustible carbure et un gainage céramique, avec une boucle secondaire faite d'une turbine à gaz hélium/hydrogène, alimentant un échangeur pour faire de la vapeur et alimenter une turbine classique. Le réacteur à très haute température (VHTR) tend à fonctionner à 1000°, en étant refroidi à l'hélium. Son objectif premier vise à la production d'hydrogène, de façon à ce que l'énergie nucléaire puisse contribuer à la réduction des émissions de gaz à effet de serre dans le domaine des transports, au travers de l'utilisation de pile à combustible.

Le réacteur refroidi à l'eau supercritique (SCWR), fortement poussé par les Canadiens, vise à un fonctionnement avec de l'eau légère, à haute température, à 600°, en utilisant deux types de concepts, soit une cuve pressurisée, soit avec des tubes sous pression. Le MSR, lui, est un réacteur à sel fondu, dont la caractéristique est d'avoir un combustible nucléaire liquide.

Quelle a été la logique de la sélection pour les pays du GIF ? C'est d'abord l'espoir d'avoir des progrès significatifs dans les huit objectifs déterminés en commun avant cette sélection. C'est d'ouvrir des possibilités d'application différentes de la production d'électricité, en particulier la production d'hydrogène, éventuellement le dessalement ou la production de chaleur industrielle, pour utiliser les sables bitumineux et extraire du pétrole. C'est aussi disposer d'un choix suffisamment varié, de façon à avoir une capacité d'innovation. Un des objectifs du GIF était de viser à des ruptures technologiques, de ne pas rester dans la continuité des technologies actuelles. Les priorités nationales des pays membres ont été prises en compte, avec un calendrier à 2030 ou après, pour un déploiement commercial ou un début de déploiement industriel.

Cela dit, le comportement politique des différents acteurs a modifié cet agencement. Les Canadiens ont estimé que le SCWR était proche des réacteurs à eau légère, suivis par les Japonais, qui pensaient être prêts avec les réacteurs refroidis au sodium. L'administration Bush, qui visait à introduire l'économie de l'hydrogène, voulait un réacteur de génération IV qui produise de l'hydrogène rapidement, d'où le concept de NGNP défendu par le laboratoire d'Idaho. Le précédent Président de la République française a eu l'occasion d'annoncer qu'il voulait un réacteur prototype de génération IV aux alentours de 2020.

De telles démarches ont eu pour conséquence une réduction progressive des ambitions. Le réacteur à haute température est devenu moins haut en température. On a moins d'ambition pour le SCWR, etc. Elles ont impacté l'ambition initiale du GIF, qui entendait créer des ruptures technologiques de long terme.

Comment est organisé le GIF ? Son document fondateur est une charte, qui est une lettre de bonne intention entre pays qui veulent collaborer ensemble. Le GIF n'ayant pas de personnalité morale, n'est pas une organisation internationale. La charte définit les conditions d'accession, prévoit de coopérer au maximum avec ma propre agence et l'AIEA, pour tirer bénéfice de ce que font ces agences internationales. Il ne veut avoir ni budget propre, ni personnel permanent, ni bureaux indépendants. La charte définit sa propre gouvernance, avec un policy group qui est son comité de direction, qui s'appuie sur un groupe d'expérience. Elle a été signée pour dix ans en juillet 2001 par les neuf pays fondateurs, rejoints un par la Suisse, Euratom, la Chine et la Russie un peu plus tard. Elle vient d'être modifiée récemment, de façon à être prorogée pour une période indéterminée.

Comme le nucléaire est un sujet sérieux, les gouvernements ont demandé qu'un accord intergouvernemental cadre couvre l'ensemble de ces activités. Il a été signé en 2005 par cinq pays, puis est entré en vigueur le même jour, sauf pour le Royaume-Uni qui ne l'a pas ratifié. Depuis, la Suisse, la Corée du Sud, Euratom, la Chine, l'Afrique du Sud et la Russie ont accédé à ce traité. L'Argentine et le Brésil, qui avaient signé la charte au début, sont des membres non actifs au sein du GIF, mais gardent la possibilité d'y revenir. Quant au Royaume-Uni, il y participe au travers d'Euratom.

Cet accord cadre prévoit des agents de mise en oeuvre dans chacun des pays signataires, dont vous trouverez la liste dans mes transparents. Chaque pays avait la liberté de définir un ou plusieurs agents de mise en oeuvre.

En matière de gouvernance, un comité de direction s'appuie sur un comité d'industriels de haut niveau venant de chacun des pays du GIF. Pour chacun des six systèmes, un comité pilote l'ensemble des projets identifiés avec de forts besoins de R&D. Trois groupes transverses sont en place, un sur l'économie, un autre sur la résistance à la prolifération et la protection physique, et un troisième sur la sûreté. Ma propre agence fournit des services de secrétariat technique à l'ensemble des groupes techniques du GIF. Nous sommes financés par les pays du GIF, plusieurs pays au sein de mon agence ne voulant pas qu'une partie de leur argent soit détournée pour développer les technologies du futur.

Des arrangements systèmes ont également été définis, qui s'appuient sur un plan de recherche spécifique, lequel définit le fonctionnement d'un comité qui pilotera ces activités. Quatre arrangements système ont d'ores et déjà été signés, les partenaires variant de quatre à huit. Des projets ont été définis. Il s'agit d'engagements contractuels beaucoup plus précis, avec des calendriers, des ressources et des livrables qui traitent de la propriété intellectuelle dans chacun des systèmes.

Qui participe à quoi ? Quatre pays pour le GFR : Euratom, la France, le Japon et la Suisse. Un projet Conceptual Design & Safety sera signé prochainement par les mêmes quatre pays, le Japon ne souhaitant pas y participer. Le GFR devrait aussi bénéficier de recherches dans le cadre du GIF pour tout ce qui relève des composants et des matériaux à haute température, hors coeur.

Le LFR et le MSR sont moins dynamiques dans le cadre du GIF. Aussi n'y a-t-il pas de system arrangement signé par les pays, mais des memorandum of understanding signés par trois pays, dont Euratom, concernant le LFR, et la Russie.

S'agissant des réacteurs refroidis à l'eau supercritique, le Canada est un pays fortement impliqué, avec Euratom, le Japon et la Russie. Deux projets fonctionnent déjà très bien sur les matériaux spécifiques, l'eau supercritique à haute température posant beaucoup de problèmes de corrosion et présentant aussi une thermo-hydraulique très complexe dans certaines phases transitoires.

S'agissant de SFR, plusieurs projets sont en place, sur les combustibles avancés, la Chine et la Russie étant en train de définir leur contribution dans le futur. Le projet GACID vise à fabriquer des aiguilles de combustible avec des actinides mineurs, pour les irradier dans un autre réacteur, et les analyser après radiation. Component Design & Balance of Plant est un projet qui vise à travailler sur l'inspection en service et les méthodes de réparation. Pour le projet Safety & Operation , la Chine, Euratom et la Russie sont en train de définir leur contribution. Un projet doit prochainement démarrer sur l'évaluation globale et le system integration .

Huit pays participent au réacteur à haute température, de même que sur le volet production d'hydrogène et les Cycles, la Chine n'ayant pas encore défini sa contribution. S'agissant du projet sur les matériaux, une question se pose pour la participation de l'Afrique du Sud, le signataire PBMR ayant été dissous. Un projet sur les méthodes de validation devrait démarrer prochainement.

En conclusion, le GIF traduit une prise de conscience partagée par les pays membres de la nécessité de favoriser la renaissance du nucléaire. C'est une ambition très forte de rupture technologique, un cadre international robuste pour développer la R&D nécessaire. Le GIF n'a jamais eu l'ambition d'amener les six systèmes à maturité commerciale ou industrielle. S'il y aura immanquablement une sélection, le GIF a toujours exprimé qu'il ne fallait pas la faire trop tôt. C'est un consensus vers la famille des réacteurs à neutrons rapides avec cycles fermés, mais aussi un objectif de production d'hydrogène à haute température, et un outil qui permet d'amener de jeunes ingénieurs et scientifiques dans le secteur nucléaire, condition sine qua non pour que l'énergie nucléaire de demain soit correctement exploitée, ambition d'un certain nombre de laboratoires internationaux.

M. Christian Bataille, député, rapporteur . - Merci M. Dujardin pour cet exposé très complet. Nous aurons à présent l'honneur d'entendre M. Jean-Claude Dupplessy, président de la Commission nationale d'évaluation (CNE), qui va expliciter les enjeux de la séparation-transmutation pour la gestion des déchets nucléaires.

M. Jean-Claude Duplessy, président de la Commission nationale d'évaluation (CNE) . - Ce n'est pas à vous, bien entendu, que je vais expliquer ce qu'est la commission nationale d'évaluation des recherches et études relatives à la gestion des matières et des déchets radioactifs. Vous en avez été l'un des créateurs. La CNE, je le rappelle, n'est pas un acteur de la loi. Nous ne sommes pas des promoteurs de quoi que ce soit. Notre travail est de réaliser une évaluation scientifique des activités de recherche, d'étude, des acteurs de la loi, préférentiellement le CEA et l'ANDRA, mais aussi tous les organismes qui travaillent avec eux, en particulier les universitaires, le CNRS, mais aussi EDF et AREVA.

Je vais vous présenter le résultat des auditions des années 2010-2011, lors desquelles nous avons écouté, à l'occasion d'une vingtaine d'auditions, les acteurs de la loi. Il ne s'agit pas de faire table rase, étant entendu qu'on disposait d'acquis de vingt ans de recherche dans le cadre de la loi de 1991, qui s'est achevée en 2005, et de la loi de 2006, actuellement en cours.

S'agissant de la partie séparation, toutes les recherches menées au cours de ces vingt dernières années ont démontré la faisabilité scientifique et technique de la séparation. Les travaux menés au CEA, souvent en collaboration avec des équipes universitaires, ont permis de mettre au point des molécules capables de résister à la radiolyse, d'autre part d'extraire sélectivement l'uranium, le plutonium, le neptunium, l'américium et le curium. On dispose de tout un lego qui permet de séparer ces éléments unitairement, ou le plutonium d'un côté et tous les actinides mineurs ensembles. Toute la panoplie est disponible.

S'agissant de la transmutation, par contre, on est bien moins en avance. Les irradiations qui ont été effectuées dans Phénix ont prouvé la faisabilité scientifique de la transmutation. Cela dit, nous n'en sommes pas arrivés au stade industriel. Reste à démontrer qu'une stratégie de transmutation et multirecyclage des actinides - plutonium et actinides mineurs - est possible à l'échelle industrielle pour produire de l'électricité, économiser la ressource en uranium en utilisant un combustible à base de Plutonium et d'Uranium 238, et transmuter, en fonction des besoins, tout ou partie des actinides mineurs.

Notre analyse peut s'apprécier en se focalisant sur deux aspects : minimiser les déchets, objectifs des lois de 1991 et de 2006, et économiser la ressource, dans la mesure où nous sommes dans un monde où l'économie ne doit pas être oubliée. S'agissant des ressources, les REP utilisent la fission de l'uranium 235 qui représente moins de 1% du minerai. Par ailleurs, ils produisent des actinides dont le plutonium, de l'ordre de 10 tonnes par an pour le parc français actuel. Point important : les REP ne sont pas capables de multirecycler les actinides. Le combustible Mox - mélange d'oxydes d'uranium et de Plutonium - n'est utilisable qu'une fois en REP en raison de la dégradation de la composition isotopique du Plutonium au fur et à mesure du temps.

S'agissant des déchets, le stockage des déchets du parc actuel ne prend pas en compte le plutonium, considéré comme une ressource. Il prévoit de stocker en couche géologique profonde les produits de fission et les actinides mineurs bloqués dans des verres.

Dans le futur, si l'on ne veut pas mettre aux déchets les combustibles usés et tous les actinides, il faut envisager de transmuter les actinides dans des RNR, soit par un scénario à double strate découplant la production d'électricité de la transmutation des actinides produits - ce sera l'objet de l'exposé de M. Hamid Aït Abderrahim - soit en faisant appel à un parc de RNR électrogènes, capables de multirecycler le plutonium et les actinides mineurs.

Minimiser les déchets et économiser la ressource avec des RNR ? Les RNR peuvent utiliser le plutonium comme élément fissile sur support d'uranium 238. Il reste à démontrer leur capacité à être alimentés par leurs propres actinides pour fabriquer un cycle fermé. Le plutonium deviendrait la matière fissile et les actinides mineurs seraient transmutés à leur tour pour stabiliser leur quantité dans le cycle. Cette dimension de stabilisation, j'y reviendrai, est essentielle.

La réalisation d'un tel cycle fermé permettrait de s'affranchir de l'industrie minière et de ses déchets. En outre, elle assurerait une indépendance énergétique de la France sur le très long terme.

Cela dit, de nombreuses études doivent être conduites. On a d'abord besoin d'un exemplaire de réacteur à neutron rapide. Le prototype Astrid, RNR de quatrième génération, est destiné à démontrer la faisabilité du multirecyclage de tous les actinides. La CNE, depuis plusieurs années, considère sa construction, prévue par la loi de 2006, comme indispensable à la recherche française.

Par ailleurs, ce prototype devra être associé à un pilote de retraitement permettant de tester les performances d'une chaîne complète de retraitement intégrant la séparation des actinides et la fabrication d'un nouveau combustible. Il doit également servir à démontrer que les actinides mineurs que l'on souhaitera transmuter, pourront subir un traitement adéquat pour leur conditionnement et leur transmutation.

J'en viens à la stabilisation des quantités d'actinides dans le cycle, dans le cadre d'une stratégie de séparation-transmutation (ST). Tout système transmuteur consomme du plutonium et des actinides mineurs en même temps qu'il en produit. Par conséquent, quelle que soit la technologie mise en oeuvre, la transmutation sera un processus lent. Il faudra plusieurs dizaines d'années pour stabiliser l'inventaire en plutonium et en actinides mineurs dans le cycle. Mais cette stabilisation est possible avec des RNR.

Le raisonnement s'applique à tous les actinides : le plutonium et les actinides mineurs. Il ne faut cependant pas oublier que le plutonium représente environ 90% des actinides du combustible usé. Du coup, l'option de la transmutation des actinides mineurs pour optimiser le bilan radiotoxique des déchets n'a de sens que si l'on envisage d'abord de gérer le plutonium, dont les quantités sont dix fois plus importantes que celles des actinides mineurs.

Que montre une comparaison de trois parcs de 430 térawattheures annuels ? Avec les REP, on se retrouve en 2150 avec 1 900 tonnes de plutonium accumulé, étant entendu qu'on continuera à avoir besoin de mines d'uranium, d'enrichissement et de retraitement. Les déchets seront constitués de plutonium, l'uranium appauvri et les résidus miniers. En passant à une stratégie REP, utilisant le recyclage dans les mox, en 2150, ce seront 1 300 tonnes de plutonium qui se seront accumulés. Mêmes problèmes pour l'approvisionnement en uranium - mêmes types de déchets. Avec les RNR, ce ne seront plus que 900 tonnes de plutonium qui seront, en 2150, recyclés en permanence, soit dans les réacteurs eux-mêmes, soit dans les usines de retraitement. Il faudrait 50 tonnes d'uranium appauvri par an, pour fournir l'uranium 238. En France, il faut savoir que nous en disposons de plus de 200 000 tonnes, et dont on sera heureux de se débarrasser car ne rien en faire en fait un déchet. En termes de déchets, il faudra gérer la fin de cycle, en utilisant par exemple les réacteurs ADS ( accelerator driven system ) dont le projet Myrrha sera une illustration.

Cela dit, La stratégie S-T n'a de sens qu'appliquée d'abord au plutonium, qui représente 90 % des actinides. Elle repose sur une vision à très long terme d'une production d'électricité nucléaire : la transmutation est un processus lent et il faut du temps pour en tirer le plein bénéfice.

Au plan de la recherche, il est absolument impératif de disposer d'Astrid au plus près des délais impartis. La démonstration de la stratégie S-T ne peut être conduite que si un pilote de retraitement est associé à Astrid. Il faut être conscient que le pilote est indispensable pour réaliser des tests, motiver la communauté scientifique, et faire en sorte que l'expérience et tout l'acquis des recherches depuis une cinquantaine d'années ne soit pas perdu. Les gens vieillissent, partent en retraite. Et c'est un fait que les gens qui ont de l'expérience deviennent de plus en plus rares. Si on ne les motive pas, nous n'aurons pas de jeunes pour prendre le relai et être encadrés par des gens compétents.

Un programme de recherches ambitieux est nécessaire pour apporter à ce nouveau RNR toutes les innovations indispensables. La logique de la recherche doit ici être dissociée de la logique industrielle, qui vise à vérifier au plus vite que le prototype pourra fournir de l'électricité avec les meilleurs rendements. La recherche a ses exigences. L'enjeu pour la France est de conserver son avance scientifique et technologique dans la maîtrise du cycle du combustible en assurant maintenant sa fermeture, ce que l'EPR ne permet pas.

En termes de déchets, la stratégie S-T ne concerne pas les déchets du parc actuel qui sont vitrifiés et prévus pour le stockage géologique profond. Appliquée aux réacteurs à venir, elle minimise les déchets et réduit leur radio-toxicité, mais ne les supprime pas. Il y aura toujours des radio-éléments à vie longue à mettre en stockage géologique profond : produits de fission, actinides mineurs qui ne pourraient être transmutés industriellement, pertes en cours de traitement chimique. Elle aura néanmoins un impact sur le futur stockage des déchets en réduisant son emprise, la thermique et les volumes excavés.

M. Christian Bataille, député, rapporteur . - Je vous remercie. Je donne la parole à M. Christophe Béhar, directeur de l'énergie nucléaire du CEA qui va faire un point sur la R&D et la coopération internationale dans le domaine des réacteurs de quatrième génération, et plus particulièrement le réacteur à neutrons rapide à fluide caloporteur sodium.

M. Christophe Béhar . - J'ai souhaité organiser mon exposé en trois points. Le premier sera un rappel rapide sur la raison pour laquelle la France souhaite développer une technologie liée aux neutrons rapides. La deuxième porte sur la stratégie française concernant la quatrième génération. Il a été décidé de travailler sur deux filières de réacteurs à neutrons rapides, ceux refroidis au sodium, mais aussi au gaz. J'expliquerai pourquoi n'ont pas été retenues dans les travaux menés au sein du CEA les études sur les réacteurs à neutrons rapides refroidis au plomb ou à fluide supercritique. Nous menons à bien des études et des développements qui sont pour certains en rupture complète, ce que j'illustrerai par deux exemples relatifs aux réacteurs à neutrons rapides qui ont été déployés ou qui en sont en déploiement, par exemple en Russie. Ma troisième partie portera sur les partenariats et les marchés. Nos partenariats montrent à l'évidence que nous ne sommes pas seuls à mener à bien des actions de R&D au niveau mondial, en particulier sur les réacteurs à neutrons rapides refroidis au sodium. Je vous ferai ainsi part des accords de coopération que nous développons en matière de R&D, et du travail que nous menons à bien avec des industriels français, mais aussi étrangers, pour le développement du réacteur à neutrons rapide prototype ASTRID.

Premièrement, pourquoi un réacteur à neutrons rapides (RNR) ? C'est d'abord la possibilité de consommer le plutonium produit par le parc avec recyclage total des matières énergétiques contenues dans les combustibles. C'est ensuite une optimisation de la ressource uranium naturel avec une valorisation optimale de l'uranium extrait. C'est enfin la possibilité de réduction de l'inventaire des déchets de très haute activité et à vie longue par recyclage des actinides mineurs dans le cadre de la loi du 28 juin 2006 sur la Gestion durable des déchets et matières radioactives.

Il faut noter que nous avons choisi des RNR et non des technologies de type ADS. Deux raisons nous ont conduits à faire ce choix. La première est que la quantité réelle d'actinide transmuté est assez identique, qu'il s'agisse d'ADS ou de RNR. La deuxième est que nous estimons que le coût des ADS est supérieur à celui des RNR.

Quelle est notre stratégie en matière de développement de réacteurs de quatrième génération ? Le forum international Génération IV, dont j'ai l'honneur d'être un vice-président, a défini voilà très longtemps, quatre filières de RNR, qui sont refroidis soit au gaz, au sodium, au plomb ou au plomb bismuth, et au sel fondu. Pour nous, le dernier type de réacteur, s'il se fait, débouchera sur un prototype très tardivement. Il nous restait donc les trois premières technologies de réacteurs. Nous n'avons pas retenu la technologie des réacteurs refroidis au plomb ou au plomb bismuth pour plusieurs raisons. La première est qu'il est nécessaire de gérer partout très finement la quantité d'oxygène dissoute. A défaut, nous courrons au devant de très grands problèmes de corrosion. La deuxième est que le bismuth sous irradiation s'active très fortement. La troisième est que ce type de caloporteur ne permet pas d'avoir des réacteurs de forte puissance. Enfin, le bismuth n'est pas un matériau si répandu au niveau terrestre.

Nous avons donc décidé de concentrer nos efforts sur deux filières, celle refroidie au gaz, et celle refroidie au sodium. Dans le RNR gaz, qui est pour nous une option à plus long terme, dans la mesure où le réacteur fonctionnera à haute température, nous travaillons sur deux sujets qui sont pour nous des verrous technologiques. D'une part les matériaux, puisque nous devons disposer des matériaux qui tiennent à haute température ; d'autre part, la sûreté. Avec un réacteur à gaz, la problématique de la sûreté est importante.

Si ce réacteur voit le jour, il sera construit sous forme d'un prototype de l'ordre de 80 à 100 mégawatts thermiques à l'est de l'Europe. Trois pays se sont déclarés candidats pour voir un tel type de réacteur à l'horizon 2025, plus vraisemblablement 2030.

Le RNR sodium est pour nous une filière de référence, avec un prototype ASTRID dont je vais préciser le planning. Nous avons un point de rendez-vous avec l'État en 2012, où nous allons présenter pour les deux filières un dossier d'orientation, qui comprendra trois éléments : les aspects techniques, de coût et de planning. Le dossier d'orientation relatif au RNR gaz sera moins précis pour des raisons évidentes, dans la mesure où nous sommes toujours sur des études amont, que celui du RNR sodium. Nous ne prenons en compte que des options techniques, en rupture forte. Je l'illustrerai avec la problématique du tertiaire en matière d'échangeurs, mon objectif étant de supprimer à terme les problématiques d'interactions sodium-eau, mais aussi avec la question de la sûreté du coeur du réacteur. Même si nous devons encore poursuivre des expérimentations, je vous dirai pourquoi nous avons développé un coeur plus sûr.

J'en viens au planning d'ASTRID. L'année 2012 sera celle du dossier d'orientation et de la décision de poursuite des études. Un premier axe est lié au développement du réacteur lui-même, le deuxième au cycle associé au réacteur. M. Duplessy a souligné qu'il était nécessaire de développer simultanément le cycle du combustible associé - ce que nous faisons. Les études doivent se poursuivre jusqu'en 2017, où la décision de construction doit être prise, pour un réacteur divergent aux alentours de 2025.

Simultanément, nous travaillons sur le cycle du combustible associé à ce réacteur, au travers de deux installations importantes : d'abord un atelier de fabrication des coeurs, le coeur utilisé, mélange d'uranium appauvri et de plutonium, étant spécifique, d'autre part, un pilote de traitement pour démontrer le multirecyclage du plutonium et la possibilité de transmuter à plus grande échelle du combustible chargé en actinides mineurs.

J'en viens aux axes de R&D. De quelle manière les avons-nous définis ? L'approche a été très simple. Nous avons utilisé à plein le retour d'expérience dont nous disposions, en France, mais aussi à l'étranger, dans des constructions passées ou dans des réacteurs opérationnels, comme le BN600 russe. De ce retour d'expérience, nous avons examiné quelles étaient les points durs que nous pouvions retenir. Je citerais la réactivité des coeurs de RNR, la réaction sodium-eau et la problématique des accidents graves. Nous avons bien entendu d'autres axes de R&D, en particulier sur les problématiques de réparabilité, d'inspection en service, problématiques déjà citées par M. Dujardin.

Ces axes de R&D étant définis, je souhaite traiter, avant de les approfondir, quelques points particuliers, et d'abord la question de la sûreté dans les réacteurs à neutrons rapides refroidis au sodium. En cas de problème de type Fukushima, que se passerait-il, me demande-t-on souvent ? Ces réacteurs ont une très grande inertie thermique. A Fukushima, on s'en souvient, les barres de contrôle sont tombées. Le réacteur s'est très bien comporté sous l'aspect sismique. Le problème rencontré à été celui de l'évacuation de la puissance résiduelle. Dans les RNR refroidis au sodium, la puissance résiduelle ne peut commencer à poser problème qu'au bout d'un temps beaucoup plus long que pour les réacteurs à neutrons lents refroidis à eau. Et cela, pour deux raisons. D'abord, parce que nous avons une quantité de sodium dans le coeur qui est plus importante que celle de l'eau, mais surtout, que la différence entre la température de fonctionnement du sodium et sa température d'ébullition est très importante. Pour porter cette masse de sodium et les internes qui constituent le réacteur à la température d'ébullition, comme ce qu'on a vu à Fukushima, on dispose donc d'un temps beaucoup plus long.

La deuxième raison, au moins aussi importante, est qu'il est possible d'avoir dans ce type de réacteurs des mouvements de convection naturelle. Le sodium se met en mouvement naturellement pour évacuer la puissance résiduelle du coeur. Il va évacuer cette puissance vers un système complètement passif, qui permet par circulation de sodium et par effet thermo siphon, d'évacuer cette puissance résiduelle vers une cheminée à l'air, sans aucun ventilateur. Ce type de système a été testé dans les constructions que nous avons réalisées en France. Nous savons qu'il fonctionne.

J'en viens à deux axes de R&D spécifiques. Un de nos problèmes a été de savoir comment traiter l'interaction sodium-eau. Pour traiter cette problématique, nous avons retenu trois voies. La première consiste à faire en sorte que la quantité de sodium qui pourrait interagir avec l'eau soit limitée, voie qui nous conduit à mettre en place des échangeurs segmentés. Il ne s'agit pas d'évacuer toute la puissance par un seul échangeur, mais de l'évacuer par plusieurs échangeurs séparés les uns des autres. Du coup, l'éventuelle interaction entre le sodium et l'eau sera fortement diminuée, les masses en présence de l'un et de l'autre étant faibles. Cette solution sera probablement utilisée au démarrage d'ASTRID.

La deuxième solution est plus lointaine, et illustre bien que nous sommes en situation de rupture de R&D. Ces idées, nous pensons les tester aux alentours de 2020, sur ce réacteur ou à côté, dans des conditions représentatives, la mise en oeuvre opérationnelle devant avoir lieu en 2040. Il s'agit donc de remplacer l'eau par un gaz, l'azote. Cela suppose de travailler sur un échangeur sodium-azote, d'autre part sur une turbine qui pourra prendre l'azote chaud, et transformer son énergie en électricité. Une telle solution supposera une collaboration très forte avec Alstom.

La troisième solution consiste à conserver un réacteur à sodium, utiliser du plomb bismuth, de l'eau, puis une turbine.

Voilà un premier type de travail de rupture par rapport à ce qui prévalait antérieurement, et un domaine où nous avons conservé des marges de progrès très importantes, en suivant des axes de R&D.

J'en viens au sujet de la sûreté dans les RNR et de la problématique liée à la question suivante : que se passe-t-il si l'on enregistrait dans un coeur de RNR refroidi au sodium une augmentation de température ? Dans les coeurs classiques, il pourrait y avoir une croissance de la population de neutrons, liée à l'effet de vidange, donc une croissance de la puissance nucléaire engendrée. Dans le coeur que nous avons développé, et sur lequel nous avons commencé à faire de la validation expérimentale, après avoir réalisé beaucoup de calculs, nous avons traité cette problématique de coefficient de vidange et d'emballement de la réaction nucléaire suite à une augmentation de la température par au moins deux effets. Le premier est un effet de topologie, le coeur innovant disposant d'une couche de sodium au dessus de la matière fissile, et un absorbant neutronique au-dessus. Le deuxième est la mise en place d'un plenum sodium, c'est-à-dire la présence d'un grand volume de sodium en sortie. C'est un deuxième exemple d'avancée significative et d'innovation dans le domaine des RNR sodium.

J'en viens à la question des collaborations internationales, en matière de R&D, mais aussi industrielles. S'ajoutent aux collaborations que nous développons au sein du forum international Génération IV sur la filière sodium, les collaborations bilatérales ou trilatérales avec le Kit, Rosatom et la Japan Atomic Energy Agency. Nous avons des collaborations limitées avec l'Inde, qui n'a pas ratifié le traité de non prolifération. Nous travaillons avec ce pays dans le domaine de la sûreté, mais aussi des études fondamentales sur les RNR sodium. Nous avons des collaborations bilatérales avec la Chine et les Etats-Unis. Dans le domaine industriel, nous avons des collaborations avec un ensemble d'entreprises françaises, Edf, Arera, la Comex et Alstom. Nous avons avec nous des industriels européens, comme Rolls Royce, des collaborations industrielles avec Toshiba. Nous constatons qu'un ensemble d'industriels nous rejoignent pour travailler sur ce prototype ASTRID.

Je terminerai par quelques remarques de bon sens. Pour les RNR, les gros marchés sont en Chine et en Inde, dans une moindre mesure en Russie. Certes, les aspects économiques sont importants. Mais la dimension d'autonomie énergétique va peser très lourd dans ces pays. Nous possédons une avance concurrentielle extrêmement importante, que nous sommes en train de capitaliser au travers des études que nous menons sur ASTRID. Il est essentiel de ne pas perdre cette avance que l'ensemble du monde nous reconnaît.

M. Christian Bataille, député, rapporteur . - Merci M. Béhar pour cet exposé. Nous avons le plaisir d'accueillir M. Hamid Aït Abderrahim, directeur général adjoint du centre de recherche nucléaire de Belgique (SCK-CEN) et directeur du projet MYRRHA dont il va nous exposer les objectifs.

M. Hamid Aït Abderrahim, directeur général adjoint du SCK-CEN (centre de recherche nucléaire de Belgique) et directeur du projet MYRRHA. Le projet MYRRHA est une grande infrastructure de recherche que la Belgique veut développer dans un contexte européen, qui concerne les technologies du nucléaire du futur à spectre rapide et la problématique des déchets nucléaires.

Si l'on veut que le nucléaire soit présent dans le futur, il doit répondre au problème des déchets nucléaires. Ainsi, on ne parvient pas à faire accepter la décision sur le stockage géologique, même si des solutions techniquement acceptables existent. Sur le long terme, la gestion de la ressource est importante, comme l'amélioration de la sûreté et du risque de prolifération, point sur lequel je ne m'attarderai pas.

Sur le plan international, l'Agence internationale de l'énergie affirme qu'il faut, pour le nucléaire du futur, investir avant tout dans la R&D. Le nucléaire du futur, ce sont les réacteurs rapides et la fermeture du cycle du combustible. Par ailleurs, ce développement ne doit pas se faire seulement au niveau de la R&D, sans impliquer les industriels avec nous dès le départ. Il ne faut pas inventer des solutions qui n'intéressent pas le déploiement industriel.

Cela dit, le dossier MYRRHA a été sélectionné en 2010 par l'Union européenne sur la liste ESFRI (European Strategy Forum on Research Infrastructures), relative aux grandes infrastructures de recherche que l'Europe doit développer. Il est également repris sur le plan de l'énergie dans la plate-forme technologique SNETP. De notre côté, on estime qu'on a besoin en Europe occidentale avant toute chose de réacteurs de recherche à spectre rapide pour effectuer tout le développement dont on a besoin, tant un outil expérimental à spectre rapide et flexible est un besoin primordial. Aujourd'hui, on ne dispose que d'une seule infrastructure en fonctionnement dans le monde, en Russie.

S'agissant de la problématique des déchets, que voulons-nous faire avec MYRRHA ? Nous voulons une démonstration de l'utilité du concept ADS dans une logique à double strate, qui retraiterait les déchets nucléaires en dehors du circuit de production d'électricité. La décision n'est pas seulement technique, mais aussi économique. Pour pouvoir répondre à cette question, nous pensons qu'il est absolument nécessaire de faire une démonstration à une échelle qui puisse permettre la projection à l'échelle industrielle. C'est la raison pour laquelle nous visons autour de 100 mégawatts thermiques pour le réacteur sous-critique, avec un accélérateur qui aura toute les caractéristiques nécessaires pour pouvoir projeter la machine industrielle.

Dans les filières à spectre rapide, la référence est le sodium. C'est le cas pour notre plate-forme technologique SNETP et dans l'initiative industrielle à laquelle nous sommes associés avec nos collègues du CEA. ASTRID est le prototype industriel le plus avancé. Comme il ne faut jamais mettre ses oeufs dans le même panier, nous avons voulu travailler sur des technologies dites de backup , comme le gaz à spectre rapide et le plomb, ou plomb bismuth. MYRRHA pourrait jouer le rôle d'un prototype technologique pour la filière au plomb. La contribution à la démonstration du plomb pourrait être faite grâce à MYRRHA qui est conçue pour pouvoir fonctionner de façon critique ou sous-critique. Pour pouvoir travailler sur une filière à industrialiser, il faudrait crédibiliser la filière.

C'est la raison pour laquelle un de nos objectifs est de démontrer que le plomb est une alternative crédible à la filière sodium. M. Béhar a mis en avant la rareté du bismuth, qui justifierait de passer à la filière plomb. La démonstration technologique au plomb bismuth nous permet de le faire plus rapidement, compte tenu des températures de fonctionnement du caloporteur. La température de fusion y est de 123 °, à comparer à 370 ° pour le plomb pur. La température d'ébullition du caloporteur est de 1 700°. La marge par rapport à la sûreté intrinsèque pour la chaleur résiduelle est encore plus grande dans le cas du plomb. Les problèmes de corrosion doivent naturellement être maîtrisés.

MYRRHA a été conçu pour être une machine d'irradiation qui remplacerait notre grand réacteur de recherche BR2. Comme nous ne voulons pas reproduire ce qu'on a fait chez nous en 1962, nous entendons construire quelque chose d'utile à l'international, raison pour laquelle nous avons choisi un spectre rapide expérimental, qui aura la même flexibilité que le BR2, mais qui élargira le portefeuille de recherche que nous faisons dans notre réacteur.

Ce projet a été régulièrement soumis à une évaluation internationale. Notre gouvernement a pris la décision en 2010, après avoir demandé une évaluation indépendante à l'Agence de l'énergie nucléaire de l'OCDE. La conclusion est que MYRRHA pouvait répondre au cahier des charges qu'on s'était donné. Néanmoins, ce comité a aussi fait certaines remarques, sur l'attention à porter à certains risques technologiques présents dans notre projet. MYRRHA est un réacteur sous-critique de 100 mégawatts, piloté par un accélérateur linéaire délivrant 600 MeV d'énergie et 4 mA de courant. C'est un accélérateur très puissant, qu'on trouve dans d'autres pays. Ce sont des technologies, il faut le souligner, où les meilleurs sont des Européens, et je pense à nos collègues du CEA ou de l'IN2P3. Il faut bien être conscient que nous avons des champions en Europe, message que l'on veut faire passer auprès des politiques. Nous avons les compétences dans tous les différents domaines de technologie. Ne nous laissons pas dépasser par les Chinois, les Indiens ou d'autres. Nous avons les billes en mains pour être les premiers de la classe.

MYRRHA doit répondre à un certain nombre de défis, pour la fission, la fusion, la recherche fondamentale, les énergies renouvelables, en produisant du silicium dopé, ou pour la santé, en faisant des radio-isotopes.

Pour tous ces défis, MYRRHA peut apporter une partie de la solution. Quel calendrier ? Nous sommes dans la phase 2010-2014. Suite à l'évaluation de l'OCDE, le gouvernement belge a pris la décision de financer MYRRHA à hauteur de 40 %. Nous devons assurer le complément à l'international. Il nous a accordé un premier budget pour cette période de 60 millions d'euros pour répondre au défi de la minimisation des risques technologiques, que ce soit pour l'accélérateur ou le coeur sous-critique. Il faut par ailleurs garantir que cette machine sera autorisée par l'autorité de sûreté, donc obtenir un premier avis positif pour 2014. Enfin, nous devons sécuriser une gestion du projet de façon performante et garantir que le consortium sera établi pour 2014.

D'aucuns estiment qu'il s'agit d'un gros projet pour un petit pays. Ce n'est pourtant que 32 M€ par an à dépenser, la Belgique dépensant 1,1 milliard d'euros par an pour sa compagnie ferroviaire. Comment imaginons-nous le consortium pour la première phase de construction ? Aujourd'hui, la Belgique est le premier investisseur. Nous voulons garder une dimension européenne au projet, raison pour laquelle nous visons une participation à hauteur de 30 % de l'Europe, entre les pays membres et la Commission européenne. Nous regardons vers l'Asie, la participation étant limitée à 20 %, pour conserver sa dimension européenne au projet. Nous sommes en négociation avec d'autres pays, comme le Japon, les États-Unis ou le Kazakhstan.

Une fois construite, cette machine sera une grande infrastructure ouverte, qui comprendra des programmes exécutés pour les membres du consortium, où l'information sera limitée, mais partagée entre les membres. L'information sera ouverte pour 25 % des travaux réalisés, étant entendu qu'une partie sera assurée par des financements européens. Il y aura également une information partagée sur des projets de recherche collaborative, entre des partenaires finançant cette recherche. Enfin, une partie sera purement commerciale et industrielle, les résultats étant réservés à ceux qui auront payé la recherche.

L'avantage de figurer dans les pays qui auront participé à l'investissement est qu'ils auront le droit de définir le programme de recherche, la part des quatre types d'activités, et, dans l'hypothèse où l'on ferait un revenu commercial supérieur, un droit de tirage qui sera moins coûteux.

Le réseau de participation dans le projet MYRRHA est assez large, impliquant des industriels et centres de recherche européens et un important réseau d'universités. N'oublions pas que nous avons besoin d'une nouvelle génération de chercheurs et d'ingénieurs disposant de compétences dans le domaine nucléaire. Nous avons donc établi, dès le départ, un grand réseau de collaboration avec les universités. Au-delà de l'Europe, nous sommes en discussion avec des institutions en Corée, au Japon, aux États-Unis, en Chine, et au Kazakhstan.

Le gouvernement belge a clairement annoncé qu'il ouvrait le projet à la collaboration internationale. Une participation au projet en nature ou bien financière est attendue. Jusqu'à fin 2014, notre objectif est de collecter des lettres d'intention. Nous avons signé des protocoles d'accords avec différents partenaires de recherche, sachant très bien que les pays s'appuieront sur des acteurs nationaux qui feront des contributions en nature vers certaines grandes infrastructures. Notre objectif est donc d'avoir ces lettres d'intention pour finaliser le cadre légal que nous proposerons à cette grande infrastructure de recherche fin 2014.

Cette technologie du nucléaire du futur se fera dans une collaboration internationale. En matière de séparation et transmutation, nous avons besoin de plusieurs briques, d'un atelier de retraitement avancé et d'un transmuteur dédié. Tous les développements en cours sont des éléments de recherche qui définiront la filière d'industrialisation. Ce faisant, la Belgique apporte sa pierre à l'édifice de la technologie en proposant un tel projet à la communauté internationale, plus particulièrement à la communauté nucléaire de l'Europe.

M. Christian Bataille, député, rapporteur . - Nous disposons en effet en Europe d'une avance importante dans le domaine des recherches les plus innovantes qu'il faut conserver, face à des concurrents redoutables, notamment en Asie, qui entendent prendre la direction des opérations. Je donne enfin la parole à M. Pascal Garin, directeur adjoint pour la France du projet ITER qui va nous en présenter les enjeux.

M. Pascal Garin . - Je présenterai le projet ITER et les projets qui sont associés aux recherches menées actuellement à l'échelon international dans le domaine de la fusion.

La fusion est une énergie nucléaire, au même titre que la fission, dont les technologies et les moyens de production sont radicalement différents. Il ne s'agit pas de casser des noyaux, mais de fusionner des noyaux légers, en l'occurrence de l'hydrogène et ses deux isotopes, de façon à générer de l'énergie par défaut de masse.

Cette énergie est particulièrement concentrée dans la fusion, dans la mesure où l'énergie qui lie les particules qui constituent le noyau est très importante pour les noyaux légers. L'énergie que l'on dégage en fusionnant ces noyaux est beaucoup plus importante que celle qu'on récupère pour un même noyau, par exemple en cassant de l'uranium ou du thorium.

Il existe plusieurs manières de produire de la fusion. Les étoiles nous le montrent, par leur masse énorme et la compression gravitationnelle qui en résulte, qui permet d'atteindre des températures très élevées. Aussi produisent-elles naturellement de l'énergie par la fusion des noyaux en leur coeur.

Ce ne sont bien évidemment pas des méthodes utilisables sur Terre, dans la mesure où les distances nécessaires sont inatteignables. Il existe deux technologies complémentaires ou concurrentes. La première est mise en oeuvre dans deux installations, l'une aux États-Unis, la National Facility, et l'autre au sud de Bordeaux, le Laser Mégajoule (LMJ). Elle consiste à fusionner une petite bille de matériau en la compressant par des faisceaux lasers de très grande intensité, pendant des temps très courts.

Mais je parlerai d'une autre technologie, le confinement magnétique, qui tend à isoler le gaz très chaud qu'on a besoin de créer au sein d'un champ magnétique très intense, qui permet d'isoler thermiquement ce gaz porté à des températures de plus de 100 millions de degrés pour l'entourer. Ces technologies sont complexes, mais présentent des avantages très intéressants à long terme, dans la mesure où le combustible utilisé pour la fusion est essentiellement de l'eau et du lithium. Pas plus de 45 litres d'eau, soit la moitié d'une baignoire, associé au lithium d'une batterie d'ordinateur portable, vous permet d'assurer la fourniture en électricité pour une trentaine d'années d'un citoyen européen. C'est donc une concentration très importante d'énergie, grâce aux propriétés de la matière.

La deuxième caractéristique, et la raison pour laquelle la fusion est considérée comme une option intéressante à long terme, est le fait que peu de déchets sont générés par la filière fusion, et pas de déchets à haute intensité.

La troisième caractéristique, importante dans les temps que nous traversons, est la sûreté intrinsèque, à savoir qu'il n'y a pas de chaleur résiduelle dans un réacteur de fusion, dans la mesure où la quantité de combustible présent dans le réacteur est de quelques grammes. Une des difficultés qu'on rencontre dans ces machines est qu'il faut porter à haute température et maintenir la réaction, démarche compliquée. Les réacteurs de fusion ne génèrent pas de gaz à effet de serre, de par l'absence de brulage de matériaux produisant du CO 2 .

Cela dit, la stratégie de développement de la fusion est une stratégie à très long terme, différenciée selon les partenaires mondiaux. Pour l'Europe et le Japon, qui possèdent peu ou pas de ressources naturelles, l'accent est essentiellement porté sur la production d'énergie. L'application des recherches qui sont menées sur la fusion par ces deux partenaires concerne clairement la génération d'énergie le plus rapidement possible. Ce n'est pas le cas des États-Unis qui, disposant de ressources naturelles sur leur territoire, ont plutôt axé les recherches sur la fusion vers la science. Même s'ils contribuent au projet ITER, leurs propres recherches s'intéressent essentiellement à la physique des plasmas.

ITER est la première étape de ces recherches et constitue la démonstration scientifique visée par cette installation internationale. L'objectif principal est de démontrer qu'on peut générer de l'énergie de fusion à une puissance significative, de l'ordre de 500 mégawatts thermiques sur des durées significatives, qui se chiffrent en des milliers de secondes. La communauté scientifique estime qu'il s'agit de la première étape à franchir, dans la mesure où il faut être capable de démontrer qu'on sait maîtriser ce gaz très chaud, qu'il faut stabiliser. Il faut également échanger la chaleur générée par les réactions de fusion au travers des éléments matériels qui entourent le plasma. C'est l'objectif principal de cette installation, qui est d'en faire la démonstration scientifique.

La deuxième étape, prévue après la construction d'ITER, qu'on a appelé Démo, est la réalisation d'un démonstrateur technologique, qui vise à intégrer dans cette machine la totalité des technologies nécessaires pour faire de l'électricité. Si ITER ne produira pas d'électricité, Démo en produira, de façon non fiable, dans la mesure où il ne s'agit pas d'une machine industrielle. Ce démonstrateur devrait intégrer des matériaux qui résistent à des flux neutroniques intenses, dans la mesure où les neutrons produits par réaction de fusion sont de 14 MeV, et dégagent une énergie beaucoup plus importante que celle produite par les réactions de fission. Il est donc important de vérifier qu'on est capable de construire une machine qui résiste à ces flux de neutrons, ainsi qu'aux charges thermiques générées par les réactions de fusion et dans son échange avec les parois matérielles.

Autre aspect important dans Démo : le cycle du combustible. La fusion utilise essentiellement du deutérium, qui est un des isotopes de l'hydrogène, et du lithium comme combustible primaire. Il faut bien s'assurer que ces deux combustibles associés dans le cycle interne de la machine, peuvent générer du tritium, élément temporaire utilisé dans les réactions de fusion. Ce cycle ne sera que partiellement vérifié dans ITER. Démo devrait donc être une machine qui permette de faire cette démonstration. Il sera logiquement suivi d'une filière industrielle, avec des prototypes.

Il s'agit d'un effort long dans le temps, reproche souvent fait à la fusion. Aussi me garderai-je bien de faire la moindre prospective temporelle quant aux échéances de cette filière qui peuvent varier considérablement suivant les efforts financiers qu'on consentira.

J'en viens à ITER, qui est une machine en construction à Cadarache. Elle regroupe sept partenaires internationaux, dont le principal est l'Europe et, au sein de l'Europe, la France. Sont associés les États-Unis d'Amérique, le Japon, la Russie et, plus récemment, la Corée du Sud, la Chine et l'Inde. Ces sept partenaires, qui représentent plus de la moitié de la population mondiale, ont considéré que mettre ensemble leurs efforts permettrait la construction d'une machine intéressante au plan scientifique et technologique, dans un délai raisonnable, avec des ambitions financières partagées.

A contrario, ce partenariat et l'organisation mise en place sont assez compliqués. Suite au traité signé à l'Élysée en décembre 2006, une organisation internationale a été mise en place, dont le siège social est basé à Cadarache. Elle définit la machine, le programme expérimental et le mettra en oeuvre. La fourniture des composants de la machine se fait par des agences domestiques, qui sont des agences de fourniture de composants, suivant les spécifications définies par l'organisation internationale.

L'agence européenne, Fusion for Energy , basée à Barcelone, a en charge les cinq onzièmes des contributions du projet, sur la base des spécifications émises par l'organisation internationale. La France a un statut un peu particulier, dans la mesure où elle est le pays hôte de l'organisation internationale, ce qui lui impose certains devoirs. C'est aussi un financeur important, le gouvernement français ayant accepté de contribuer à hauteur de 20 % des engagements européens, soit une somme d'argent considérable. La France a eu pour responsabilité de préparer le site, de le viabiliser, de mettre à disposition une école internationale pour les enfants des ressortissants étrangers, hébergés dans la région PACA, et de finaliser un itinéraire pour des charges très lourdes nécessaire pour la construction de la machine. La France, grâce à un accord trouvé entre les collectivités locales, l'État et le CEA, assure le rôle de l'agence pour la mise en oeuvre de ses engagements, en étroite relation avec l'Agence européenne et l'organisation internationale.

Je souhaite terminer mon exposé par un autre accord, dont on parle peu, mais qui est important pour les recherches sur la fusion. Je veux parler de l'accord « Approche élargie ». Cet accord résulte du choix de Cadarache comme site pour ITER. Il permet au Japon, qui était le principal concurrent pour héberger ce projet, d'équilibrer les recherches menées autour d'ITER, et qui visent cette première étape que j'ai décrite, et l'étape Démo. Cet accord de l'approche élargie - de nombreuses recherches sont menées sur le territoire japonais - prépare cette étape technologie, par trois projets. Le premier est un projet d'accélérateur pour irradier une cible lithium et générer des neutrons de 14 Mev. C'est un projet complémentaire à celui qui vient d'être présenté, et qui permettrait de disposer d'une source de neutrons pour irradiation particulièrement bien adaptée à la fusion, mais qui pourrait aussi être intéressante pour les recherches sur les matériaux pour les réacteurs à neutrons rapides. Il s'agit de construire un accélérateur, qui doit délivrer un faisceau de deutéron de 125mA en continu, intensité considérable s'il en est, qui n'a jamais été obtenue jusqu'à présent dans les accélérateurs mondiaux.

Le deuxième projet, également situé à Rokkasho, en cours de finalisation, est la construction d'un ensemble de moyens, dont un super calculateur, fourni par la France, qui fournira 1,3 pétaflops de capacité de calcul, associé à un laboratoire.

Le troisième projet, situé à Naka, est une machine japonaise, à laquelle l'Europe contribue de façon très importante, pour servir de complément à ITER et préparer les générations d'expérimentateurs et de physiciens à l'expérimentation d'ITER qui doit démarrer en 2019. La catastrophe de Fukushima a cependant conduit, de par la réduction de capacités de production électrique et plusieurs déconvenues chez les industriels japonais, à retarder la livraison de composants importants. Les premières expériences qui montreront la capacité d'ITER à fournir de l'énergie auront lieu aux alentours de 2027.

Ces trois étapes sont importantes pour la filière fusion. La démonstration scientifique avec ITER est en cours de construction. La démonstration technologique se fera avec un réacteur Démo, pour le milieu du siècle. La filière industrielle, elle, devrait voir le jour vers la deuxième moitié de ce siècle. Il s'agit d'activités à long terme, dont les enjeux justifient pleinement les efforts financiers et scientifiques, pour mettre à la disposition de l'humanité cette source d'énergie.

M. Bruno Sido , sénateur, rapporteur . - Ces interventions nous ont permis de mieux appréhender l'avenir de la filière nucléaire. Le débat est ouvert.

M. Philippe Tourtelier, député. Monsieur Béhar, vous avez mentionné dans les recherches sur les RNR la coopération avec les Allemands. La récente décision allemande remet-elle en cause cette coopération ?

M. Christophe Béhar . - Je n'ai aucun retour particulier aujourd'hui, la coopération se faisant avec l'organisme allemand Kit. Les universitaires allemands, je le rappelle, travaillent soit sur des recherches fondamentales en matière de nucléaire, soit dans le domaine de la sûreté.

M. Bruno Sido , sénateur, rapporteur . - Vous avez parlé des centrales de génération IV. Quelles différences entre ces centrales et Superphénix qu'on est en train de démanteler ?

M. Christophe Béhar . - Les ruptures technologiques sont extrêmement fortes entre Astrid, Phénix et Superphénix. J'en ai donné deux illustrations. La première est relative à un coeur extrêmement pardonnant vis-à-vis de la problématique du coefficient de vidange, traduction de l'ébullition du sodium en cas d'augmentation de température. La deuxième innovation est la problématique de l'interaction sodium-eau, pour laquelle trois voies sont à l'étude. La première, qui est la plus proche, est la segmentation des échangeurs sodium-eau pour limiter la quantité de sodium qui pourrait être en interaction avec l'eau. Une deuxième voie est de supprimer totalement l'eau, en la remplaçant par de l'azote. Une troisième voie est de changer de fluide intermédiaire, de ne plus utiliser de sodium, mais du plomb bismuth.

Les réacteurs, en particulier Astrid, répondent aux critères de la quatrième génération, et sont en rupture forte sur un ensemble de points, dont je viens de donner deux exemples.

M. Philippe Saint Raymond, membre du comité d'experts, vice-président du « groupe d'experts réacteurs » . - S'agissant de Superphénix, on a mis évidence la difficulté de procéder à un contrôle de l'état des structures internes, les modalités habituelles de contrôle non destructives qui fonctionnent sous eau ne fonctionnant pas sous sodium. Du point de vue de l'inspection en service, y a-t-il des progrès acquis ou envisagés ?

M. Christophe Béhar . - Oui, et j'ai indiqué qu'il s'agissait d'un point sur lequel nous travaillions. L'inspection d'une structure en service suppose que vous disposiez des moyens de détection, et vous avez raison de souligner que le sodium est opaque aux moyens classiques utilisés pour les REP, étant entendu qu'on peut utiliser les ultra-sons. Cela dit, le volet conception est extrêmement important. Aussi devez-vous au départ concevoir votre réacteur pour que les systèmes, qui vous permettent de contrôler l'intégrité de telle ou telle partie du réacteur, soient bien intégrés, pour disposer de réponses fiables.

En termes de conception et en phase d'APS (avant projet sommaire), nous travaillons sur cette problématique d'inspection en service, de réparabilité et de maintenabilité.

M. Hamid Aït Abderrahim . - Dans la même logique, puisque nous travaillons également avec un métal liquide - sodium, plomb ou plomb bismuth - nous travaillons sur des méthodes de visualisation par ultra-sons. Le défi est que nous devons travailler à des températures beaucoup plus élevées. Les ultra-sons sont utilisés dans les échographies. La différence est que nous ne travaillons pas à 37° celsius, mais à 400 voire 500°. Les senseurs développés aujourd'hui fonctionnent à 180-200 °. Autant dire qu'il faut mettre au point des senseurs qui pourront fonctionner à haute température, dans un environnement radioactif.

Autre défi : la transmission du signal qu'on doit faire sortir du réacteur. C'est un point qu'on étudie, comme le CEA. Bref, nous sommes bien conscients de l'importance du sujet.

Un Journaliste . - Je veux revenir sur ITER et la récente proposition de la Commission européenne de faire sortir le budget d'ITER des budgets pluriannuels, décision rejetée par plusieurs Etats-membres. Est-ce le signe d'un possible d'un désengagement ? Peut-on établir un lien de causalité, voire de corrélation entre certains pays qui ont tendance à faire machine arrière sur leur programme nucléaire civil, comme le Japon, et leur implication dans des programmes de recherche ?

M. Pascal Garin . - L'Europe, vous le savez, fonctionne par programmes cadres de recherche et développement, qui dure sept ans. Nous travaillons actuellement dans le cadre du septième PCRD, le huitième programme étant en cours de préparation, programme que la Commission a appelé Horizon 2020, qui doit démarrer en 2014 pour s'achever en 2020.

Nous avons en effet été surpris d'apprendre qu'un papier circulant à la Commission proposait que deux projets internationaux, GMES, consacré à la météorologie, et ITER, soient sortis du cadre financier qui définit les contributions de l'ensemble du budget européen, le multiannual financial framework . Je ne connais pas les motivations de la Commission, pensant que cette proposition a peu de chance d'aboutir, dans la mesure où M. Wauquiez a envoyé une lettre à ses collègues européens, pour faire part de sa surprise. A mon sens, cette proposition n'aboutira pas, mais je ne peux répondre à la place de la Commission. Il ne s'agit probablement pas d'un désengagement, mais de négociations entre la Commission et les Etats-membres pour la mise en place du budget futur. Comme dans toute négociation, des propositions sont faites pour avoir quelque-chose en échange. La Commission a proposé une augmentation substantielle du PCRD, qui passerait de 56 à 80 milliards d'euros sur les sept ans, hausse qu'il faut relativiser, les 56 milliards d'euros étant des euros 2005.

Quoi qu'il en soit, il n'y a aucune volonté de l'Europe de se désengager d'ITER. Un traité international a été signé, mis en oeuvre par la Commission, via Euratom. Je n'imagine donc ni désengagement, ni même transfert de l'Europe vers les Etats-membres.

Un journaliste . - M. Duplessy nous a dit que les RNR devront montrer leur capacité à être alimentés par leurs propres actinides. Est-ce à dire que le cycle fermé des RNR n'est pas complètement démontré ? Dans l'affirmative, faudra-t-il attendre que les prototypes soient construits pour avoir la preuve du cycle fermé ?

M. Jean-Claude Duplessy . - Pour l'instant, nous sommes au stade d'une démonstration qu'on qualifie de scientifique : on voit qu'un réacteur est susceptible de réutiliser le plutonium qu'il a lui-même fabriqué. Si l'on veut tendre vers un cycle absolument fermé, cela suppose qu'on soit en mesure de faire tourner le réacteur avec son propre plutonium, de façon à ce que seules les pertes soient à compenser. Cela suppose de démontrer qu'on dispose du réacteur, qu'il fonctionne, qu'on peut récupérer le combustible usé, le retraiter, puis de refaire un combustible et de le remettre dans le réacteur. C'est une démonstration de type technique industrielle, qui doit être menée jusqu'au bout. Pour l'heure, on ne dispose que d'études papier, et d'études réalisées sur Phénix et Superphénix, dont l'objectif n'était pas de faire la preuve d'un cycle totalement fermé. Un scientifique sait que c'est jouable. Mais la prudence oblige à aller jusqu'au bout de la démonstration, et à vérifier que tous les éléments que l'on conçoit au plan scientifique pourront être mis en oeuvre au plan industriel, avec toutes les difficultés que suppose le traitement d'un combustible fortement radioactif.

Un Journaliste . - En cycle fermé et si le réacteur réutilise le plutonium qu'il a fabriqué, que fait-on du plutonium déjà présent ?

M. Jean-Claude Duplessy . -Comme Sylvain David l'a montré, il aura servi à lancer la filière, à démarrer.

Un Journaliste . -N'y en aura-t-il pas trop ?

M. Jean-Claude Duplessy . - Non. On risque même d'en manquer un peu.

M. Bruno Sido , sénateur, rapporteur . - C'est un point important. Pour lancer la quatrième génération, on nous dit que la deuxième et la troisième doivent exister. Qu'en est-il ?

M. Jean-Claude Duplessy . - Aujourd'hui, on dispose de près de 300 tonnes de plutonium en réserve, qu'on peut traiter le jour où l'on a besoin. Pour démarrer, la totalité de la filière - le démarrage pouvant être progressif - il en faudra de 900 à 1000 tonnes.

M. Bruno Sido , sénateur, rapporteur . - C'est bien le chiffre que j'avais en tête. La meilleure façon d'empêcher de développer un processus, et la quatrième génération en particulier, est de faire en sorte qu'il n'y ait plus de plutonium. Sans plutonium, on ne peut plus lancer la quatrième génération.

M. Sylvain David . - Si l'on envisage un jour de passer à la quatrième génération, il est évident qu'on ne peut pas se permettre de vitrifier le plutonium, de façon irréversible. Dans une problématique où l'on démarre des réacteurs rapides, le plutonium est une matière valorisable, précieuse, qu'il faut accumuler et garder sous la main. C'est ce qu'on fait aujourd'hui, le plutonium était contenu dans les combustibles Mox, qui ne sont pas catégorisés dans les déchets, mais les matières valorisables, en vue d'un déploiement éventuel futur des réacteurs rapides.

M. Bruno Sido , sénateur, rapporteur . - Voyez l'actualité. Certains ne veulent pas de génération III à Flamanville. Comment empêcher le projet ? Soit en décidant de ne pas le construire ou en l'empêchant de disposer de combustible, donc en ne faisant pas de Mox. Toutes les manoeuvres sont possibles.

M. Sylvain David . - Le Mox consomme du plutonium. La stratégie du Mox a tendance à accumuler moins vite le plutonium que si l'on ne recyclait pas. Dans les scénarios de déploiement des réacteurs de quatrième génération, il faut arrêter d'utiliser le plutonium dans les REP, dix ou quinze ans avant, pour pouvoir accumuler suffisamment de plutonium et démarrer les réacteurs rapides. Si l'on arrête de moxer, que fait-on du plutonium contenu dans les oxydes d'uranium usés ? S'ils sont considérés comme des matières valorisables et non retraités, on pourra toujours récupérer le plutonium plus tard pour les réacteurs rapides. Pour l'EPR 100 % moxable, il peut fonctionner avec de l'uranium enrichi. On ne dispose pas d'assez de plutonium pour moxer 100 % des REP. Dans les faits, on en moxera 15 %.

M. Bruno Sido , sénateur, rapporteur . - C'est un point essentiel, le diable se cachant parfois dans les détails.

Un Journaliste . - On parle toujours de plutonium civil. Mais il existe aussi du plutonium militaire dont on ne connaît pas les tonnages. A-t-on une vague idée des quantités existantes au plan mondial ?

M. Christophe Béhar . - Je ne connais pas la quantité de plutonium militaire produite. Nous avons produit du plutonium civil de manière juste suffisante, étant entendu qu'il n'est pas envisagé d'utiliser du plutonium militaire pour entrer dans les RNR.

M. Thierry Dujardin . - Les Américains construisent à Savannah River une installation pour fabriquer des combustibles pour des réacteurs civils, avec du plutonium d'origine militaire, dont quatre assemblages ont été fabriqués à Cadarache.

M. Christophe Béhar . - Cette réalisation se fait dans le cadre d'un projet spécifique de désarmement, avec équivalence entre la Russie et les Etats-Unis, où plusieurs têtes nucléaires ont été démantelées, libérant 34 tonnes de plutonium militaire. Ce plutonium peut-être utilisé aux Etats-Unis comme combustible de type Mox dans des réacteurs à eau légère. Notre problématique est différente.

En réponse à la question relative au cycle fermé, je veux souligner que les démonstrations ont été faites en partie. Avec Astrid, il faudra montrer qu'on est capable de recycler n fois le plutonium sur une taille beaucoup plus importante qu'antérieurement. Avec Phénix, on a été amenés à recycler deux à trois fois le plutonium. Avec Astrid, il s'agit de supprimer l'intégralité du plutonium entré.

M. Bruno Sido , sénateur, rapporteur . - Mesdames, Messieurs, je vous remercie.

ÉNERGIES ALTERNATIVES : GESTION DE L'INTERMITTENCE
ET MATURITÉ DES TECHNOLOGIES

jeudi 24 novembre 2011

M. Bruno Sido, sénateur, rapporteur . - Nous abordons aujourd'hui la dernière journée d'auditions de notre mission sur la sécurité nucléaire et l'avenir de la filière nucléaire. Constituée au lendemain de l'accident nucléaire de Fukushima, elle a produit un premier rapport, remis le 30 juin, qui concluait un premier cycle, très complet, d'auditions et de visites sur différents sites nucléaires.

La mission consacre cet automne ses travaux à l'avenir de la filière nucléaire. Nous nous sommes déplacés en France - à Bure dans la Meuse - en Allemagne et au Japon. Nous avons auditionné de nombreux spécialistes, au cours de plusieurs journées de tables rondes : la première, le 27 octobre, a été consacrée aux politiques de l'énergie en Europe ; la deuxième, le 3 novembre, a porté sur l'évolution de la consommation électrique et les possibilités d'économies d'énergie ; la semaine dernière, nous avons abordé les perspectives de la filière nucléaire. Nous terminons par un examen des solutions alternatives au nucléaire. Toute décision concernant l'avenir de l'énergie nucléaire est aussi un choix sur la place des énergies renouvelables. Tout choix relatif à la composition du bouquet énergétique engage la France pour des décennies et représente des flux d'investissement majeurs.

Notre première table ronde portera sur l'intégration des énergies renouvelables au réseau. La seconde, cette après-midi, fera le tour des différentes solutions d'énergies renouvelables pour la production d'électricité en étudiant leur maturité technologique et leur coût.

Présidence de M. Christian Bataille, député

L'intégration des énergies renouvelables au réseau : « smart grids » et stockage de l'énergie

M. Christian Bataille, député, rapporteur . - L'intermittence caractérise les énergies renouvelables qui présentent le plus grand potentiel de développement à court et moyen terme - énergie éolienne, énergie solaire. La question est nouvelle ; elle ne se posait pas pour les modes de production traditionnels, avec une électricité d'origine fossile ou nucléaire.

La production d'électricité éolienne ou photovoltaïque est extrêmement variable et dépend de facteurs météorologiques sur lesquels l'homme n'a pas de prise. Comment les réseaux électriques absorberont-ils cette production d'électricité ? En Allemagne, les opérateurs arrêtent leurs éoliennes de plus en plus fréquemment, parce que le réseau n'est pas dimensionné pour apporter l'électricité dans les régions industrielles du sud du pays où elle pourrait être consommée. Des investissements considérables seront donc nécessaires : l'Agence internationale de l'énergie (AIE) considère qu'un quart de l'investissement dans les réseaux de transport d'ici à 2035 sera lié à la croissance de la production d'électricité d'origine renouvelable.

Dans un monde idéal, chaque éolienne stockerait l'électricité pour la restituer sur le réseau lorsque les usagers en ont besoin. Le stockage dans des stations de pompage en montagne est une solution ancienne et bien maîtrisée, mais les possibilités de développement sont limitées. Le Danemark stocke l'énergie produite par ses éoliennes dans des barrages norvégiens : hélas, nos montagnes n'y suffiraient pas ! Il existe en revanche une piste dont nous avons déjà parlé : les stations de pompage installées dans la mer. De tels projets, compte tenu de leur coût, peuvent-ils constituer une partie de la solution ? Il faut se poser la question, au moment où la France s'apprête à installer des éoliennes pour une capacité installée de 6 gigawatts (GW) au large des côtes de la Manche et de l'Atlantique. Une autre technologie intéressante est le stockage de l'énergie sous forme de méthane obtenu par synthèse à partir du CO 2 .

Il faudra aussi injecter de l'intelligence dans les réseaux afin de mieux concilier, de manière dynamique, la demande et l'offre. La France, qui va déployer 35 millions de compteurs communicants dans tous les foyers, doit jouer là un rôle de pionnier.

Les scientifiques apportent aux gestionnaires de réseaux des modèles de prévision de la production en fonction des conditions météorologiques. Il est primordial, en effet, de savoir quelle puissance sera effectivement fournie par les éoliennes et les centrales de production photovoltaïques et de savoir dans quelle mesure la production dans une région, à l'instant t, pourrait compenser l'absence de production dans une autre région.

Mais qu'en est-il d'abord, de la coordination des efforts de recherche français en matière d'énergies renouvelables ? M. Pascal Garin, qui a la semaine dernière fait le point pour nous sur le projet ITER, parlera aujourd'hui en sa qualité de « sherpa » du président de l'Alliance nationale de coordination de la recherche pour l'énergie (Ancre). Comment cette Alliance, mise en place en 2009, s'est-elle organisée pour coordonner la recherche dans le domaine des énergies renouvelables ?

M. Pascal Garin, « sherpa » du président de l'Alliance nationale de coordination de la recherche pour l'énergie (Ancre) . - En 2009, les pouvoirs publics ont voulu resserrer les liens entre les instituts de recherche, les universités et les industriels. Le gouvernement a créé l'Alliance nationale, l'Ancre, en lui confiant quatre missions. D'abord, renforcer les partenariats et les synergies. Ensuite, identifier les verrous qui bloquent le développement des énergies renouvelables - le rapport remis à la ministre, Mme Nathalie Kosciusko-Morizet, par M. Christian de Perthuis a contribué à répondre à cette question : « Comment débloquer les verrous scientifiques, économiques, environnementaux et sociaux ? ». L'Ancre a aussi pour mission de proposer des programmes pluriannuels de recherche et développement. L'ANR et l'Ademe réalisent déjà une programmation énergétique ; la compétence de l'Ancre vient, quant à elle, de la base, c'est-à-dire des instituts de recherche qui travaillent en ce domaine. Quatrième mission : établir les bonnes pratiques dans la maîtrise de l'énergie - car le premier kW utile est celui qui n'est pas consommé.

Les membres fondateurs de l'Ancre sont le CEA, le CNRS, l'Institut français du pétrole-énergies nouvelles (IFPEN) et la Conférence des présidents d'université (CPU). Les ont rejoints 15 membres associés : Andra, BRGM, CDEFI, Cemagref, Cirad, CSTB, Ifremer, Ineris, Inra, IFSTTAR, Inria, IRD, IRSN, LNE et Onera, auxquels s'ajoutent les laboratoires d'université, si bien que tous les groupes de recherche dans le domaine de l'énergie sont représentés. L'Alliance ainsi constituée a d'abord structuré son travail en créant neuf groupes de travail. Cinq sont consacrés aux sources d'énergie : énergies de la biomasse, y compris la troisième génération, énergies fossiles et géothermique, énergie nucléaire, énergie solaire et enfin énergies marine, hydraulique et éolienne. Trois groupes sont consacrés aux usages, dans le transport, le bâtiment, l'industrie et l'agriculture. Un neuvième groupe, transversal, se consacre à la prospective.

La première tâche des groupes a été d'élaborer un programme de travail. Sur les verrous, un important travail a déjà été accompli, les résultats en seront présentés lors de l'assemblée générale de l'Ancre la semaine prochaine. Améliorer la coordination entre laboratoires est utile car renforcer les liens accroît l'efficacité globale. Un impressionnant tableau des laboratoires a été dressé - véritable état des compétences disponibles dans le pays.

Les industriels sont parties prenantes à ces groupes programmatiques, via les pôles de compétitivité. L'Alliance doit favoriser l'émergence d'un tissu industriel lié à la recherche, ou le renforcer, selon les cas, ce que nous faisons grâce à ces pôles de compétitivité. L'Ancre est dotée d'une présidence tournante, qui, pendant deux ans a été confiée à M. Olivier Appert, président de l'IFPEN. M. Bernard Bigot, administrateur général du CEA, vient de prendre sa suite, en octobre dernier. Le nouveau président compte renforcer les liens avec l'industrie : le CEA a pour caractéristique de couvrir tout le champ de la recherche, depuis les fondamentaux jusqu'aux applications pratiques.

Parmi les contributions récentes de l'Ancre, je voudrais mentionner les recommandations qu'elle a délivrées à propos des appels à projets « laboratoires d'excellence » (Labex) et des appels à projets « équipements d'excellence » (Equipex ) , créés dans le cadre des investissements d'avenir et actuellement soumis à l'évaluation de jurys internationaux indépendants.

Deux comités ont été mis en place par les ministres M. Eric Besson et Mme Nathalie Kosciusko-Morizet : « Trajectoires 2020-2050 », animé par M. Christian de Perthuis et « Energie 2050 », animé par M. Jacques Percebois, consacré plus spécialement aux énergies décarbonées. L'Ancre apporte ses idées, indique les thèmes de recherche à privilégier : ce regroupement d'experts crée une force de proposition fort utile. Deux fois par an, nous tenons une assemblée générale : à celle du 1 er décembre, M. Claude Birraux viendra exposer, en introduction, les attentes du Parlement.

M. Christian Bataille, député, rapporteur . - Nous allons maintenant entendre M. Hervé Mignon, directeur du département développement du réseau et perspectives énergétiques chez RTE. L'électricité produite par les éoliennes, voire par les autres énergies renouvelables, pose-t-elle déjà des difficultés au gestionnaire du réseau ? Quelles solutions étudiez-vous pour acheminer, à l'horizon 2020, les 25 000 mégawatts (MW) d'électricité éolienne et les 5.400 MW « crête » d'électricité photovoltaïque affichés comme objectifs en France ?

M. Hervé Mignon, directeur du département Développement du Réseau et Perspectives Énergétiques (RTE) . - Avant d'évoquer les actions de RTE pour intégrer les énergies renouvelables intermittentes dans le réseau, je voudrais rappeler le contexte européen. Ce qui existe en Allemagne et en Espagne a, en effet, des interactions sur la scène européenne puisque le système électrique y est interconnecté.

Il est intéressant de superposer deux cartes de l'Europe. La première montre les zones de fort potentiel de développement des éoliennes terrestres (en France, en Espagne, au nord de l'Allemagne,...) et maritimes (en Mer du Nord, dans la Baltique,...) ainsi que les perspectives de future localisation de la production éolienne. La seconde est une photographie par satellite de l'Europe la nuit. On y voit les zones, très éclairées, de forte consommation. Et l'on constate qu'il n'y a pas de cohérence géographique entre les lieux de production des nouvelles énergies intermittentes et les lieux de consommation d'électricité. Les premières sont éloignées des secondes. Comment assurer l'acheminement ? Comment anticiper la construction des parcs d'éoliennes ou de photovoltaïque ? En Allemagne, cet été, jusqu'à 20 GW ont été injectés ponctuellement dans le système - avec des conséquences sur le réseau électrique européen. A horizon de dix ans, la congestion guette, si le réseau n'est pas significativement développé. Pour être prêts à appliquer en 2020 le « paquet énergie » et les feuilles de route nationales, il faudra construire 20 000 kilomètres de nouvelles lignes à très haute tension (THT).

En matière d'éoliennes, les capacités installées représentent 30 GW en Allemagne, plus de 30% du total européen. L'Espagne arrive ensuite avec 25% ; l'Italie est troisième, la France quatrième, avec un parc de plus de 5 GW. En 2010, l'Allemagne a installé 1,5 GW de capacités de production nouvelles, ce qui la place encore au premier rang avant l'Espagne, puis la France - avec 1 GW d'installé. Nous sommes dans le groupe des acteurs dynamiques, comme la Grande-Bretagne, qui poursuit la construction de parcs d'éoliennes, notamment offshore , à un rythme soutenu.

Quant au réseau de transport électrique, le maillage des lignes à 400 000 et à 250 000 volts doit être développé afin de renforcer la sécurité d'approvisionnement et assurer une meilleure gestion des aléas de production ou de consommation. La mise en commun de toutes les ressources disponibles en temps réel crée une respiration européenne, de plus en plus nécessaire. En Allemagne, sur une seule journée de septembre dernier, la production d'énergie photovoltaïque et éolienne a tant varié, avec une si forte amplitude, que l'impact est très net sur le solde d'importation en provenance des pays voisins. Une plus forte intermittence conduit, en effet, à solliciter de façon plus soutenue toutes les formes de la respiration européenne.

En France, l'évolution de la puissance éolienne installée est en croissance stable, 1 GW terrestre de plus chaque année depuis 2006. Le photovoltaïque est en essor rapide ; le rythme de progression se rapproche de celui de l'Allemagne ou de l'Espagne. Pour prévoir l'acheminement, il faut anticiper la localisation des nouveaux moyens de production, définir les infrastructures à construire pour le raccordement et l'acheminement vers les zones de consommation. Depuis 2007 et le Grenelle de l'environnement, un travail est mené en ce sens. Avec un objectif de 19 GW terrestres, RTE devra investir 1 milliard d'euros sur dix ans en infrastructures de transport.

Le Grenelle a prévu des schémas régionaux « air, énergies, climat » et RTE pilote l'élaboration d'un schéma de raccordement, en lien avec les acteurs de la filière et sous l'égide des préfets. Des postes seront dédiés pendant dix ans à l'accueil des énergies renouvelables. On voit clairement sur une carte, celle de la région Pays-de-Loire par exemple, que les futurs postes et les nouvelles lignes sont situés dans des zones historiquement dépourvues de moyens de transport, parce qu'elles n'étaient des lieux ni de production ni de consommation.

La planification doit déterminer la localisation des futures installations éoliennes ou photovoltaïques. C'est crucial, car les délais de mise en route sont de quatre à cinq ans pour un parc d'éoliennes, deux à trois ans pour le photovoltaïque, mais de dix ans pour de grandes lignes THT, sachant que la procédure d'autorisation prend huit ans et la construction des lignes deux ans. Il est donc préférable d'anticiper la création des nouvelles installations de production.

Les sites de production une fois raccordés, reste le problème de l'intermittence, faute de stockage possible. RTE a mis au point de nouveaux dispositifs dits de « smart grids » ou réseaux intelligents. L' « Insertion de la production éolienne et photovoltaïque dans le système » (Ipes) est un outil de gestion en temps réel : prévision, gestion, transmission de l'information afin que les centres de contrôle - ou dispatchers - aient une vision d'ensemble de la production des heures à venir. Plus de 90% du parc éolien est suivi en temps réel par Ipes. Nous avons relié les éoliennes aux postes par fibre optique. L'enjeu principal est d'assurer à chaque instant l'équilibre entre l'offre et la demande. Et ce n'est pas tant la variabilité de la production qui est gênante, que l'écart entre la prévision et la réalisation. C'est pourquoi nous avons travaillé avec Météo France et avons créé nos propres modèles de prévision météorologique. Plus fine est la prévision, meilleure est la gestion. Les réserves primaires et secondaires, en particulier, sont alors calculées au plus juste pour correspondre aux aléas de l'intermittence. Ipes offre une solution concrète pour gérer les 5 à 6 GW déjà installés en France. L'écart entre la prévision et la réalisation ne dépasse pas 3% à l'échelle du territoire, grâce à l'effet de foisonnement. Mais il peut localement atteindre jusqu'à 15%.

Le photovoltaïque se développe de plus en plus, dans le Sud-Est et le Sud-Ouest, si bien que, dans les années à venir, on ne pourra plus parler d'énergie décentralisée. On passera à une nouvelle forme d'énergie centralisée : songez qu'elle atteint déjà 10 GW en Allemagne !

J'en viens à l'éolien en mer, qui a fait l'objet d'un appel d'offres gouvernemental. Il faut prévoir le raccordement sous-marin au réseau terrestre et renforcer celui-ci pour accueillir ces nouveaux flux. Le raccordement représente 10% de l'investissement total, soit 1 milliard d'euros sur les 10 du projet d'éolien en mer.

RTE est confronté, avec la mutation des sources d'énergie, à trois défis. D'abord, le défi géographique lié à l'éloignement des zones de production des lieux de consommation. L'arrivée massive des nouvelles énergies commande de renforcer le réseau - à la fois la maille européenne et la maille française. Le défi opérationnel ensuite, suscité par une production intermittente et fluctuante, laquelle exige de nouvelles modalités de gestion de la sécurité et des réserves. Ainsi en Espagne, les gestionnaires de réseau ont le droit d'arrêter la production si celle-ci excède les capacités d'absorption du réseau. Le défi temporel enfin, puisque la création de nouvelles lignes de transport se fait en dix ans mais l'installation de parcs éoliens ou photovoltaïques en deux à cinq ans. Notre mission est d'éviter à terme la congestion !

M. Christian Bataille, député, rapporteur . - Vous avez mentionné les problèmes de stockage : nous y venons. On connaît les stations de pompage en montagne, qui stockent de l'énergie en profitant du différentiel d'altitude entre un bassin inférieur et un bassin supérieur. L'Office s'est déjà fait l'écho en 2009, lors d'une évaluation de la stratégie nationale de recherche en matière d'énergie, des perspectives offertes par les stations de pompage en mer : M. François Lempérière, qui nous avait présenté ce projet, est en train de promouvoir cette idée en Inde en ce moment même. EDF mène également des projets en ce sens. M. Bernard Mahiou, qui êtes directeur en charge des systèmes insulaires chez EDF, pouvez-vous nous indiquer quelles sont les modalités techniques de ces projets ? Sont-ils réservés aux zones insulaires - où le développement du photovoltaïque exige un stockage - ou verrons-nous de telles installations également le long du continent ?

M. Bernard Mahiou, directeur en charge des systèmes insulaires, EDF . - La direction des systèmes insulaires intervient en Corse, dans les DOM et dans les autres collectivités d'outre-mer. Le service public de l'électricité dans ces zones non interconnectées présente de grandes difficultés.

Les stations de transfert d'énergie par pompage (Step) sont essentiellement terrestres. La seule Step marine au monde se situe à Okinawa. Mais un projet de même nature pourrait voir le jour en Guadeloupe. Le fort développement de la production d'énergie intermittente exige de renforcer les capacités de transport de l'électricité, mais aussi les capacités de stockage, terrestre (140 GW aujourd'hui dans le monde) ou marin (1 GW). Si les énergies intermittentes atteignent à terme 20 %, ou 40 % du bouquet énergétique, quel lissage faudra-t-il pour garantir la sécurité du réseau ? En 2040, la demande mondiale de stockage sera comprise entre 500 et 2 000 GW. Il est intéressant d'installer les Step marines près des champs d'éoliennes offshore .

Les systèmes insulaires sont petits et non interconnectés ; ils concentrent toutes les difficultés ! Une disposition a donc été prise pour y limiter le taux de pénétration des énergies intermittentes, qui doivent représenter moins de 30 % de l'offre. Ce taux a été déterminé après expériences menées en Crète ou ailleurs. Si l'on dépasse 30 %, le système peut en effet être en péril. C'est pourquoi le gestionnaire a faculté de déconnecter les installations de production, comme cela est arrivé à dix reprises à Mayotte il y a quelques mois. Le taux d'insertion des énergies intermittentes atteint 29 % à La Réunion. Avant la fin de l'année on y atteindra 30 %, comme en Guyane ou en Guadeloupe ; en Martinique, ce sera l'an prochain, en Corse l'année suivante.

En Europe, si le solaire et l'éolien atteignent en 2020, comme l'envisage la Commission européenne, 50 % des énergies renouvelables, il faudra bien développer le stockage ! En 2010, le stockage par les Step représente 24 GW ; en 2020, déjà 35 GW selon les prévisions - mais j'estime, pour ma part, que les besoins seront bien supérieurs. Les Step sont des grands projets, lourds, qui exigent des études d'impact. Trouver des sites terrestres n'est pas simple. Alors pourquoi pas des Step marines ? Le prix de revient entre en considération.

En France, la fiscalité locale et le prix du soutirage au réseau RTE représentent 60% du prix de revient de l'électricité. Il y a donc une vraie question économique à régler !

Le projet de stockage en Guadeloupe, au nord-est de l'île de Grande-Terre, consiste à réaliser un dispositif de pompage et de stockage de l'électricité permettant d'améliorer l'insertion des énergies renouvelables existantes, alimenté par de l'eau de mer. La mer en constitue le bassin inférieur et le sommet de la falaise le bassin supérieur.

L'objectif de ce projet, qui répond à un appel à manifestation d'intérêt de l'Ademe, est de favoriser la création d'une filière française des Step marines. Notons qu'il existe un prototype au Japon consistant en une centrale de 30 MW, avec une chute de 150 mètres, qui fonctionne depuis une dizaine d'années à Okinawa, île qui n'est pas interconnectée au réseau national japonais.

Notre projet porte sur la production de 50 MW pour 20 heures de fonctionnement et une capacité de stockage d'électricité d'un gigawatt heure (GWh). Il s'agit d'une technologie nouvelle et qui exige une étude approfondie sur son impact environnemental, de son coût de construction et de son modèle économique.

Un tel dispositif permettrait de lisser les pointes et de réduire la consommation de combustibles fossiles dans les turbines à combustion et ainsi d'éviter l'investissement dans de nouvelles turbines. Il limiterait les arrêts-redémarrages et améliorerait le rendement des centrales thermiques. Il permettrait de remédier aux ruptures de production d'énergie (les périodes sans vent par exemple) par un report sur plusieurs jours. En lissant la production intermittente il permettrait d'aller vers une intégration au réseau supérieure à 30 %, jusqu'à 50 %.

Quant au temps de réponse, il devrait être compris entre 5 et 10 secondes, soit un temps plus court que pour une Step terrestre. Il s'agit de disposer d'une adduction pour le pompage et d'une autre pour le turbinage, l'objectif défini avec Alstom - membre du consortium chargé du projet - étant de concevoir un système à réponse rapide, nécessaire pour les zones non interconnectées. Des machines à vitesse variable - innovation développée par Alstom - permettront de lisser les fluctuations de puissance.

L'usine projetée en Guadeloupe serait soit souterraine, soit préfabriquée et amenée par flottaison, comme c'est déjà le cas pour certaines centrales hydroélectriques américaines, ce schéma pouvant en principe être reproduit sur tous les types de sites.

Quant au calendrier, je rappelle que l'Ademe a lancé son appel à manifestation d'intérêt en avril, que nous avons procédé à des études de reconnaissance que nous lui avons soumises en octobre, l'agence devant en principe nous demander maintenant d'approfondir le projet.

Nous pensons connaître la décision de financement du commissariat général aux investissements au cours de l'été 2012, les grands travaux nécessaires pouvant alors, en cas d'accord, débuter en vue d'une mise en service vers 2017.

Le coût de la centrale est estimé à 250 millions d'euros hors raccordement et nous discutons avec la commission de régulation de l'énergie pour choisir le modèle définitif de valorisation sur ce type d'installation ; 150 millions d'euros peuvent être valorisés au travers de la contribution au service public d'électricité, nous conduisant à demander 100 millions d'euros de subventions, dont 30 venant de l'appel à manifestation d'intérêt (AMI), 20 millions des collectivités territoriales et 50 du Feder.

M. Christian Bataille, député, rapporteur . - Parallèlement au stockage par énergie potentielle, il existe des possibilités de stockage chimique de masse, par conversion du CO 2 , ce qui présente le double avantage de fixer l'énergie des sources renouvelables et de créer un nouveau cycle du carbone, réduisant d'autant sa contribution à l'effet de serre.

Par exemple, on est aujourd'hui capable de mettre de l'électricité dans le gaz par un procédé de « méthanation », à ne pas confondre avec la méthanisation qui est un processus de dégradation des matières organiques. M. Alain Bucaille, vous qui êtes conseiller auprès du président du directoire d'Areva, pouvez-vous nous préciser le principe de ce type de technologie ? Quel rendement peut-il offrir et à quelle échelle pourrait-on le développer pour stocker les énergies intermittentes ?

M. Alain Bucaille . - Areva effectue en effet des recherches sur le sujet dans le cadre d'un GIE qui regroupe Eurodia, Air Liquide et GDF Suez.

L'enjeu est de taille, puisque la captation et la séquestration géologique du CO 2 étant impossible dans la totalité du Japon, la moitié de la Chine, et très difficile en Inde - qui représentent à eux trois 40 à 50% de la croissance de la consommation mondiale en énergie fossile - la question du recyclage en CO 2 se posera rapidement dans les pays d'Asie.

Notre projet porte sur le recyclage à moyen terme du CO 2 émis par les cimenteries - en particulier de Chine et d'Inde - grâce à l'électricité. Si l'on prend par exemple pour hypothèse un taux d'intérêt annuel de 4% et les coûts de fonctionnement actuel d'un réacteur EPR susceptible de fournir cette électricité, l'on obtient une production d'essence à moins de 130 dollars le baril, hors coûts de captation du CO 2 .

Précisons que le CO 2 le plus intéressant est celui provenant des cimenteries installées en bord de mer, qui ne contiennent ni minéraux allogènes, ni métaux lourds, réduisant ainsi les problèmes de catalyseur. Le recyclage du CO 2 se fera en Chine et en Inde si ces pays décident de traiter cette question du recyclage - ce qui semble inévitable - et si le développement de la filière nucléaire se confirme.

Rappelons d'ailleurs que l'Allemagne utilise déjà l'électricité excédentaire pour fabriquer soit de l'hydrogène, soit du méthane, le transport du gaz étant assuré par les réseaux existants entre les installations de production d'énergies renouvelables, situées au nord, et les lieux de consommation concentrés dans le sud du pays. CO 2

Pour notre part, nous sommes ouverts à la participation à ce type de projet avec notre voisin allemand.

Quant aux nombreuses options de type « biomasse to liquid », ou « CO 2 to liquid », elles reposent en fait sur le même principe, la seule différence entre elles étant la quantité de catalyseur, c'est à dire d'hydrogène utilisée. L'intérêt essentiel de ces solutions est de nous assurer que le prix des carburants ne dépassera pas un certain plafond.

Mais entendons-nous : en évoquant ces options, l'objet de mon propos n'est pas, loin s'en faut, de contester l'intérêt des solutions de stockage évoquée par les précédents orateurs. Convenons en revanche qu'il existe différents niveaux de stockage : les stockages de petite capacité délocalisés, représentant d'un à 100 kilowatts (kW), les stockages semi-massifs ou régionaux allant du mégawatt au gigawatt et les systèmes massifs, centralisés portant sur des quantités nettement supérieures au gigawatt.

Il me semble important de prendre en compte l'apport possible des différentes sources d'énergie dans la recherche de l'ensemble des solutions dont nous aurons besoin. Des combinaisons sont d'ailleurs possibles entre elles, le nucléaire pouvant, par exemple, servir à fabriquer des carburants de synthèse pour les véhicules hybrides.

N'opposons pas nucléaire et énergies renouvelables, alors que les deux sources d'énergie peuvent être associées pour compenser leurs faiblesses mutuelles.

Je précise que, pour un excédent d'électricité de 10% pour un mégawatt heure (MWh) produit à 50 euros - coûts de capture, purification et compression du CO 2 inclus - les carburants de synthèse reviendraient à 0,9 euro par litre pour le diméthyléther et à 1,4 euro par litre pour l'essence. Cette production de diméthyléther et d'essence de synthèse réduirait respectivement les émissions de CO 2 de 6 millions de tonnes et de 12 millions de tonnes, ce dernier chiffre représentant 12 à 15% du CO 2 domestique produit en France.

La conversion de CO 2 en méthane évite par ailleurs la production de 2,8 tonnes de CO 2 pour une tonne de méthanol et de 1,4 tonne de CO 2 pour une tonne de diméthyléther.

Quant à la Chine, si elle convertissait tout le CO 2 émis par ses cimenteries, elle produirait l'équivalent de 10 millions de baril/jour, soit 10% de la production mondiale !

Toutes ces hypothèses sont à envisager sérieusement dans un avenir proche, surtout si la Chine s'engage plus avant dans les négociations climatiques et qu'elle y joue un rôle majeur.

L'ensemble de ces éléments demeurent pourtant peu diffusés pour deux raisons essentielles. D'une part, il s'agit de ne pas effrayer les pays pétroliers, en leur indiquant qu'il existe un plafond situé à 150 dollars le baril au-delà duquel plusieurs technologies de substitution sont rentables.

D'autre part, cette vision repose sur l'hypothèse d'un taux d'actualisation de 4 %, alors que celui pris en compte dans les modèles économiques de l'industrie pétrolière est de 15%.

M. Christian Bataille, député, rapporteur . - Le moment est venu d'évoquer les fameux réseaux intelligents, qui sont quelquefois présentés par certains comme « la » solution quasi mystique à l'intermittence des énergies renouvelables. Les smart grids font curieusement partie de l'Evangile des partisans d'une électricité entièrement verte.

Or les réseaux, pour intelligents qu'ils deviennent, ne pourront jamais offrir que ce qu'ils ont, c'est-à-dire une capacité de transport d'électricité.

Le ministre Éric Besson ayant annoncé au début du mois d'octobre le déploiement des compteurs dits Linky, M. Pierre Mallet, vous qui dirigez le département Innovation et Stratégie technique d'ERDF, pouvez-vous nous indiquer ce qu'apportera ce projet en termes de gestion du réseau ? Dans quelle mesure ce nouveau type d'outils peut-il faciliter l'intégration des énergies renouvelables ?

M. Pierre Mallet . - Linky est un très beau projet industriel qui apportera de nouveaux services innovants à nos clients et qui constitue une étape importante vers les réseaux intelligents de l'avenir, ce qui contribuera à consolider la position de l'industrie électrique française dans les premiers rangs au niveau mondial.

Après la présentation du projet, je vous expliquerai comment ERDF prépare l'intégration des énergies renouvelables, la gestion de l'intermittence et, plus généralement, les réseaux et systèmes électriques intelligents de l'avenir.

Le projet Linky vise à installer des compteurs communicants pour l'ensemble des clients domestiques d'ERDF, soit 35 millions de compteurs dans le cadre de l'application d'une directive européenne prévoyant la mise en place de compteurs communicants pour l'ensemble des États avant 2020.

Il s'agit d'un projet de grande ampleur, puisque son coût total s'élève à 4,3 milliards d'euros, le déploiement de l'ensemble des compteurs s'effectuant entre 2013 et 2018, à raison de 35 000 compteurs par jour en régime de croisière. Cinq mille personnes seront employées à cette tâche, le coût du déploiement représentant d'ailleurs environ la moitié de celui du projet.

Les solutions techniques retenues en matière de télécommunication sont le courant porteur en ligne (CPL) sur les réseaux basse tension et le GPRS pour les liaisons entre les postes moyenne tension/basse tension. Avant de lancer un projet d'une telle ampleur, ERDF a lancé une expérimentation dans les régions de Lyon, en zone urbaine, et Tours, en zone rurale. Elle a permis d'installer, depuis maintenant un peu plus d'un an, 250 000 compteurs et 4 700 concentrateurs. Les résultats de l'expérimentation confortent les choix techniques effectués et confirment la faisabilité économique du projet.

Ces compteurs intelligents Linky apportent aux clients de nouveaux services pratiques, à commencer par la possibilité de relever le compteur à distance, alors qu'aujourd'hui 50 % des compteurs gérés par ERDF ne sont pas accessibles car situés à l'intérieur des habitations, ce qui oblige à prendre rendez-vous avec le client pour relever les index.

Avec les compteurs intelligents, il ne sera plus nécessaire de passer chez le client pour la relève, ce qui simplifiera singulièrement la vie de nos clients.

De plus, les factures seront désormais établies sur la base des consommations réelles, alors que le client reçoit aujourd'hui six factures par an, dont quatre sont établies sur la base d'estimations présentant parfois un écart important avec la consommation réelle.

Linky facilitera aussi le fonctionnement du marché de l'électricité, puisque les changements de fournisseurs et de systèmes tarifaires pourront se faire d'une façon à la fois simple et rapide.

Enfin, le compteur Linky constitue aussi un formidable outil au service de la maîtrise de la demande d'énergie, les clients disposant d'informations sur leur consommation d'électricité, et pouvant ainsi ajuster celle-ci au plus près de leurs besoins, pour dégager de substantielles économies d'énergie.

Dans sa communication du 12 avril 2011 sur les réseaux intelligents, la Commission européenne indique d'ailleurs que les consommateurs disposant de compteurs intelligents ont réduit leur consommation d'énergie de 10 % en moyenne.

L'infrastructure mise en place dans le cadre du projet Linky favorisera aussi le développement de nouveaux services à valeur ajoutée. Le gouvernement a ainsi décidé que, dans le cadre du projet Linky, l'ensemble des clients devraient pouvoir consulter gratuitement sur internet leur consommation des deux dernières années et recevoir gratuitement des alertes par SMS en cas de dépassement d'un seuil prédéfini de consommation.

D'autres services avancés peuvent être imaginés, les clients pouvant par exemple comparer leur consommation à celle de clients au profil proche. Des services innovants, inspirés par l'univers Web 2.0, commencent d'ailleurs à émerger et sont appelés à se développer rapidement.

Le comptage intelligent, grâce à l'infrastructure de communication associée, peut aussi servir à moderniser très fortement la gestion du réseau de distribution.

Grâce à Linky, il est en effet possible de suivre la qualité de l'électricité fournie aux clients et d'identifier les clients mal alimentés ; de cibler plus finement les investissements et, en fonction des consommations, de déterminer les ouvrages à renforcer ; de localiser les défauts sur les lignes haute tension A (HTA) et donc d'envoyer les équipes plus rapidement là où elles doivent intervenir et finalement de réduire les temps de coupure ; d'observer le réseau basse tension et, en cas d'incident, de savoir où les clients sont en rupture.

Nous passerons ainsi d'un réseau dans lequel le capteur est le client et le lien de communication le téléphone, à autre type de réseau dans lequel le capteur sera le compteur et le lien de communication l'infrastructure de communication Linky, ce qui constitue pour nous une véritable révolution technique.

Pour en venir plus précisément aux réseaux intelligents de l'avenir, les smart grids , il convient de rappeler que les réseaux de demain subiront quatre événements principaux : le développement de la production décentralisée ; l'introduction de la gestion active de la demande ; l'apparition de moyens de stockage raccordés au réseau de distribution et enfin le développement de nouveaux usages, dont la pompe à chaleur mais aussi surtout les véhicules électriques.

Le distributeur est au coeur de ces transformations dans la mesure où, aujourd'hui, 95% des centrales éoliennes et photovoltaïques en France sont raccordées au réseau de distribution ; 100% des bornes de recharge des véhicules électriques seront évidemment raccordées au réseau de distribution ; et ce sont les distributeurs qui mettent en place et exploitent les infrastructures de comptage intelligent, de même qu'ils gèrent et mettent à disposition des acteurs du marché les masses considérables de données ainsi obtenues.

Le développement de la production décentralisée est certainement le facteur de changement le plus important. Fin septembre 2011, 943 centrales éoliennes et 221 000 installations photovoltaïques étaient raccordées au réseau de distribution géré par ERDF, correspondant respectivement à des puissances installées de 5,9 GW en éolien et 1,9 GW en photovoltaïque.

Ce développement de la production d'électricité à partir de ressources renouvelables modifie en profondeur le fonctionnement du système électrique. L'insertion de ces installations de production sur le réseau de distribution demande en effet d'adapter nos pratiques. Il s'agit de garantir la sécurité des personnes lors de manoeuvres ou d'incidents sur le réseau, notamment en prévenant la formation d'îlots électriques où les dispositifs de protection ne fonctionneraient plus ; d'assurer la sûreté de fonctionnement du système électrique en veillant à ce que ces énergies viennent soutenir le réseau lors d'incidents importants et non s'en retirer comme cela leur était demandé lorsqu'elles étaient marginales ; de maintenir la tension dans les plages prévues et d'éviter l'apparition de surcharges sur les lignes et les transformateurs ; d'optimiser de façon coordonnée les équilibres offre/demande en intégrant les contraintes sur le réseau, au bénéfice de tous les acteurs du marché.

ERDF a déjà mis en place des réponses opérationnelles pour faire face à l'accroissement important du nombre de centrales raccordées ces dernières années ; nous développons de nouvelles solutions pour mieux tenir compte de la multiplication des centrales dans la conduite des réseaux, afin, par exemple, de définir des schémas optimisés de reprise de service après incident en prenant mieux en compte la production, pour améliorer le réglage de la tension ou encore pour établir des modèles de prévision de la production photovoltaïque.

La deuxième évolution importante du système électrique est le développement de la gestion active de la demande, dans le but de faire face aux fluctuations de la production, de reporter la consommation de la pointe vers des heures creuses, où le prix est moins élevé et le contenu carbone du kilowattheure (kWh) est moindre, ou encore de réduire l'énergie consommée.

Pour les clients résidentiels, il est ainsi possible d'agir, par exemple, sur les chauffe-eau, les radiateurs ou la climatisation, les appareils électroménagers, ces actions relevant soit de l'initiative du client pour réduire sa consommation, soit de son fournisseur dans le cadre de son contrat ou encore pilotées par le gestionnaire de réseau.

Il conviendra d'intégrer au fonctionnement global du système de nouveaux acteurs tels que les agrégateurs et les divers fournisseurs de services ou de conseils.

Là encore, le distributeur, notamment en déployant des systèmes de comptage évolués, joue un rôle clé dans le dispositif. Sa mission doit s'étendre aux étapes successives de certification ex ante , d'activation et d'évaluation ex post des effacements.

La troisième évolution du secteur électrique est constituée par l'apparition possible de moyens de stockage, certains centralisés et d'autres décentralisés grâce à des batteries de tailles diverses. Leur raccordement pourrait de même se faire sur les réseaux de distribution.

Le développement des véhicules électriques constitue un quatrième défi pour le distributeur. Un véhicule électrique constitue en effet une charge mobile que son propriétaire souhaitera connecter au réseau à des endroits variables. Nous n'avons actuellement pas l'habitude de traiter ces situations sur nos réseaux et le coût pourrait être extrêmement élevé.

Des solutions intelligentes de gestion des recharges se révèlent donc indispensables à la maîtrise de l'impact de cette évolution sur le réseau électrique.

Le système électrique de demain sera beaucoup plus complexe, et le distributeur a un rôle central à jouer pour maîtriser cette complexité tout en garantissant la qualité et la continuité de l'alimentation électrique. Son action se situera naturellement à l'articulation entre local et national, dans un ensemble de règles à inventer en concertation avec l'ensemble des parties prenantes.

Ces évolutions nécessiteront notamment des adaptations de l'interface entre les gestionnaires des réseaux de transport et de distribution, les échanges d'informations entre ces acteurs étant appelés à s'amplifier afin de garantir la sécurité du système.

Un important effort de recherche et développement est nécessaire pour concevoir et tester les réseaux intelligents de l'avenir. Dans cette perspective, ERDF accroît de façon importante son effort de recherche et développement et s'est fortement mobilisée pour le montage de projets de démonstration français et européens.

ERDF est ainsi le coordonnateur de plusieurs projets financés par le Commissariat général à l'investissement, tels que « NICEGRID » en PACA, « GreenLys » à Lyon et Grenoble, ou « Venteea » dans l'Est de la France.

ERDF est aussi le leader du projet Grid4EU, qui est le plus important projet européen de recherche et développement en matière de réseaux intelligents, avec 27 partenaires et six démonstrateurs dans autant de pays différents. Il est doté de 50 millions d'euros avec une subvention européenne de 25 millions d'euros. ERDF, en partenariat avec les grandes entreprises du secteur, mais aussi des PME et des centres de recherche, contribue ainsi à positionner «l'équipe de France des réseaux intelligents» dans les premiers rangs au niveau mondial.

En conclusion, je voudrais souligner que les coûts d'acheminement constituent la moitié de la facture d'électricité payée par les clients, avec une répartition d'environ deux tiers pour le réseau de distribution et un tiers pour le réseau de transport.

De plus, l'Agence internationale de l'énergie (AIE) estime que, dans l'Union européenne, il faudra investir 300 milliards d'euros sur les réseaux de distribution entre 2010 et 2020. Au cours de la même période, les besoins d'investissement sur les réseaux de transport s'élèveront à 100 milliards d'euros.

Face à ces enjeux, il est devenu indispensable de réfléchir à la conception du système électrique futur. On ne peut se contenter de dire «le réseau suivra», comme l'on dit parfois «l'intendance suivra».

M. Christian Bataille, député, rapporteur . - Je vais maintenant donner la parole à M. George Kariniotakis, chercheur au centre de recherche sur l'énergie et les procédés de Mines Paris Tech qui a étudié la prévisibilité de la production d'énergie intermittente, éolienne ou photovoltaïque. Pouvons-nous prédire les conditions de vent ou d'ensoleillement avec une précision suffisante pour déterminer la production des énergies intermittentes ? Dans quelle mesure pouvons-nous espérer compenser le manque de vent ou de soleil ? Les éoliennes en mer qui seront installées au large des côtes de la Manche ne risquent-elles pas de produire le même effet sur les réseaux que plusieurs EPR qui démarreraient et s'arrêteraient de manière imprévisible ? Telles sont quelques-unes de nos questions.

M. George Kariniotakis . - Rappelons tout d'abord les objectifs européens particulièrement ambitieux fixés pour 2020 en matière d'énergies éolienne et photovoltaïque.

Pour l'énergie éolienne, il s'agit de 230 GW, ce qui permet de couvrir entre 14 % et 18 % de la demande en électricité, alors que nous ne disposons aujourd'hui que d'une capacité installée de 74 GW. En matière d'énergie photovoltaïque, l'objectif proposé par le Conseil européen des énergies renouvelables (EREC) est d'atteindre 150 GW.

Dans ce contexte d'intégration à grande échelle des énergies renouvelables, le caractère fluctuant de la production de ce type d'énergie pose un défi technologique majeur au système électrique traditionnel que nous connaissons et aux acteurs qui le composent.

Dès lors, se pose la question des prévisions de court terme - c'est-à-dire établies quelques heures ou quelques jours à l'avance - nécessaires au bon fonctionnement et à la sécurité du système électrique. Ces prévisions permettent aux gestionnaires du réseau de transport et de distribution de planifier les moyens de production et d'assurer l'équilibre quotidien entre l'offre et la demande mais aussi de gérer les congestions du réseau de distribution, de planifier les échanges avec les réseaux voisins, de maintenir les interconnexions et de gérer les moyens de stockage.

S'agissant plus particulièrement des producteurs indépendants d'énergie renouvelable, ces prévisions sont très importantes pour planifier la maintenance des fermes éoliennes, particulièrement dans le cadre de l'éolien en mer où l'accession au site dépend des conditions météorologiques, et pour participer directement au marché de l'électricité.

En Espagne par exemple, où le système de tarification n'est pas fixe, un producteur éolien peut ainsi proposer de vendre sa production directement sur le marché de l'électricité du jour au lendemain.

En matière d'énergie renouvelable, la prévision de la production est un problème particulièrement complexe en raison tant de la variabilité des conditions météorologiques naturelles que des caractéristiques propres aux machines de production d'énergie éolienne. Sur ce dernier point par exemple, au-delà d'un certain niveau de force du vent, il est nécessaire de suspendre les appareils pour les protéger.

Ainsi, dans une situation où la force du vent atteindrait 26 mètres par seconde, la production serait nulle car la force maximum que l'on peut enregistrer sur ce type d'appareils est de 20 mètres par seconde. Ces situations sont heureusement peu fréquentes et peuvent être limitées grâce à l'effet de lissage que peut offrir l'agrégation de plusieurs fermes éoliennes géographiquement dispersées. Celles-ci permettent donc à la fois de réduire la variabilité et d'augmenter le niveau de prévision de la production.

L'exemple d'une journée type de production d'électricité en Espagne, celle du 11 juin 2011, démontre de façon étonnante que la pénétration de la production d'énergie éolienne dans la demande globale peut monter jusqu'à 60 %, alors qu'il y a deux ans seulement, un communiqué de presse du gestionnaire de réseau espagnol, Red Electrica, annonçait un record de 53 % qui paraissait déjà exceptionnel.

Dans cette perspective, on remarque que la variabilité infra-journalière n'est pas un élément de grande importance et que, sur 24 heures, la contribution de l'énergie éolienne peut, d'une part, parfaitement coexister avec d'autres types d'énergies comme la biomasse, le fioul, le charbon, le cycle combiné gaz ou encore l'énergie nucléaire, et, d'autre part, s'insérer dans les échanges avec les réseaux voisins.

Quant aux prévisions en matière d'énergies éolienne et photovoltaïque, elles reposent sur des modèles informatiques permettant d'agréger les informations du passé, les données en cours sur le terrain disponibles dans les fermes éoliennes ou photovoltaïques et les prévisions météorologiques des organismes spécialisés. Les résultats sont traduits en courbes sur 24 heures ou 48 heures, avec des prévisions heure par heure et par intervalles.

La réalisation de bonnes prévisions dépend essentiellement de la qualité des prévisions météorologiques réalisées par les organismes spécialisés, des progrès ayant été réalisés grâce aux améliorations des modèles et des outils de calcul. Il est évident que les prévisions à court terme sont les plus précises et que les prévisions hivernales sont moins fines, la tâche étant rendue plus difficile par l'existence d'un relief.

La qualité des prévisions dépend aussi du niveau de production d'énergie, la marge d'erreur étant d'autant plus importante que le niveau de production est élevé.

Il convient aussi de prendre en compte le niveau d'agrégation. Plus celui-ci est important, plus la prévision sera efficace. Ainsi, la prévision du niveau de production des fermes éoliennes à l'échelle d'un pays sera plus efficace qu'à l'échelle d'une région seulement.

Les prévisions dépendent enfin des erreurs de phase, dont l'impact pour les gestionnaires de réseau est important, car si ces derniers parviennent à prévoir les événements, ils le font avec une incertitude sur le moment où celui-ci interviendra.

Trois pays utilisent aujourd'hui, et depuis de nombreuses années, les prévisions en matière d'énergie éolienne.

En Espagne, le gestionnaire de réseau, Red Electrica, a développé depuis maintenant dix ans un modèle combinant plusieurs modèles différents. La puissance installée s'y établit à 20 000 MW, plutôt concentrée sur la partie nord du pays, ce qui offre une situation moins avantageuse que la situation française par exemple, où la répartition géographique du secteur éolien repose sur trois grandes régions.

S'agissant des performances de prévision à 24 heures, la marge d'erreur absolue pour l'ensemble de la production à l'échelle de l'Espagne est inférieure à 4 % de la capacité installée. A horizon de 48 heures, le taux de marge d'erreur se situe en revanche entre 1 % et 4,5 % de la capacité installée, le perfectionnement de la modélisation, année après année, ayant permis des améliorations considérables.

Ainsi, entre 2005 et 2009, le taux d'erreur à horizon de 48 heures a été divisé par deux et la marge d'erreur est aujourd'hui inférieure à 5 %.

Au Danemark, le gestionnaire de réseau Energinet utilise des modèles alternatifs de prévision qui lui permettent d'atteindre, par comparaison sur 24 heures, un taux d'erreur n'excédant pas 4,3 % de la capacité installée, et, à horizon de 48 heures, un taux situé entre 1 % et 6,5 % de la capacité installée. Sur le court terme, à savoir entre 2 heures et 3 heures, le taux d'erreur se situe à 3 % de la capacité installée.

En Allemagne, la prévision à 24 heures pour l'ensemble de cette production offre un taux d'erreur, dite « erreur quadratique normalisée », de 3,7 %. S'agissant plus particulièrement de l'énergie photovoltaïque, le taux atteint 4,17 % pour la production globale.

Au total, il apparait bien que la question de la prévision en matière de production d'énergie renouvelable est complexe. Les recherches en la matière se sont d'ailleurs intensifiées au cours de ces vingt dernières années.

En France, Mines Paris Tech a joué un rôle clef dans la coordination d'un des projets les plus importants dans le domaine de la prévision en matière d'éolien mené entre 2002 et 2005. Ce projet, « Anemos », est considéré comme un véritable succès par la Commission européenne car il a fait évoluer significativement la technologie de la prévision dans ce domaine.

Nous avons ensuite développé un autre projet en partenariat avec des acteurs tels qu'EDF et Météo France, baptisé « Anemos plus », à l'usage des gestionnaires de réseau et des producteurs, tendant à optimiser les prévisions en matière d'estimation des réserves, de gestion des congestions, de coordination du stockage, en vue de la prise de décisions opérationnelles sous incertitude.

Enfin à ce jour, le projet le plus important dans ce domaine est le projet « Safe Wind », coordonné par Mines Paris Tech, qui doit permettre de développer les liens entre la météorologie et la prévision éolienne, afin d'améliorer la prévisibilité en la matière. L'enjeu est de développer de nouveaux outils de prévision et surtout d'alerte en cas de situations extrêmes, afin de prévenir le réseau et de prendre les mesures nécessaires pour y faire face.

Aujourd'hui, cette activité de recherche développée par Mines Paris Tech est un véritable succès avec des utilisateurs jusqu'en Australie ou au Canada.

M. Christian Bataille, député, rapporteur . - M. Bucaille, l'opérateur allemand E.ON vient d'annoncer qu'il testait l'injection directe, dans le méthane, d'hydrogène obtenu par électrolyse, l'énergie électrique étant fournie par des éoliennes. Un tel mélange n'est-il pas source de difficultés pour les utilisateurs dont la chaudière, conçue pour fonctionner au méthane, brûlerait un mélange de méthane et d'hydrogène ?

M. Alain Bucaille . - À ma connaissance, ce mélange ne présente aucun inconvénient pour les brûleurs de cuisine, mais l'adjonction au méthane de l'hydrogène obtenu par électrolyse fait au mieux économiser 15 % du prix de revient. L'avantage fondamental de cette technique tient à ce qu'elle utilise un réseau de transport qui existe déjà pour valoriser de manière continue l'énergie intermittente.

M. Christian Bataille, député, rapporteur . - M. Bernard Mahiou, quelle est la hauteur minimum d'une falaise pour rentabiliser le pompage de l'eau marine ? Peut-on envisager le projet guadeloupéen avec les côtes bretonnes, normandes et du Pas-de-Calais ? Un stockage en eau est-il prévu pour les 6 000 MW fournis par les éoliennes le long de nos côtes ? Combien coûte le stockage en Step terrestre et en Step marine ?

M. Bernard Mahiou . - En Guadeloupe, la hauteur de chute est de 50 mètres, contre 150 mètres pour l'installation du Japon. Les Step marines présentent de l'intérêt à La Réunion et en Martinique. Dans cette dernière île, la chute peut atteindre 100 mètres. Si vous multipliez par 2 la hauteur de chute, pour une même puissance, le débit d'eau est divisé par deux par rapport à ce qui se fait en Guadeloupe. Le volume d'eau à stocker est donc divisé par deux.

On peut envisager une usine souterraine en puits pour compenser l'insuffisante hauteur de la chute, ce qui réduit le coût de fonctionnement du site, mais au prix d'un investissement considérable au départ. D'où l'idée d'une usine préfabriquée, accolée à la falaise, bien intégrée au paysage et qui s'affranchirait de toutes les difficultés liées à la hauteur de chute et au terrain.

Nous allons étudier les falaises le long du littoral français, mais nous savons déjà que très peu de sites atteindront 200 mètres, la plupart se situant entre 50 mètres et 100. Le projet guadeloupéen est un précurseur. Je pense que l'on pourrait installer 5 000 MW le long des côtes françaises avec des Step marines, pour un coût très inférieur aux Step terrestres installées jusqu'ici.

M. Bruno Sido, sénateur, rapporteur . - Quel est le rendement de ces Step ? Avant de récupérer l'énergie d'une chute d'eau, il faut dépenser de l'énergie pour monter cette eau. Les centrales nucléaires produisent une électricité gratuite en dehors des périodes de pointe. En revanche, l'éolien en mer fournit une électricité coûteuse. Quel est l'intérêt des Step ?

M. Bernard Mahiou . - Les Step classiques utilisent 25 % de l'énergie produite pour remonter l'eau. Le rendement de leurs turbines avoisine 98 %. Au total, la technique traditionnelle offre donc un rendement de 75 %, mais Alstom atteint 80 %.

En pratique, le rendement est meilleur lorsque la turbine et la pompe sont séparées, mais l'usine est plus encombrante.

Lorsque la production intermittente dure plus de 30 % du temps, une partie de l'électricité produite est perdue. La Step a pour vertu de la stocker et permettrait d'utiliser l'énergie du vent nocturne, qui, actuellement, ne sert à rien. En tout état de cause, il est intéressant de stocker l'énergie fatale.

M. Bruno Sido, sénateur, rapporteur . - Pourquoi vous faut-il une subvention de 100 millions d'euros pour conduire à son terme le projet guadeloupéen ?

M. Bernard Mahiou . - C'est le bon sujet.

La péréquation tarifaire impose à EDF de vendre l'électricité en Guadeloupe au tarif de la métropole, malgré un prix de revient quatre fois plus élevé, mais la loi dispose aussi que l'entreprise perçoit une part de la contribution au service public d'électricité (CSPE). En Guadeloupe, le chiffre d'affaires net s'établit à 850 millions d'euros avec un million de clients, la CSPE avoisine 1 200 millions, soit un chiffre supérieur au chiffre d'affaires. Nous discutons avec la commission de régulation de l'électricité (CRE) sur l'éventualité d'une baisse de la contribution.

Pour atteindre le but fixé par le Grenelle de l'environnement, à savoir 50 % d'énergies renouvelables sur ce territoire à l'horizon 2020, il est indispensable d'intégrer les sources intermittentes en plus de la géothermie et la biomasse. En étudiant un projet, la CRE examine son incidence sur la CSPE, qu'elle veut sans cesse réduire. En l'occurrence, la CRE est disposée à verser une subvention de 150 millions d'euros, motivée par l'économie de gazole et la moindre émission de gaz carbonique. Ce premier projet innovant coûte 250 millions d'euros ; nous avons donc besoin d'un financement complémentaire à concurrence de 100 millions. Or, le Commissariat général aux investissements a lancé un appel à manifestation d'intérêt (AMI) dans le cadre des investissements innovants. Nous nous sommes insérés dans ce dispositif qui nous apportera 30 millions d'euros, auxquels s'ajouteront 20 millions payés par la Guadeloupe, le reste provenant du Feder.

M. Hubert Flocard . - M. Kariniotakis, la prévision intéressante porte non sur la moyenne, mais sur les gradients de puissance, qui peuvent être énormes. Un index annuel moyen est trompeur. Lorsqu'on rapproche deux courbes retraçant les prévisions et la production, avec des pentes extrêmement fortes, elles peuvent sembler quasiment confondues malgré d'énormes différences verticales.

Pouvez-vous prévoir l'incidence d'une modification du vent pour le réseau ?

M. George Kariniotakis . - Alors que certains pensaient que la production d'une éolienne était quasiment imprédictible, les progrès accomplis ont permis d'aboutir à une prévision fiable sur l'ensemble de l'année. En fait, les chiffres sont exacts 90 % du temps. Pour le reste, les changements de régime échappent à nos calculs, qu'il s'agisse du timing ou de leur ampleur.

Bien sûr, il reste des marges pour les améliorations futures, c'est pourquoi des doctorats sont en cours à l'Ecole des mines sur ce sujet. Le projet Safe Wind que je vous ai présenté a justement pour objectif d'améliorer la prévision des situations extrêmes, comme l'apparition d'un vent très fort.

M. Christian Bataille, député, rapporteur . - M. Mignon, quel est le rôle des interconnexions avec les autres pays européens quand il s'agit de faire face aux pointes de consommation électrique, lesquelles se produisent à des heures différentes selon les pays ?

Pensez-vous que nous risquons une panne d'ampleur cet hiver ? Dans quelles conditions climatiques pourrait-elle survenir ?

M. Hervé Mignon . - Élément majeur pour gérer l'intermittence de plusieurs milliers de GW, l'interconnexion est la condition sine qua non pour aboutir à des réseaux intelligents. Nous lui consacrons un tiers des investissements en lignes à très haute tension, ce qui mutualise les aléas classiques, mais aussi ceux, plus récents, liés au temps ou à l'environnement. N'oublions pas que l'Espagne a connu, il y a quelques jours, un record dans sa production éolienne.

La semaine dernière, RTE a conduit un exercice prévisionnel sur l'hiver à l'échelle ouest-européenne avec son homologue allemand pour déterminer les zones potentielles de tension. La vigilance s'exerce aussi face aux perspectives climatiques.

M. Bruno Sido, sénateur, rapporteur . - M. Bucaille, pourriez-vous nous en dire plus quant à la technique permettant de produire du méthane pour stocker l'énergie et combattre l'effet de serre ? Je m'interroge notamment sur le prix de revient et la rentabilité de cette technique très intéressante.

M. Alain Bucaille . - Dans ce domaine, je répondrai comme professeur à l' Imperial College de Londres, plus qu'au nom d'Areva. Le premier sujet de discussion à l' Imperial College est le Printemps arabe et ses conséquences : que se passera-t-il pour le prix du pétrole si l'Arabie Saoudite bascule ? La première interrogation est donc géostratégique.

Deuxièmement, tant que l'électricité produite ne dégage pas moins de 200 grammes de gaz carbonique par kWh, tant que les voitures ne produisent pas moins de 80 grammes de CO 2 par kilomètre et tant que l'on ne développe pas la captation du carbone, le développement des énergies intermittentes s'accompagnera d'un « boom for gas » ! L'Agence internationale de l'énergie vient de concéder qu'il serait impossible d'éviter un réchauffement d'au moins 3° à 5° si l'on veut que la croissance continue. L'Allemagne ne peut pas éviter de recycler le CO 2 pour obtenir de l'hydrogène ou du méthane. En France, les difficultés tiennent à la distribution des rôles entre électriciens et gaziers plus qu'à des obstacles techniques.

Nous ne mettons pas toute l'information sur la table pour ne pas laisser les dirigeants chinois croire qu'en s'équipant de générateurs nucléaires moins sûrs que ceux de génération 3, ils se délivreront de la contrainte énergétique. On manie quand même beaucoup de légèreté dans les discussions sur la sûreté nucléaire en Chine. Avec un baril à 110 dollars et des taux d'intérêt à 4 %, des réacteurs moins sûrs fournissent une électricité 15 % moins chère qu'un EPR. Dans ces conditions, la réflexion du Premier Secrétaire du parti communiste chinois risque de ne pas durer longtemps. C'est une question sérieuse !

Il faudrait dépenser 200 millions d'euros en recherche et développement pour identifier les meilleurs produits énergétiques entre le diméthylether, le méthanol, le méthane et l'essence. Mais on peut aussi mettre le climat au premier plan et se demander comment la France peut faire passer l'énergie non productrice de CO 2 de 50 % à 60 % du total. Recycler le CO 2 fait partie de la palette des solutions.

L' Imperial College publiera, en juin prochain, une étude sur le coût du passage aux énergies renouvelables à l'échelle de la planète.

La différence entre l'Europe et le monde tient à la démographie et au nombre de voitures. Au niveau de la planète, le processus en cours est irrésistible. Le recyclage du gaz carbonique arrivera plus ou moins vite.

M. Christian Bataille, député, rapporteur . - M. Pierre Mallet, le stockage décentralisé de l'énergie peut-il avoir des performances comparables au stockage centralisé ? Peut-il apporter une solution à des déséquilibres importants, à l'échelle nationale ou européenne ?

M. Pierre Mallet . - Stockage centralisé et décentralisé n'obéissent pas aux mêmes règles : selon la taille des moyens de stockage, on peut avoir un cycle de recharge par jour, plusieurs en 24 heures ou un par semaine. L'équipement peut prendre la forme d'un panneau solaire placé sur le toit pour alimenter une batterie dans le garage ou d'une petite batterie placée au poste moyenne tension-basse tension. On utilise une petite batterie lithium-ion ou une grande sodium-soufre. Il faut aussi prendre en considération le coût de l'insertion dans le réseau et du raccordement.

Il est très difficile de dire aujourd'hui quelle taille va l'emporter. C'est pourquoi nous allons installer pour quatre ans un démonstrateur dans la région niçoise, avec une batterie au niveau du poste source, une dizaine de batteries au niveau du poste moyenne tension-basse tension et une centaine de batteries individuelles. J'espère que nous pourrons alors être plus précis dans quatre ans.

M. Hubert Flocard . - Nous avons appris que le recours aux lignes à haute tension permettait de réduire les pertes. Qu'en est-il sur les réseaux extrêmement dispersés ? On évoque généralement 6 %.

M. Pierre Mallet . - C'est une question difficile. Les éoliennes décentralisées représentent un cas extrême, puisqu'elles sont branchées sur des départs dédiés.

S'agissant du solaire, tout dépend de son caractère diffus ou concentré. Ainsi, l'appareil de 4 kW posé sur un toit dans un lotissement de vingt maisons ne subit quasiment aucune perte, alors que l'installation systématique de panneaux photovoltaïques produisant 20 kWs provoquera un surplus d'énergie qui remontera dans le transformateur en raison du non-synchronisme entre production (le jour) et consommation (la nuit).

En résumé, la réponse à votre question dépend du type de développement de la production photovoltaïque (réparti ou concentré) et de sa synchronisation ou non avec la consommation.

M. Christian Bataille, député, rapporteur . - D'après les modèles météorologiques, pouvons-nous espérer avoir toujours du vent ou du soleil en France ? Il semble que l'électricité solaire ou éolienne puisse représenter l'équivalent de 18 EPR lorsque tout fonctionne à plein régime. Mais l'apport peut aussi être égal à zéro !

M. George Kariniotakis . - Peut-on avoir une puissance garantie malgré le foisonnement des techniques ? La filière photovoltaïque ne produit évidemment rien la nuit. Nous avons réalisé une étude sur l'éolien ; l'Ademe aussi, il y a quelques années. Sur ce sujet, il faut raisonner en termes probabilistes. Si ma mémoire est juste, le réseau éolien devrait fournir pendant 90 % du temps au moins 10 % de sa capacité installée. Aucune étude similaire n'a été conduite sur le fonctionnement de panneaux solaires, mais je pense que le chiffre serait meilleur, car la production n'est jamais nulle dans la journée.

M. Stephan Silvestre, professeur affilié à l'Ecole supérieure de gestion . - Quelle est la capacité d'intégration d'énergies renouvelables intermittentes en zone continentale ?

M. Hervé Mignon . - L'interconnexion des réseaux européens permet d'insérer aisément des énergies renouvelables intermittentes. Il n'y a pas de limite à 25 % ou 30 % comme en zone insulaire, en raison du maillage.

À l'évidence, il faudra renforcer la coordination entre gestionnaires des réseaux. De nombreux pays ont retenu l'objectif de « trois fois 20 » en matière d'énergie renouvelable : d'où les progrès importants des filières éoliennes et photovoltaïques.

Il importe de conforter les moyens de secours mutuel, en cas de pics de consommation. Ainsi, la France a une consommation thermosensible, contrairement à d'autres pays aux choix différents. Il importe en outre d'améliorer les prévisions communes, ainsi que les capacités concrètes d'observation, ce que la France fait avec l'IPES.

Le modèle espagnol, qui donne un pouvoir de commande sur les énergies intermittentes aux gestionnaires de réseau, peut-il être généralisé ? Il faut aussi se pencher sur les conséquences de ces nouvelles énergies en termes de sûreté du système électrique, notamment en raison des variations de fréquence.

M. Bernard Mahiou . - L'injection très importante d'énergies renouvelables intermittentes, par exemple en Provence ou en Bretagne, susciterait des difficultés analogues à celles rencontrées en Guadeloupe, à moins que le réseau de distribution interconnecté ne permette tout, ce dont je doute.

Il n'y a pas une forme unique de stockage décentralisé, mais plusieurs, le stockage de masse n'est pas le stockage électrolytique. Une batterie réagit en quelques millisecondes ; une Step terrestre a besoin de 15 minutes ; la réaction d'une Step marine se mesure en une quinzaine de secondes. Au mieux, une batterie fonctionnera pendant une dizaine d'années, contre un siècle pour une Step. Des formes différentes de stockage obéissent à des finalités différentes. Il faut savoir ce que l'on veut.

M. Christian Bataille, député, rapporteur . - Il me reste à remercier tous les intervenants.

Présidence de M. Bruno Sido, sénateur, rapporteur

La maturité technologique et coûts des énergies renouvelables

M. Bruno Sido, sénateur, rapporteur . - Nous consacrons notre seconde table ronde aux différentes technologies d'énergies renouvelables, dans une perspective globale : quelle est leur maturité technologique ? Quelles sont les pistes de recherche d'avenir ? Quels en sont les coûts ? Si les énergies renouvelables au potentiel de progression le plus fort ont souvent un coût relativement élevé aujourd'hui, les avancées de la recherche et développement permettent d'améliorer le rendement des processus de production industriels.

M. Pierre-Franck Chevet, directeur général de l'énergie et du climat, nous donnera un point de vue d'ensemble. Dans des filières qui, pour beaucoup, n'ont pas atteint la maturité industrielle, l'administration joue un rôle essentiel de soutien, voire d'impulsion.

S'agissant plus particulièrement de la production d'électricité à partir de l'énergie solaire, les dirigeants de deux grands instituts de recherche français, M. Jean-Pierre Joly pour l'Institut national de l'énergie solaire et M. Daniel Lincot pour l'Institut de recherche et développement sur l'énergie photovoltaïque, nous présenteront un bilan le plus complet possible.

Alors que l'énergie éolienne est déjà largement répandue chez nos voisins allemands, danois ou anglais, l'optimisation des turbines reste un champ de recherche important et l'on annonce régulièrement la sortie de nouvelles unités toujours plus puissantes. M. Robert Gleitz nous indiquera plus précisément ce que nous pouvons attendre dans les années à venir de l'énergie éolienne.

L'Office étudie des techniques moins médiatisées mais qui pourraient représenter un potentiel intéressant à long terme. Ainsi la géothermie profonde peut être utilisée pour la production de chaleur mais aussi d'électricité. MM. Romain Vernier et Guillaume Duval évoqueront le sous-sol et ses ressources.

Enfin, M. Gilles Koléda, économiste, présentera la production d'électricité éolienne et photovoltaïque sous l'angle socio-économique.

M. Pierre-Franck Chevet, la direction générale de l'énergie et du climat a une vision d'ensemble des politiques publiques relatives aux énergies renouvelables. Vous avez publié, il y a deux mois, un rapport sur l'industrie des énergies décarbonées, document de synthèse qui présente l'état des technologies et de la recherche comme le contexte économique et réglementaire, aussi bien pour les filières d'énergies renouvelables que pour l'énergie d'origine nucléaire. Quelles conclusions en tirez-vous concernant la maturité et le coût des technologies d'énergies renouvelables ? Pourriez-vous également évoquer les marémotrices, les hydroliennes, l'énergie de la houle ?

M. Pierre-Franck Chevet, directeur général de l'énergie et du climat . - Les énergies renouvelables sont au coeur de la feuille de route énergétique française. Les objectifs du Grenelle nous obligent ; ils sont en cours de déploiement. Par rapport à d'autres pays, la France a un bon bilan CO 2 : sur les énergies renouvelables, nous sommes dans la moyenne européenne, c'est pourquoi il faut aller de l'avant ; pour les autres critères, nous obtenons des résultats corrects, mais il est un domaine où nous devons progresser, c'est l'efficacité énergétique des logements.

Nos énergies renouvelables produisent aujourd'hui 20 millions de tonnes équivalent pétrole (tep). L'objectif est de doubler la production d'ici à 2020, dont 7 millions de tep pour l'électricité, dont on parle tant, 10 millions de tep pour la chaleur, dont on parle peu, mais qui est un grand enjeu, et 3 millions de tep pour les biocarburants.

Le plan d'action national décline les efforts à accomplir d'ici à 2020. Un travail important est à fournir pour développer les réseaux de chaleur raccordés aux énergies renouvelables. La part des énergies renouvelables doit augmenter de 33 % pour la chaleur, 27 % pour l'électricité et 10 % pour les transports. La trajectoire estimée de développement montre la part des économies d'énergie, la part relativement importante de l'éolien en mer, l'hydroélectricité assumant la plus grande partie, pour des raisons historiques, ce qui explique d'ailleurs la bonne place que nous tenons, en Europe, en matière d'énergie renouvelable.

En termes de puissance à installer, dans la suite du Grenelle, nous avons pris des arrêtés fixant les objectifs suivants pour 2020 : 19 000 MW pour l'éolien terrestre, 6 000 MW pour l'éolien en mer, 5 400 MW pour le solaire (on devrait atteindre 7 000 à 8 000 MW), 2 300 MW pour la biomasse et plus de 3 térawatt-heures (TWh) par an pour l'hydroélectricité, soit un total de 35 000 à 40 000 MW, ou l'équivalent, en puissance, d'une quarantaine de réacteurs nucléaires en dix ans. C'est un effort comparable à celui qui a été fourni pour le nucléaire dans les années soixante-dix et quatre-vingts. Ce développement n'est pas sans limite, au regard de son acceptabilité, et implique un effort d'explication, qui passe par les débats publics locaux.

L'éolien terrestre est une technologie mature, marquée par une forte concurrence internationale, animée par des acteurs industriels forts. La Chine assure le tiers de la production mondiale de machines, mais sa capacité d'exportation est plus limitée que pour d'autres filières, en raison de la taille des objets. L'éolien terrestre représente le quart du déploiement du Grenelle. En 2011, il produit 6 200 MW, l'objectif 2020 implique une augmentation annuelle de 1 000 MW en moyenne. Nous sommes en train de clarifier le régime réglementaire. Les schémas régionaux climat - air -énergie détermineront les zones propres au développement de l'éolien. Ils seront achevés dans six mois environ. Les premiers retours sont encourageants et devraient nous permettre d'aller au-delà de l'objectif du Grenelle. Le principal obstacle au développement, c'est l'acceptabilité. Le cadre réglementaire que nous avons élaboré se rattache à celui des installations classées pour la protection de l'environnement, qui est robuste. La question de l'intermittence se pose davantage à moyen et long terme que dans l'immédiat.

L'objectif de l'éolien en mer représente le tiers de l'objectif de l'éolien à terre, pour un marché un peu moins mature, comportant beaucoup d'innovation. Les éoliennes sont de plus grande taille, elles doivent affronter un milieu particulièrement agressif, d'où les efforts sur la maintenabilité. Le marché européen a un potentiel de 40 GW, ce qui est important. La France fait partie des acteurs qui comptent mais le Royaume-Uni déploie des ambitions plus fortes. Tout un tissu de PME participe aux recherches et au déploiement des éoliennes en mer, ainsi que de grands groupes, comme Areva, Alstom. Nous avons, c'est une chance, une façade maritime relativement propice. Nous disposons de ports et pouvons compter sur les professionnels de la pêche, qui ont la pratique de la mer. Nous avons lancé l'appel d'offres pour la première tranche de 3 000 MW, soit la moitié de l'objectif 2020. Le temps des procédures et de la construction est relativement long, de quatre à cinq ans. La mise en exploitation n'interviendra donc pas avant 2015-2016. Nous travaillons au lancement d'un deuxième appel d'offres.

La question de l'acceptabilité se pose, les conflits d'usage sont importants, comme nous nous en sommes aperçus, lors du premier appel d'offres, en 2004-2005. La procédure n'a pas abouti, faute d'un travail préalable de concertation sur le zonage, essentiel pour permettre l'acceptation de ces projets. Nous en avons tenu compte pour l'appel d'offres que nous avons lancé, dans de bien meilleures conditions après une phase de concertation avec l'ensemble des acteurs de la mer : pêcheurs, associations, élus, responsables des activités touristiques. Nous avons délimité cinq zones : au large de Saint-Nazaire, Saint-Brieuc, Courseulles-sur-mer, Fécamp et Le Tréport. Le zonage est crucial car il est plus intéressant d'installer une puissance maximale dans les zones ainsi définies, que de gaspiller un espace public qui est rare.

La biomasse est une filière mature, dont l'usage le plus efficace est la production de chaleur. L'un des enjeux de son développement réside dans le conflit d'usage sur la ressource : ne créons pas d'installation qui gêne une papeterie voisine ; veillons aux autres usages du bois ; soyons attentifs à la qualité de l'air, puisque ces installations peuvent émettre des particules, à propos desquelles il existe un contentieux ! Nous le voyons à Strasbourg, où nous avons envie de développer la biomasse, à cause du CO 2 , mais où nous devons faire attention aux particules : il y a des arbitrages à faire. Nous avons demandé aux préfectures de constituer des cellules biomasse, qui se prononceront sur ces questions, lors de chaque appel d'offres, afin d'éviter que soient acceptés des projets qui ne rempliraient pas tous les critères. Notre dispositif à deux étages prévoit un tarif d'achat pour les installations de taille moyenne, un appel d'offres pour les grandes installations.

Le photovoltaïque est une technologie à évolution très rapide, ce qui crée des problèmes de maîtrise et de régulation. Le parc installé en France, à la mi-2011, représente 1 700 MW, dix fois plus qu'en 2009. La puissance installée dans le monde s'élevait à 40 GW fin 2010, dont 30 GW en Europe. Le marché annuel est évalué à 13 GW. La course à la production a entraîné une chute vertigineuse des prix, qui doit se poursuivre. Les subventions, les aides sont là pour créer le marché, les gains de productivité permettant ensuite d'obtenir des conditions de marché. Le photovoltaïque évolue à une telle vitesse que nos dispositifs réglementaires classiques ont parfois du mal à suivre. Nous avons défini une nouvelle régulation aussi vite que possible. Un moratoire a été mis en place entre la fin de l'année dernière et le début de cette année.

Le nouveau dispositif a créé, pour les installations de petite puissance, un mode relativement automatique, qui couvre notamment les installations domestiques. Les tarifs auto-ajustables sont fixés en début de trimestre et sont régulés, en fin de trimestre, en fonction des valeurs constatées. Nous en sommes au troisième trimestre de fonctionnement. Pour les installations de taille intermédiaire, nous organisons un « concours de beauté » sur le prix. Pour les très grandes installations, qui ont un impact paysager, nous recourons à des appels d'offres. L'on peut retrouver tout cela sur notre site.

Les tarifs ont été adaptés à la baisse des coûts. Il est vrai que la fabrication s'est internationalisée, mais comme la facture d'une installation se répartit par moitié entre les panneaux et la pose, le bilan sur l'emploi et l'économie locale du photovoltaïque est positif.

L'hydroélectricité est une énergie historique en France, implantée depuis longtemps et bien exploitée. Les nouveaux gisements sont donc limités mais ils existent. Nous allons renouveler les concessions qui ont été accordées il y a 70 ans. Cette opération lourde, à forts enjeux, donne à l'Etat les moyens de valoriser son patrimoine, dans le respect des équilibres nécessaires. La gestion de l'espace public peut gagner en efficacité, mais doit tenir compte des conflits d'usage (pêche, protection de l'avifaune notamment). La redevance peut rapporter un peu d'argent, ce qui n'est pas indifférent par les temps qui courent.

Les autres technologies ne font pas partie du plan de développement du Grenelle, ce qui ne signifie pas que nous ne nous en occupons pas.

Les énergies marines liées aux vagues, aux marées, aux courants, au thermique marin, en sont plutôt au stade du prototype. Elles doivent être testées, non pas à grande échelle, mais pas à trop petite échelle non plus. Nous avons ouvert un dossier au titre des investissements d'avenir, qui méritent bien leur nom ; nous n'en sommes pas aux appels d'offres ! Dans quatre à cinq ans, les retours d'expériences d'exploitation dans les conditions marines nous permettront de voir si et dans quelles conditions aller plus loin.

Le solaire thermodynamique est une technologie émergente, plus proche de l'industrialisation que la précédente. Son potentiel national est limité, mais il est très fort à l'export, où les projets de la rive sud de la Méditerranée prennent tout leur sens économique. Il convient d'encourager son développement à l'export, son intérêt étant plus industriel qu'énergétique.

Ces technologies vont se développer d'ici 2020, mais, sauf bonne surprise, leur contribution sera relativement faible. Au-delà du Grenelle, à l'horizon 2030, elles peuvent introduire de changements, mais pas de ruptures. De l'argent y est investi dans cette perspective.

Les filières matures (biomasse, éolien terrestre, hydroélectricité) ont un coût de production plus faible que les filières peu matures (photovoltaïque, géothermie, éolien en mer). Les filières en développement (énergies marines, solaire thermodynamique) ont le coût de production le plus élevé.

La loi prévoit que certaines énergies peuvent être développées, dès lors que l'Etat le souhaite. Les arrêtés que j'ai évoqués, affichant des ambitions quantitatives de puissance, pour chaque technologie concernée, déclenchent un système d'obligations d'achat, assuré par EDF, mais refacturé au client. La loi impose que les tarifs soient fixés de manière à assurer « une juste rémunération du capital ». Il ne doit pas y avoir d'effet d'aubaine, de rentes de situation, comme cela s'est produit dans le photovoltaïque avec un tarif d'achat qui ne bouge pas malgré la chute des coûts. A l'inverse, il ne faut pas que le prix descende en-dessous d'un certain seuil, qui dissuaderait d'y placer de l'argent.

L'énergie renouvelable la plus compétitive est l'hydroélectricité, avec un coût de 30 à 40 euros par MWh ; la majorité des installations sont rentables aux conditions du marché classique. Le tarif d'achat de l'éolien terrestre avoisine le prix de marché, de l'ordre de 60 à 70 euros, avec un coût de production d'environ 60 euros, qui double si l'on y inclut tous les coûts jusqu'à la distribution. L'Allemagne a un prix de marché de 70 euros : nous en sommes proches.

La géothermie a un tarif d'achat de 130 euros par MWh, outre-mer. L'éolien en mer et la biomasse se situent entre deux et trois fois le prix du marché, de 150 à 180 euros par MWh et le solaire, de cinq à dix fois le prix du marché, de 200 à 400 euros par MWh.

Le coût des filières d'énergies renouvelables électriques se répercute sur la facture du consommateur, via la contribution au service public de l'électricité (CSPE), indiquée à la dernière ligne de celle-ci. La charge de la cogénération reste à peu près stable, aux alentours de 800 millions d'euros, en revanche, la part des énergies renouvelables, qui était faible en 2008, à 14 millions d'euros, a fortement évolué depuis le Grenelle, atteignant plus d'un milliard et demi d'euros cette année.

Le double objectif de l'Etat est de réduire les coûts des énergies renouvelables et de développer les filières industrielles. La croissance du marché local repose sur les appels d'offres, encadrant certains critères, sur les obligations d'achat et sur l'utilisation de différents outils. Les investissements d'avenir soutiennent la recherche-développement ; sur 35 milliards d'euros autour du Grenelle, de 6 à 8 milliards sont à l'oeuvre pour les énergies renouvelables, certains projets étant à cheval sur le numérique, mais il s'agit de sommes considérables.

Nous accompagnons la structuration de la filière. Vous avez, monsieur le Président, cité mon rapport sur les énergies décarbonées. Le ministère chargé du développement durable a recruté une dream team de dix spécialistes de chaque secteur qui ont accompagné chacune des filières, en repérant avec les industriels les enjeux, tant en matière de réglementation qu'en des domaines plus prosaïques. Par exemple, le développement de la géothermie suppose des professionnels du forage. Le bilan qui est sorti il y a deux ou trois mois a vocation à se reproduire annuellement. C'est la démarche « filières vertes » que nous avons lancée.

La recherche-développement est également soutenue par le fonds démonstrateur européen, créé sous présidence française, dans le cadre du paquet énergie-climat, NER300, doté de 300 millions de quotas d'émissions de CO 2 correspondant à une aide de 6 milliards d'euros. Nous faisons remonter au niveau européen certains projets que nous soutenons au titre des investissements d'avenir par ce biais.

M. Bruno Sido, sénateur, rapporteur . - La technologie photovoltaïque, contrairement aux autres modes de production d'électricité, n'a pas recours à un générateur : cette particularité permet d'imaginer des moyens de production particulièrement légers et originaux, tels que les tuiles ou les vitres photovoltaïques, voire les vêtements photovoltaïques... M. Jean-Pierre Joly, vous présidez l'Institut national de l'énergie solaire (INES) installé en Savoie. Dans un domaine où les solutions techniques sont encore en plein développement, quelle est la maturité des solutions technologiques permettant une gestion intégrée de l'énergie solaire ?

M. Jean-Pierre Joly, directeur général de l'INES . - La forte réduction des coûts que vient d'évoquer M. Chevet est une tendance lourde du photovoltaïque. La pente de la courbe illustrant cette chute est plus marquée que celle de l'éolien. L'ajustement des politiques d'incitation peut être difficile, mais il en résulte que cette énergie, certes encore chère, a une forte capacité de réduction des coûts. La courbe des coûts des écrans plats a suivi la même pente, ce qui n'est pas un hasard, car les technologies sont, au fond, assez proches. On peut encore aller plus loin, car on est encore loin du coût matière, la couche photovoltaïque étant très fine : la baisse des coûts va continuer. Le prix du kWh va descendre à dix centimes d'euros en 2020. Dans dix ans, il sera proche de celui de l'éolien aujourd'hui. Ce marché, poussé jusque là par les incitations, va rapidement, au niveau mondial, devenir autosupporté, en tout cas dans certaines régions. La forte hausse du solaire thermodynamique ouvre des opportunités pour la France à l'export. Là où le taux d'ensoleillement direct est important, il y a beaucoup à faire pour l'industrie française.

A long terme, en 2050, la part du solaire sera de 20 % à 30 %. Dès 2020, le solaire consommera 30 % de la production mondiale de verre, et une part significative des industries du plastique, ou du cuivre, par exemple.

Le silicium cristallin est une filière historique, les couches minces sont plus récentes. Le premier est encore majoritaire, mais ce n'est pas une technologie figée, puisqu'elle permettra beaucoup d'innovation dans les filières dites à haut rendement, sur lesquelles nous mettons l'accent à l'INES. Les opportunités de marché permettront de vendre le kWh plus cher, selon un modèle à haute valeur ajoutée.

Le photovoltaïque au silicium est une industrie où l'investissement et les matières premières reviennent plus cher que la main-d'oeuvre. Les charges de main-d'oeuvre pour les étapes de fabrication - cellules, modules, systèmes annexes - sont faibles : ce n'est pas le nerf de la compétition internationale. Sans négliger le coût caché de la main-d'oeuvre nécessaire pour fournir matériaux et équipements, nous devons progresser sur l'installation, qui présente la plus grande partie du coût de main-d'oeuvre : il faudra faire des progrès de ce côté. Pour la construction des équipements, on a besoin d'une main-d'oeuvre de très haute valeur ajoutée : les Allemands ont choisi ce créneau pour ses importantes opportunités.

La concurrence internationale est rude, en particulier celle des pays d'Asie, au premier rang desquels la Chine et Taïwan. L'Europe cherche à se maintenir, mais elle rencontre des difficultés. La compétition porte sur les coûts de financement plutôt que de main-d'oeuvre : l'industrie chinoise a profité de 30 milliards de dollars de prêts à bon marché.

Toutes les filières cherchent à se doter de procédés et d'équipements de plus en plus productifs (fours de cristallisation de 800 kg au lieu de 400) et d'usines plus automatisées - l'usine Bosch de montage de modules à Vénissieux est impressionnante.

La tendance est donc à la baisse des coûts : en 2020, le coût final de l'électricité produite sera d'environ 1,5 euro par watt. Dans le sud de l'Europe, le coût de génération descendra alors à 10 centimes par kWh. Le rendement des différents types de modules va continuer à progresser, et le stockage passera sous les 15 centimes par kWh, ce qui réglera le problème de l'intermittence. On reproche encore à l'énergie solaire un temps de retour énergétique relativement long, puisqu'il faut de l'énergie pour fabriquer les équipements ; mais de deux à trois ans en France, il devrait passer à moins d'un an.

L'Allemagne et l'Espagne sont confrontées à la question de l'intermittence. Quant la part du solaire augmente, cela peut déséquilibrer le réseau. Mais on le constate en observant le profil de consommation journalier, le photovoltaïque a vocation à effacer le pic journalier. On pourra donc produire 25 GW à l'horizon 2020 sans attaquer la base, et sans concurrencer le nucléaire. Pour aller au-delà, il faudra développer les réseaux intelligents et décaler les charges - véhicules électriques, réfrigération... - ou encore augmenter les capacités de stockage.

Le photovoltaïque est appelé à être une industrie importante, donc la France ne saurait s'exclure. Photowatt, seul fabricant français de cellules, est en crise. Mais nous avons beaucoup de PME qui produisent des matériaux, des équipements, des cellules, avec une capacité de  800 MW crête, et de grands groupes comme Saint-Gobain ou Soitec, lequel procède plutôt par rachats et implantations à l'étranger. Le coût de la main-d'oeuvre comptant peu, comme pour l'éolien, il est possible de développer cette industrie en France. Puisque les modules sont lourds, les charges de transport et de logistique importantes, il est utile d'implanter les usines de montage au plus près du marché, en France si la demande existe. On aperçoit des signes encourageants : un investissement important de Soitec, la vente d'une usine clé en mains au Kazakhstan, l'ouverture de l'usine Bosch de Vénissieux.

Bref, le coût du solaire ne sera bientôt plus un obstacle, si les efforts de recherche-développement et d'industrialisation se poursuivent. Ne mettons pas tous nos oeufs dans le même panier, mais continuons à développer toutes les filières : silicium, couches minces, photovoltaïque concentré, thermodynamique. Quelle part reviendra finalement au solaire dans le mix ? C'est à voir, mais au moins la part correspondant à l'effacement du pic journalier : 4,4 GW, c'est peu. Enfin, le déplacement de la production en Asie n'est pas inéluctable.

M. Bruno Sido, sénateur, rapporteur . - M. Lincot, vous dirigez l'Institut de recherche et développement sur l'énergie photovoltaïque (IRDEP), connu pour ses recherches sur les couches minces. Alors que le grand spécialiste industriel français du silicium, Photowatt, est entré en redressement judiciaire, les couches minces et autres technologies offrent-elles une raison d'espérer ? Il s'agit d'une question de rendement et de prix, mais aussi de disponibilité des matières premières telles que l'indium ou le tellurure de cadmium.

M. Daniel Lincot, Institut de recherche et développement sur l'énergie photovoltaïque . - Parmi les technologies photovoltaïques, il faut distinguer d'une part celle, majoritaire, qui est fondée sur le silicium cristallin - plaquettes découpées qui proviennent à l'origine de l'industrie électronique, le rendement des cellules atteignant 25 % et celui des modules entre 13 et 20 % -, d'autre part trois techniques fondées sur les couches minces, donc sur le revêtement au lieu de la découpe : cellules au silicium amorphe, utilisées d'abord pour les calculatrices, et qui connaissent un développement important ; cellules au tellurure de cadmium depuis 2005 ; cellules composées d'un alliage de cuivre, d'indium et de selenium sur lesquelles on travaille actuellement.

La filière connaît une croissance exponentielle, avec un chiffre d'affaires de 100 milliards d'euros en 2010. Les capacités installées sont inférieures à celles du gaz, mais supérieures à celles de l'éolien. En 2020, le photovoltaïque pourrait produire 12 % de l'électricité dans l'Union européenne : c'est dire l'importance de ce secteur.

Les coûts de production baissent : un module revient à 1,2 euro par watt, contre 4,2 en 2000. Il y a eu un léger rebond lorsque la filière s'est affranchie du secteur électronique : le silicium est désormais produit par des usines spécialisées. On produit aujourd'hui 200 000 tonnes de silicium pour le photovoltaïque, 30 000 seulement provenant de l'électronique. Si l'on prend en compte l'ensemble des coûts, on constate là encore une diminution : selon l'Agence internationale de l'énergie (IEA), de 2 à 3 euros par watt en 2009, on devrait passer à 1,5 ou 2 euros en 2020.

Il y a dix fois plus d'installations en Allemagne qu'en France : 7,4 GW contre 700. Cela peut s'expliquer, en partie, par un différentiel de coût des petits comme des grands systèmes : entre 2,6 et 3,2 euros par watt outre-Rhin, entre 4 et 5 euros ici.

Quand le photovoltaïque deviendra-t-il compétitif par rapport aux autres sources d'électricité ? La décennie à venir sera décisive. Après le Moon Shot du président Kennedy en 1962, les Etats-Unis ont lancé le Sun Shot en 2011 : il s'agit de réduire le coût du photovoltaïque jusqu'à 1 dollar par watt en 2020, en jouant sur tous les tableaux. Voilà un objectif très ambitieux, mais l'Europe aussi veut réduire le coût à 1,2 ou 1,5 euro par watt en 2020. Si les Américains réussissent, le coût du kWh ne sera plus que de 4 à 8 cents , ce qui rendra le solaire compétitif par rapport aux énergies fossiles, y compris le charbon. Ils espèrent ainsi pouvoir construire des usines en Chine. En Europe, le projet de l'EPIA ( European Photovoltaic Industry Association ) est de ramener le coût du kWh entre 8 et 18 centimes d'euros : nous serons donc bientôt à la parité réseau.

Le photovoltaïque emploie 133 000 personnes en Allemagne contre 24 000 en France ; on a dénombré 200 000 installations en France en 2010.

Grâce à la technique du revêtement sur métal ou sur verre, les couches minces permettent de s'affranchir de certaines étapes de la production, qui coûtent cher. On fabrique aujourd'hui des plaquettes de 6 mètres carrés, issues de la technologie des écrans ! Grâce à la technologie CdTe, développée par EDF Energies Nouvelles, on construit à toute vitesse des plaques d'un demi-mètre carré. Les prix diminuent : pour un même volume de production, par exemple 3 MW, le delta est de 2 environ entre couches minces et silicium. Mais si les progrès technologiques favorisent les couches minces, les effets d'échelle et la courbe d'expérience servent la compétitivité du silicium. La technologie du tellurure de cadmium est en plein essor : les coûts de production n'étaient plus que de 0,6 dollar par watt en 2010.

Toutes les filières de couches minces progressent, et il y aura à l'avenir un mix. Leur développement est lié en particulier à la construction de bâtiments à énergie positive. La stratégie consiste à abaisser les coûts jusqu'à 0,15 euro par watt dans toutes les filières. Les couches minces peuvent même être installées sur des supports flexibles : on fait aujourd'hui de la « moquette solaire ». Les couches minces à l'indium, dont le rendement atteint 20 %, peuvent être posées sur du plastique, ce qui laisse espérer des rendements encore plus importants ; parmi les entreprises françaises spécialisées, il y a Nexcis et Avancis, mais aussi des PME. Considéré comme émergent, le photovoltaïque offre des marchés de niche jusqu'à ce qu'il contribue à l'équation énergétique.

La filière connaît donc un développement industriel accéléré et irréversible. Les coûts de production reculent, grâce aux effets d'échelle et aux innovations technologiques. Ce développement sera autosupporté d'ici 2020. L'électricité ainsi produite pourrait à cette date représenter entre 3 et 13 % du mix : l'incertitude est grande. La marge d'innovation est importante, la concurrence internationale intense : les entreprises européennes ne sont pas seules à souffrir. L'on doit anticiper. Le stockage, la connexion aux réseaux, les carburants solaires : autant de problématiques d'avenir. A La Réunion, on va vers l'autonomie énergétique grâce aux batteries sodium-soufre. Il faut créer rapidement une filière française multi-technologies, performante et intégrée, destinée au marché intérieur et à l'exportation.

Un mot enfin sur le programme de 2009 du NEDO japonais ( New Energy and Industrial Technology Development Organization ). Les Japonais commencent à produire de l'électricité photovoltaïque connectée au réseau avec un plus grand degré d'autonomie ; ils ajoutent à cela des batteries. Vu le dynamisme du secteur, des scénarios accélérés ont été élaborés.

M. Bruno Sido, sénateur, rapporteur . - Merci de cet intéressant exposé. M. Robert Gleitz, vous êtes vice-président d'Alstom Power, acteur majeur du secteur éolien, qui fabrique des turbines pour les éoliennes aussi bien sur terre qu'en mer. Quelles sont les technologies de turbines les plus prometteuses ? Certaines sociétés parient sur des éoliennes de 10 MW dont les générateurs utiliseraient des supraconducteurs : jusqu'où ira la course au gigantisme ?

M. Robert Gleitz, vice-président d'Alstom Power . - L'éolien progresse sur le plan technologique et économique. Si l'on replace cette tendance dans l'histoire de la production électrique, on observe qu'après le développement du nucléaire en France dans les années 1970, le gas boom aux Etats-Unis vers l'an 2000 et plus récemment celui du charbon en Chine, d'autres technologies - éolien, photovoltaïque, biomasse - sont en expansion, sans qu'une seule s'impose comme la recette miracle du point de vue de l'efficacité productive et du respect de l'environnement. Chez Alstom, nous sommes convaincus que seule une combinaison de ces énergies peut répondre aux défis de l'avenir. Dans les prochains temps, les commandes représenteront chaque année 250 GW dans le monde, soit deux fois la puissance installée de la France ; la moitié proviendra de sources d'énergies non émettrices de CO 2 , mais la base installée de 5 200 GW génère 40 % des émissions mondiales, et il faudra du temps pour la renouveler.

Dans le secteur éolien, les turbines ont beaucoup évolué. La taille des machines a été multipliée par plus de 100, et leur production est passée de 30 kW à 3 MW - et je ne parle pas des rotors. Tout cela a demandé du « sang et des larmes », mais le secteur est arrivé à maturité. Les plus grandes machines atteignent 100 mètres, et fonctionnent à 13 ou 14 tours-minute. Notre dernière éolienne marine produit 6 MW avec un rotor de 150 mètres.

Chaque éolienne est une petite centrale, qui requiert des compétences en mécanique, en électricité, en électronique. Dans cette industrie, les employés sont plutôt jeunes, ce qui contribue à son dynamisme. Il serait facile de la développer davantage en France.

Pendant des années, les boîtes de vitesse devaient provoquer la faillite de l'éolien, mais le socle technologique du secteur est aujourd'hui solide. Les coûts ne diminuent pas aussi vite que dans le photovoltaïque, mais ils baissent tout de même de 7 % à chaque doublement de la base installée. De 1984 à 2011, le prix des machines a reculé de moitié. Le facteur d'utilisation - c'est-à-dire la relation entre l'énergie générée par une machine et celle qu'elle produirait si elle était utilisée à 100 % pendant toute l'année - a progressé de 13 points en 27 ans. Les coûts de maintenance ont été divisés par 5 et celui de cette énergie l'a été par 4 en 30 ans.

A l'avenir, on espère l'augmentation du productible, grâce à l'agrandissement des rotors et à la hausse de leur capacity factor . Notre machine de 3 MW était à l'origine dotée d'un rotor de 100 mètres et conçue pour la classe 2, c'est-à-dire pour des vents soufflant en moyenne à 8,5 mètres/seconde. Mais nous nous sommes rapidement aperçus que, sans agrandir les machines, nous pouvions changer de classe, ce qui a naturellement augmenté leur capacity factor. Plusieurs rotors ont été installés sur une même machine, avec des résultats spectaculaires. Grâce à ces progrès technologiques, pour une même surface au sol, on peut installer moins de turbines et produire plus d'électricité. L'heure n'est plus à la multiplication de toutes petites machines.

Nous nous adaptons aussi à l' offshore , en suivant trois principes : robustesse des machines, simplicité et efficacité. Les technologies existantes ont été développées : pour un rotor de 150 mètres, la pale atteint 73,5 mètres. Nous travaillons à rendre les machines plus aérodynamiques, donc plus efficaces et moins bruyantes, et nous voulons les structures les plus légères et les plus rentables possibles. Tirant profit de notre expérience dans l'éolien terrestre, nous avons cherché à ce que la ligne d'arbre ne transmette pas de mauvais efforts, et nous avons installé un alternateur qui tourne à la même vitesse que le rotor. Le prototype est en train de devenir réalité, la plupart des composants ayant été fabriqués en France. Pour développer l'industrie française de l'éolien et créer des emplois, encore une fois, il suffit d'appuyer sur le bouton ! Il faut mener à bien le programme des 6 GW. Cette technologie off shore devrait être rapidement validée. Je suggère au législateur de tenir compte du besoin de disposer de petites centrales pour tester les machines, avant un développement plus important.

L'intégration dans le mix ne pose pas problème : les machines sont aujourd'hui conformes aux codes réseaux les plus stricts et peuvent rester connectées, même en cas de perturbation. D'ailleurs, une éolienne reste une petite machine, et en cas de problème l'impact sur le réseau est moins important que, par exemple, lors du déclenchement d'une centrale au charbon.

L'intégration à l'environnement s'est améliorée. Les éoliennes sont moins bruyantes qu'avant, grâce à leur meilleur aérodynamisme, au gouvernement par machine ou par ferme, et à l'adaptation de la vitesse des rotors. A 500 mètres, le bruit est de 35 dBA, pas davantage qu'une conversation chuchotée, et il est couvert par le bruit du vent.

L'éolienne du futur produira 10 à 15 MW et son rotor dépassera 170 mètres. La taille constitue un vrai défi technologique : contrairement aux turbines à gaz, il n'y a pas de problème lié aux hautes températures ou aux hautes vitesses, mais il faut travailler sur les structures (pale, ligne d'arbre, tour, fondations) et sur l'électronique (contrôle des machines, anticipation des variations du vent, électronique de puissance pour l'intégration au réseau, prévision de la production). Il faut se souvenir que l'investissement initial représente 80 % du coût de l'électricité éolienne : chaque baisse des coûts se répercutera dans le prix de l'énergie produite.

Quand l'on compare les coûts de production des différentes sources d'électricité, on constate que l'éolien terrestre est compétitif, même s'il y faut des ressources naturelles : il n'est pas question d'implanter des éoliennes partout. Sur l'éolien marin, il y a encore des progrès à faire : M. Chevet espérait un prix de 150 à 180 euros par mégawatheure, j'espère qu'il aura de bonnes surprises en janvier.

Alstom produit aussi de l'électricité solaire thermique : nous avons investi dans les tours solaires, où des miroirs reflètent des rayons dans une chaudière, transformant l'eau en vapeur, celle-ci actionnant une turbine qui produit de l'électricité. Mais en France les conditions ne sont pas favorables. Quant au solaire photovoltaïque, ses coûts de production sont en baisse constante.

Il faut d'ailleurs tenir compte des variations de coûts : si le cours du combustible d'une centrale classique peut évoluer, dans le domaine des énergies renouvelables les variations sont maîtrisables et connues pour toute la durée de vie d'une centrale. L'éolien est techniquement et économiquement crédible, au sein d'un mix respectueux de l'environnement.

M. Bruno Sido, sénateur, rapporteur . - Je vous remercie. La géothermie profonde, contrairement aux énergies renouvelables que nous venons de considérer, ne dépend pas des conditions atmosphériques. M. Romain Vernier, qui dirige le département Géothermie du Bureau de recherches géologiques et minières (BRGM), pourra nous en présenter les avantages et les inconvénients, notamment pour la production d'électricité : je pense à certaines zones non connectées au réseau d'électricité du continent, comme la Guadeloupe qui est dotée d'une unité de géothermie profonde à Bouillante. Un projet est également conduit à Soultz-sous-Forêts en Alsace, dans des granites fracturés : M. Guillaume Duval, directeur de l'innovation à Électricité de Strasbourg, vient nous en présenter le fonctionnement et, je l'espère, les résultats.

M. Romain Vernier (BRGM) . - Le BRGM, établissement public de référence dans les sciences de la terre, est en pointe depuis le début des années 1980 dans le développement de la géothermie, technique qui consiste à exploiter la chaleur du sous-sol pour produire de la chaleur, du froid ou de l'électricité. A faible profondeur, la température n'est pas très élevée, et l'on se limite à la production de chaleur grâce à des pompes : c'est un des moyens de diminuer la consommation d'énergies polluantes, car, en France, une bonne partie de l'électricité sert au chauffage des bâtiments. Il y a également une géothermie profonde, dont on a l'expérience en Ile-de-France : l'eau du Dogger, à 1 700 mètres de profondeur, est à 80°C et permet de produire de la chaleur, mais pas de l'électricité. Pour cela, il faut atteindre des aquifères plus profonds, ou les toits de socle, plus fracturés. La température étant comprise entre 120 et 160°C, l'on combine production d'électricité et exploitation de la chaleur résiduelle à très faible coût pour que l'entreprise soit rentable. Dans les zones volcaniques, la source de chaleur est plus proche de la surface : on atteint rapidement 200 °C. Enfin, il existe une technologie EGS (Enhanced Geothermal System) à très grande profondeur, où l'eau est à 200 °C mais rare : l'on doit donc en augmenter la quantité pour obtenir une puissance suffisante.

Les atouts de la géothermie en tant que source d'électricité sont nombreux : c'est une énergie renouvelable, et de base puisque le taux de disponibilité est de 85 %, avec 8 000 heures d'exploitation par an. Par conséquent, les besoins de stockage sont faibles. Le potentiel de production est important, l'occupation foncière faible, l'impact environnemental limité. C'est une énergie locale, ce qui peut être un inconvénient, mais aussi une source de compétitivité territoriale, puisque les entreprises qui s'implantent autour des centrales bénéficient d'électricité à bas prix, comme on le voit très bien en Islande. Les coûts de fonctionnement sont réduits. En revanche, l'investissement initial est lourd, et les risques géologiques nécessitent une couverture du risque. Enfin les délais de réalisation des projets sont longs.

Si l'on observe les capacités installées jusqu'ici dans le monde, on constate que la France est distancée, mais c'est parce que jusqu'ici on a surtout construit des centrales sur des terrains volcaniques : elles sont concentrées sur la fameuse ceinture de feu du Pacifique, en Amérique - des Rocheuses jusqu'à la Cordillère des Andes - et en Asie du sud-est. En Europe, c'est en Islande et en Italie que les capacités sont les plus importantes.

Toutes ces capacités installées représentent 10 GW ; les coûts évoluent selon les technologies, de 50 à plus de 300 dollars le MWh. Mais il n'y a pas de stockage à prévoir. L'investissement est de 3 millions d'euros par mégawatt, soit 3 euros le watt. Les unités sont plutôt de dix MW ou de plusieurs dizaines de MW.

Incitatif, le tarif français a été réévalué à 130 euros le MWh dans les DOM, 200 en métropole. Les installations avaient été conçues pour une durée de vie de 15 à 20 ans, elles sont en marche depuis plus de 30 ans. Leur coût de fonctionnement étant limité, elles fournissent une énergie bon marché. Le développement s'accélère, mais moins que celui d'autres énergies renouvelables, en raison des exigences capitalistiques. Il convient de multiplier les démonstrateurs et les retours d'expérience à l'échelle mondiale. La géothermie haute température est la plus courante, mais multiplier les expériences dans les autres catégories, dans des environnements géologiques variés, nous permettra d'obtenir un large portefeuille de stratégies possibles, et réduira la part de risque. La dynamique est enclenchée et dans le cadre des investissements d'avenir, les démonstrateurs y compris à une taille industrielle, ont fait l'objet d'une manifestation d'intérêt, car il reste à lever des verrous scientifiques - forage, accès à la ressource, augmentation du rendement des centrales, gestion durable de la ressource, baisse des coûts de rendement, etc.

Il n'y a pas de limite au potentiel naturel : plus on fore profond, plus on trouve d'énergie. Mais l'accès à la ressource doit faire l'objet d'une optimisation technico-économique. La France a connu une expérience de géothermie haute température : la centrale de Bouillante, d'une capacité de 15 MW, satisfait 6% de la demande totale de la Guadeloupe. La géothermie vient là en substitution de l'énergie fossile - les groupes diesel - le coût de revient est élevé, entre 270 et 200 euros le MWh et il y a l'impact sur l'environnement et le réchauffement climatique. Le potentiel de géothermie haute température est limité à la Guadeloupe, la Martinique, La Réunion, ainsi qu'à la Dominique voisine, de laquelle nous pourrions importer via des câbles sous-marins. Mais la filière française peut proposer des applications dans toutes les régions volcaniques.

M. Guillaume Duval, président d'ES-Géothermie . - ES-Géothermie est une filiale d'Electricité de Strasbourg, elle-même filiale d'EDF. Il existe une anomalie thermique en Alsace : le gradient naturel est généralement de 3 degrés pour 100 mètres, mais dans le bassin d'effondrement autour de la plaine du Rhin, on s'est aperçu, à l'occasion de forages pétroliers au milieu du siècle dernier, que le gradient atteignait 10 degrés à l'hectomètre, sur les premiers hectomètres. Sur le site de Soultz-sous-Forêts, à quelques kilomètres de la frontière, au nord de l'Allemagne, cinq puits ont été forés ; il s'agissait à l'origine d'un projet de démonstrateur, non de centrale industrielle. C'était un laboratoire, un site de tests à l'échelle européenne. Ensuite, à partir de 2001, de nombreux industriels, notamment EDF et Electricité de Strasbourg, se sont engagés afin de voir quel est le potentiel de cette énergie. A 200 degrés, il est possible de produire de l'électricité, via la circulation de l'eau dans les failles, qui constituent des circuits de convexion. Cette géothermie est non conventionnelle, en ce sens que l'on exploite les failles existantes, nettoyées pour rendre la circulation plus efficace. En 2008 a ainsi été ouverte la première centrale géothermique, avec un cycle de Rankine , qui produit aujourd'hui 1,5 MW. Le tarif de rachat de 20 centimes par kW existe depuis le 23 juillet 2010. La centrale est raccordée au réseau depuis le 1 er janvier 2011 mais à l'heure actuelle, la chaleur résiduelle n'est pas utilisée.

Lieu de recherche, de test des différentes technologies, Soultz offre une vitrine internationale. Nombre d'articles ont été publiés dans les revues scientifiques. On expérimente par exemple l'EGS, système géothermal amélioré : dans les failles, les sédiments se collent aux parois et les obstruent, mais une stimulation hydraulique ou chimique améliore la circulation de l'eau chaude. Il n'y a plus besoin de forer à 5 000 mètres, les économies sont substantielles. Les moyens de pompage ont été améliorés : ils sont aujourd'hui les mêmes que ceux utilisés par l'industrie pétrolière. On sait aussi désormais que le potentiel par centrale, en métropole, est limité : dans les dix à vingt ans, ce sont des puissances de 3 MW électriques nets qui seraient raccordées au réseau. L'avantage est que l'on a un productible tout au long de l'année, sans besoin de stockage. Des projets sont envisagés pour fiabiliser les techniques de forage et exploiter industriellement la chaleur résiduelle.

Quel est le potentiel de la géothermie ? En métropole, l'Alsace est la zone principale et EDF s'y est engagée avec Electricité de Strasbourg afin d'exploiter la chaleur géothermique. Le potentiel de production est limité, un puits de forage et un puits d'injection (les deux sont nécessaires pour chaque centrale) produisent 30 MW thermiques, soit 3 MW électriques nets. D'ici 2025 en Alsace, on pourrait construire une vingtaine de centrales, un peu plus à horizon 2050. Les autres régions françaises envisageables sont la Limagne, dans le Massif central, ainsi que le Bassin rhodanien. Dans les DOM, on a mentionné Bouillante. La Dominique possède un sous-sol volcanique avec une eau beaucoup plus chaude à une profondeur bien moindre.

En métropole, la géothermie est surtout adaptée pour la production de chaleur, comme cela se fait en Ile-de-France depuis longtemps. Dans certaines limites, la production d'électricité est possible, de même que certains procédés industriels, tels que le séchage des algues. Mais le potentiel réside surtout dans les réseaux de chaleur, la valorisation de la chaleur résiduelle, la cogénération. Le savoir-faire développé par les groupes français est exportable, là où les conditions géothermiques s'y prêtent : Hongrie, Turquie, Kenya, Indonésie. Les autorités locales sont demandeuses.

M. Bruno Sido, sénateur, rapporteur . - M. Gilles Koléda, vous avez conduit en 2009 avec M. Michel Didier, président de COE-Rexecode, une évaluation socio-économique du programme de production d'électricité éolienne et photovoltaïque. A quelles conditions le développement de ces énergies renouvelables est-il soutenable, selon vous ? L'environnement a bien sûr évolué depuis 2009 : je pense en particulier aux évolutions heurtées du régime réglementaire de l'électricité photovoltaïque...

M. Gilles Koléda, COE-Rexécode . - L'étude date de 2009 : elle me paraît déjà obsolète ! Il faut tenir compte des tarifs d'achat d'alors et des technologies existantes. En 2010, la consommation d'électricité en France a atteint 507 térawatts (TW) contre 495 en 2008, et 535 estimés en 2020. Le mix actuel est composé à 75 % par l'énergie nucléaire, un peu plus de 10 % par les barrages hydroélectriques, un peu plus de 10 % par les centrales thermiques, charbon, fuel ou gaz. L'éolien se situe à 2 % ; le photovoltaïque, lui, demeure encore dans l'épaisseur du trait.

Les centrales thermiques ont des coûts modérés et sont utilisées avec souplesse en fonction de la demande ; mais elles émettent du CO 2 . Les centrales nucléaires, si elles fournissent une électricité bon marché, doivent fonctionner en continu. Quant à l'éolien et au photovoltaïque, qui n'émettent pas de CO 2 , ils comportent des aléas de production et ont encore un prix de revient élevé.

Le comité opérationnel n°10 du Grenelle a fixé un objectif de 59 TWh à l'éolien terrestre en 2020 et de 5,3 TWh au photovoltaïque. Mais compte tenu de la consommation prévue à cette date, plus importante que ce qui avait été antérieurement envisagé, il faudra mordre sur le mix actuel.

Pour atteindre les objectifs fixés par le Grenelle, nous estimions qu'il faudrait 36 milliards d'euros d'investissement dans l'éolien maritime et terrestre, 19 milliards dans le photovoltaïque. Mais les hypothèses sur la répartition se sont révélées fausses, puisque l'éolien maritime a pris beaucoup de retard. Pour le reste, nous recommandions de développer en premier les fermes photovoltaïques, afin d'aboutir à un coût final plus faible pour la société. Pour analyser le rapport coût-bénéfice, nous avions retenu un scénario de référence sur l'évolution du prix de l'électricité. Nous prévoyions un prix élevé du baril de pétrole, 150 euros en 2020...

M. Bruno Sido, sénateur, rapporteur . - On nous a dit ce matin que le prix ne dépasserait pas 150 euros.

M. Gilles Koléda . - ... soit un prix de l'électricité qui tendrait vers 85 euros le MWh. Nous avions un scénario bas, avec un prix du MWh à 55 euros ; et un scénario catastrophe, avec un prix de 125 euros, pour un baril à 250 euros. Le coût de production fait obstacle au développement des énergies. Pour le photovoltaïque, nous avions prévu une décroissance des coûts de production, mais dans tous les cas ils demeuraient supérieurs aux prix de marché. Le développement repose donc sur l'obligation d'achat, à un prix qui compense les coûts de développement et de production. Le surcoût net lié au développement de l'éolien ou du photovoltaïque correspond à la différence entre coût moyen de développement et prix de gros. En fonction de l'évolution du prix de l'électricité, qui lui-même dépend du prix du pétrole, le surcoût net augmente ou s'affaiblit.

Le bénéfice des énergies renouvelables, ne l'oublions pas, n'est pas seulement économique mais aussi social : les économies d'émission de CO 2 représenteront tout de même 5 millions de tonnes en 2020, soit 15% des émissions actuelles du secteur de l'électricité. Nous pondérions ces économies d'émission par la valeur tutélaire du carbone - la tonne de CO 2 coûte aujourd'hui 30 euros, mais montera à 100 euros dans l'avenir.

Pour un baril de pétrole à 150 euros en 2020, l'éolien terrestre était rentable et dégageait un avantage environnemental de 2,8 milliards d'euros sur la période 2007-2040. L'éolien maritime était rentable avec un baril au-dessus de 200 euros. Pour le photovoltaïque, quelle que soit l'hypothèse, et même avec un baril à 250 euros, il restait un surcoût important, non compensé par l'économie d'émission de CO 2 .

Le développement des capacités de production impose donc un surcoût pour les consommateurs, qui se traduit par une hausse de la CSPE. Plus le prix du pétrole est élevé, moins le surcoût des énergies l'est. On peut donc concevoir l'essor des énergies renouvelables comme une prime d'assurance contre un choc pétrolier. L'impact sur l'emploi dépendra de la capacité à créer des filières industrielles sur le sol national, pour capter une partie du surcoût.

Voilà ce que nous disions en 2009. Depuis lors, le développement s'est poursuivi à un rythme proche de celui fixé par le Grenelle, en ce qui concerne l'éolien, malgré les péripéties réglementaires. En revanche, le photovoltaïque prend un essor tel que l'on se trouve très en avance sur l'objectif. La ruée sur les installations fin 2009 et début 2010 a coûté cher en raison de l'obligation d'achat au prix de gros : 100 millions d'euros en 2007 mais 1,2 milliard à présent ! La CSPE, qui a augmenté de 3 euros en janvier 2010, ne compense pas le poids des achats par EDF. La CSPE devra être à nouveau augmentée. Les obligations d'achat ont permis le développement de ces nouveaux créneaux, mais à présent il convient d'adapter rapidement les tarifs d'achat, pour éviter d'autres dérapages dans l'avenir. Le surcoût est finalement absorbé par une ponction sur le pouvoir d'achat des ménages : n'est-il pas dangereux de l'accroître, dans la conjoncture actuelle ?

M. Bruno Sido, sénateur, rapporteur . - Je vous remercie. Je voudrais interroger M. Guillaume Duval sur la fracturation des roches, dans la géothermie profonde. Quelle différence avec la fracturation dans l'exploitation du gaz et de l'huile de schiste ?

M. Guillaume Duval . - L'expérience de Soultz nous a appris beaucoup. Nous avions envisagé d'employer la technique du hot dry rock , qui revient à créer un réservoir artificiel, réchauffé par la température de la roche. Mais il n'y en a pas besoin, en raison de la présence de failles naturelles, qu'il suffit de nettoyer par injection d'eau : la pression est bien moindre que pour le schiste, cependant, et n'entraîne pas de problèmes.

Nous avons enregistré un incident sismique en 2003, de 2,9 sur l'échelle de Richter. Nous en avons tiré les enseignements, éliminant toute projection à plus de 90 bars contre 150 bars auparavant. Nous n'avons plus connu d'événement sismique supérieur à 1 sur l'échelle de Richter, niveau qui n'est pas perceptible pour la population locale, très sensibilisée, vous l'imaginez, sur ces questions.

M. Bruno Sido, sénateur, rapporteur . - Aviez-vous provoqué celui-là ?

M. Guillaume Duval . - Le site était à l'époque géré par un GIE européen, avec une gérance franco-allemande. Nous avons repris la gérance entière en 2003, puisque nous sommes situés sur le territoire français ; et nous avons à partir de ce moment pris beaucoup mieux en compte l'environnement.

M. Bruno Sido, sénateur, rapporteur . - Les éoliennes flottantes sont-elles une vue de l'esprit ?

M. Robert Gleitz . - Elles ne sont pas encore d'actualité et nous n'en proposons pas pour le prochain appel d'offres : la technique n'est pas au point. Aujourd'hui on installe des éoliennes sur des fonds marins de soixante mètres de profondeur. Les fondations flottantes auraient un sens à plus de cent mètres de fond. Mais elles sont bien sûr un axe de recherche et de développement. La fenêtre temporelle est plutôt d'une dizaine d'années. Il convient d'optimiser les coûts en équilibrant les éoliennes.

M. Bruno Sido, sénateur, rapporteur . - L'Office s'est intéressé également aux stratégies quant aux matériaux utilisés : le néodyme existe-t-il en quantités suffisantes pour satisfaire des besoins en croissance rapide ? Y a-t-il des possibilités de substitution ?

M. Daniel Lincot . - Il y a aussi le tellure ou l'indium gallium... D'autres éléments rares peuvent avoir un rôle critique dans le photovoltaïque, comme le germanium ou l'argent, qu'il est possible d'utiliser en couche mince. En fait, la démarche en matière de métaux rares consiste soit en une substitution, soit en une réduction de la quantité utilisée. On produit dans le monde 300 tonnes d'indium par an. Ce métal est utilisé dans les écrans plats, le photovoltaïque, etc. Aujourd'hui il faut environ 30 tonnes d'indium pour un GW de modules CIS (disélenium de cuivre indium). Or l'indium subit une pression de la demande. Quand on mettra en place des installations de plusieurs dizaines de TWh, que se passera-t-il ?

Une incertitude plane, d'autant que le Bureau géologique américain a cessé de quantifier les ressources d'indium disponibles, la qualité variant trop d'un producteur à l'autre. Il est donc judicieux de chercher à réduire au moins la quantité utilisée, ce qui est possible grâce à l'évolution des technologies. Le programme ultra-six vise précisément à réduire de dix à vingt fois la quantité actuelle, 3 grammes au mètre carré, par le recours au procédé dit de couche mince. On peut aussi utiliser des cellules qui fonctionnent sous concentration : au lieu d'utiliser une pleine plaque, on porte la lumière sur une petite cellule et l'on réalise des économies de cent à mille. Quant à la substitution, elle ouvre des marges d'innovation. Les modules solaires CIS emploient à présent un mélange de cuivre, soufre, zinc et étain, les deux derniers venant en substitution de l'indium. Or cette formule est dans le top 5 ou 10 ! Ainsi se prépare la nouvelle génération des composants, et cela est vrai pour le tellure ou l'argent comme pour l'indium.

M. Jean-Pierre Joly . - Pour l'argent, l'évolution est à plus long terme. La logique de substitution est plus compliquée, mais nous sommes confiants. Pour des raisons économiques, nous cherchons à utiliser moins de matières nobles ou nécessitant une purification coûteuse. C'est une logique vertueuse. Souvent aussi, on a le choix entre plusieurs matériaux, qui tous donnent des résultats corrects.

M. Bruno Sido, sénateur, rapporteur . - Un décret doit définir en 2012 les modalités du marché de capacité, qui imposera des obligations de production ou d'effacement des producteurs à échéance 2015-2016, afin de franchir les pointes de consommation. Ce marché contribuera-t-il à la valorisation des énergies renouvelables ?

M. Nicolas Barber, chef du bureau des énergies renouvelables . - Le marché de capacité se conçoit plutôt comme un complément à « la loi Nome » et à l'accès au prix de base nucléaire. Le groupe de travail sur la gestion de la pointe électrique avait conclu à la nécessité de répartir l'effort d'investissement des moyens de production de pointe et d'investir dans les moyens de production mais aussi d'effacement. Dans les investissements de production et d'effacement, comment intégrer les énergies renouvelables ? Il faut des puissances garanties, négociées avec RTE, responsable de la sécurité d'approvisionnement sur le territoire, afin que chaque fournisseur sache de quelle garantie il dispose et quelles capacités de pointe il doit acquérir sur le marché de capacité.

Mais le marché de capacité ne sera pas un élément de valorisation de l'éolien ou du photovoltaïque, il apportera plutôt un complément pour les moyens de production des énergies renouvelables de base. Le mécanisme n'a rien à voir avec les mesures de soutien telles que les obligations d'achat ou les appels d'offre de la CRE.

M. Robert Gleitz . - Un élément est de nature à favoriser le développement des énergies renouvelables, il s'agit des Step, dont nous avons parlé ce matin et qui, grâce au stockage, améliorent le revenu donc le rendement des installations.

M. Bruno Sido, sénateur, rapporteur . - Pourquoi estimez-vous nécessaires des parcs de petite taille ? Le Grenelle II recommandait qu'ils soient supérieurs à 50 unités.

M. Robert Gleitz . - Les 3 premiers GW mis en concurrence correspondent à des sites de 400 à  500 MW. Il y aura quelques centaines de machines. Je pense utile d'avoir des pré-séries, des petites fermes de 20 ou 30 MW, dans le cadre d'un programme rapide, destiné à s'intégrer dans le tissu industriel français, favoriser ce développement technologique en France, car les éoliennes marines ne sont pas totalement au point. Quelques turbines tournent mais nous sommes loin de l'optimum et, si nous voulons être compétitifs, il serait temps de passer à la nouvelle génération de machines, comme Alstom le propose.

Stéphan Silvestre . - Sur le néodyme, il n'y a pas eu de réponse : l'approvisionnement connaît-il des tensions ?

M. Robert Gleitz . - Les éoliennes ne consomment du néodyme que si elles sont dotées d'alternateur à aimant permanent. Ce dernier a l'avantage de simplifier la machine, de réduire le nombre de ses composants, d'améliorer l'efficacité, mais il n'est pas indispensable...

M. Philippe Saint Raymond, ancien DGA de l'ASN, vice-président du « groupe d'experts réacteurs » . - Je ne comprends pas la logique du propos de M. Duval : si Soultz fonctionne grâce à une anomalie géologique, comment pourrait-on généraliser la production géothermique ?

M. Guillaume Duval . - La généralisation est limitée sur le territoire français. La production d'électricité géothermique exige une eau à 150 ou 160 degrés, à une profondeur acceptable, entre 2 000 et 4 000 mètres. Cette configuration - un réseau fracturé, dans un bassin d'effondrement - se retrouve en trois endroits seulement dans notre pays. Mais cette anomalie géologique ne se rencontre pas uniquement en France !

M. Philippe Saint Raymond . - Soultz est une anomalie même à l'échelle de l'Alsace !

M. Guillaume Duval . - Des projets sont en cours. D'ici dix ans, il y aura 10 à 20 centrales, ce qui reste limité, mais tout de même...

M. Romain Vernier . - Dans le fossé rhénan, en Alsace et en Allemagne, il y a des circulations profondes et des remontées d'eaux chaudes. Cette configuration existe ailleurs dans le monde.

M. Bruno Sido, sénateur, rapporteur . - Mais tant qu'elle ne sert pas à la production d'électricité, elle est hors de notre sujet.

M. Jean Dhers, Académie des technologies . - Sur le néodyme, je voudrais ajouter que le cobalt fonctionne bien également.

Un peu au sud de Soultz, à Bâle, il y a eu une expérience qui s'est mal passée et qui a causé un tremblement de terre de 3,5 sur l'échelle de Richter. On ne peut faire n'importe quoi en Alsace !

M. Guillaume Duval . - Après le séisme de juin 2003 en Alsace, nous avons demandé à certaines personnes de partir, et ce sont elles qui sont allées à Bâle causer ce tremblement de terre. Il y avait un désaccord entre Français, Suisses et Allemands sur les méthodes...

M. Daniel Lincot . - Dans le cas du photovoltaïque, le développement excède de loin les objectifs fixés. On a souvent parlé de bulle. Et si c'était un phénomène de fond ? Peut-être faudrait-il prendre en compte cette hypothèse dans les analyses...

M. Bruno Sido, sénateur, rapporteur . - Je vois là un mouvement de fond !

M. Daniel Lincot . - Les Allemands disposent de capacités de 7 GW par an et investissent pour exporter leur technologie. Il serait temps de recalibrer nos politiques à l'export. Evitons aussi les raisonnements trop compartimentés sur les sources d'énergie. Enfin, je souligne que les nouvelles énergies électriques font concurrence aux anciennes dans divers créneaux, notamment celui des transports : c'est le cas avec la voiture électrique.

M. Bruno Sido, sénateur, rapporteur . - Merci à tous.

RÉUNIONS

Réunion
du mardi 27 septembre 2011

- Point sur la mise en oeuvre des recommandations du premier volet de la mission : audition des responsables en charge à la Direction de la sécurité civile (DSC), la Direction Énergie Climat (DGCE), la Direction générale de la prévention des risques (DGPR), l'Autorité de sûreté nucléaire (ASN), l'Institut de radioprotection et de sûreté nucléaire (IRSN), le Commissariat à l'énergie atomique et aux énergies alternatives (CEA), le Haut comité pour la transparence et l'information sur la sécurité nucléaire (HCTISN), l'Agence nationale de la recherche (ANR).

M. Daniel Raoul , sénateur, vice-président de l'OPECST . - Je suis heureux d'accueillir, au nom du président Claude Birraux, qui a été retardé, les membres du comité d'experts de la mission parlementaire sur la sécurité nucléaire, la place de la filière et son avenir, qui pourront éclairer nos travaux, ainsi que l'ensemble des personnalités présentes.

La première partie de notre mission s'est conclue le 30 juin par la publication d'un rapport d'étape. Nous nous réunissons aujourd'hui pour la dernière fois dans la composition actuelle de l'Office, qui siégera de nouveau vers la mi-octobre. Le rapport final sera discuté le 15 décembre.

Aujourd'hui, le premier point de l'ordre du jour concerne la mise en oeuvre des recommandations formulées dans le rapport d'étape, car nous voulons éviter que les administrations ne soient en panne, faute de connaître nos recommandations, ou en raison de difficultés d'application : nous voulons leur épargner tout embarras !

M. Christian Bataille, député, rapporteur . - Les recommandations peuvent être regroupées en quatre grands thèmes. Viennent d'abord celles concernant la recherche ; ensuite celles ayant trait à la gestion des crises ; puis, celles spécifiques à l'Autorité de sûreté nucléaire (ASN) ; enfin celles concernant la seule tutelle gouvernementale.

Nous allons donc commencer par le renforcement des dispositifs de recherche qui est évoqué par cinq recommandations. La première concerne l'ajout d'une arrière-garde à la défense en profondeur : « L'IRSN et le CEA engagent conjointement un projet de recherche sur les techniques permettant d'effectuer à distance, dans des installations situées dans des zones inaccessibles, d'une part, des mesures radiologiques, et d'autre part, des pilotages d'équipements. »

À propos de la défense en profondeur, je souligne que la nécessité de pouvoir intervenir à distance est particulièrement importante, au vu de ce qui s'est passé à Fukushima. D'autre part, il convient de renforcer la transparence, en permettant aux commissions locales d'information (CLI), de faire appel à une expertise universitaire indépendante, avec un double contrôle par l'Agence nationale de la recherche (ANR) et le Haut comité pour la transparence et l'information sur la sécurité nucléaire (HCTISN).

La dernière recommandation précise que « le HCTISN rend compte, dans son rapport d'activité qui sera évalué chaque année par l'OPECST, des expertises réalisées dans ce cadre ».

Présidence de M. Claude Birraux, président

M. Bernard Bigot, administrateur général du Commissariat à l'énergie atomique et aux énergies alternatives (CEA) . - L'aptitude à intervenir dans les zones inaccessibles des installations détermine la capacité à effectuer des mesures de radioactivité. A cette fin, depuis l'accident de Tchernobyl, les efforts ont porté sur l'électronique durcie et un groupement d'intérêt économique (GIE), qui dispose d'ores et déjà de moyens robotisés, a été créé. Grâce aux progrès techniques très significatifs réalisés ces dernières années, nous voulons développer des robots pouvant intervenir plus longtemps et dans un rayon plus vaste. Nous envisageons même de développer des drones.

J'en viens à la recherche sur la sécurité nucléaire. Nous y réfléchissons dans le cadre de l'Alliance nationale de coordination de la recherche dans le domaine de l'énergie (Ancre), surtout avec l'Institut de radioprotection et de sûreté nucléaire (IRSN), le ministère de la recherche et celui en charge de l'environnement. Les projets seront examinés par le comité de l'énergie atomique du CEA lorsqu'il se réunira le 11 octobre. Je précise que la conduite d'expertise scientifique en liaison avec le Haut comité pour la transparence et l'information sur la sécurité nucléaire (HCTISN) ne soulève aucune objection de notre part.

De façon générale, toutes les recommandations formulées par l'Office - la transmission en temps réel à l'ASN et la création d'un fonds alimenté par la taxe sur les installations nucléaires de base (INB) pour financer les commissions locales d'information (CLI) - sont bienvenues. Nous sommes disposés à contribuer à leur mise en place.

Mme Jacqueline Lecourtier, directrice générale de l'Agence nationale de la recherche . - La France dispose d'un fonds spécifiquement consacré à la sûreté nucléaire, actuellement doté de 50 millions d'euros. Un appel à projets doit être lancé dès octobre sur tous les aspects de la sécurité nucléaire, dont nous attendons les résultats pour janvier. Le premier comité de pilotage s'est réuni vendredi ; nous sommes en cours de conventionnement avec Matignon.

J'en viens au second élément, relatif aux expertises scientifiques. Cette action n'a pas encore été concrétisée, car nous devons encore réfléchir à la limite entre expertise et recherche.

M. Michel Schwarz, directeur scientifique de l'Institut de radioprotection et de sûreté nucléaire . - Fukushima conduit l'IRSN à développer trois axes de recherche, respectivement consacrés à la prévention, aux investigations et aux moyens de diagnostic ou d'intervention.

S'agissant de la prévention, l'IRSN estime qu'il faut réduire la sensibilité des installations nucléaires et développer la défense en profondeur, ce qui suppose d'identifier clairement les menaces, les conséquences du vieillissement technique et les éléments organisationnels.

Pour améliorer les investigations, nous devons perfectionner notre connaissance phénoménologique des accidents graves et affiner la maîtrise des moyens ultimes de leur gestion.

Enfin, l'IRSN a le sentiment que les moyens de diagnostic ou d'intervention relèvent plutôt du CEA et de nos partenaires industriels, mais il est disposé à valoriser ses compétences en matière d'instrumentation, notamment pour mieux détecter les victimes ou piéger la matière radioactive. Il s'estime capable de jouer un rôle incitatif envers les exploitants.

M. Henri Revol, président du Haut comité pour la transparence et l'information sur la sécurité nucléaire . - Parmi les recommandations tendant à renforcer la recherche universitaire sur la sécurité nucléaire, l'une dispose que le Gouvernement institue d'ici à la fin de la législature un fonds financé à partir de la taxe sur les industries nucléaires de base (INB), géré par l'Agence nationale de la recherche et permettant de répondre à des demandes d'expertise scientifique des CLI, sur la base d'un cahier des charges défini par le HCTISN. Celui-ci est ouvert à toute extension de ses missions, mais de quel cahier des charges est-il question ? Que faudra-t-il organiser ? Le Haut comité ne fonctionne que sur saisine de l'Office.

En vertu de la recommandation suivante, le HCTISN devra rendre compte, dans son rapport d'activité évalué chaque année par l'OPECST, des expertises réalisées « dans ce cadre ». Or, la loi n'autorise pas actuellement l'Office à évaluer le travail du Haut comité.

Le Haut comité devrait s'impliquer dans les expertises : peut-il endosser le rôle de donneur d'ordre envers les CLI ? Enfin, la loi de 2006 charge le HCTISN d'une mission de concertation : il ne saurait se substituer aux CLI.

Ainsi, l'application de ces deux recommandations suppose-t-elle une modification législative.

Mme Marie-Pierre Comets, commissaire de l'Autorité de sûreté nucléaire . - En phase avec la recommandation relative à l'expertise et à son financement, nous avons proposé que le produit de la taxe INB soit directement affecté au budget des CLI.

Quant à la recherche, je rappelle que le comité de pilotage qui s'est réuni mardi pour examiner l'utilisation des 50 millions d'euros a officialisé la participation de l'ASN à ses travaux. J'ajoute que l'ASN est fondée à formuler un avis sur les programmes de recherche en sûreté nucléaire et en radioprotection, ce que le comité de l'énergie atomique avait demandé en novembre 2007.

Au demeurant, le fonds de 50 millions d'euros n'est qu'un premier pas : il reste à le pérenniser au cours des années à venir.

Bien sûr, nous sommes tout à fait disposés à rendre compte chaque année des activités de recherche.

M. Nicolas Chantrenne, Mission de la sûreté nucléaire et de la radioprotection . - Le dispositif proposé est novateur, mais complexe, avec l'intervention de l'ANR et un distingo entre expertise et recherche. À l'évidence, d'importantes évolutions législatives doivent être envisagées.

M. Pierre Franck Chevet, directeur général de la DG de l'énergie et du climat . - Le financement par la taxe INB vaut surtout pour les expertises, dont je suggère qu'elles soient soumises à un filtrage et à une articulation par l'Association nationale des comités et commissions locales d'information (ANCCLI).

Quelle est la taille du fonds dédié ?

M. Claude Birraux, député, président . - La nature des recherches et le montant des sommes qui leur sont consacrées relèvent non de la loi, mais du règlement et du conventionnement. À ce propos, je suis assez fier d'avoir fait échouer le contrat d'objectifs de l'IRSN, car il remplaçait les subventions par la facturation des prestations aux exploitants. On a les petites victoires que l'on peut...

M. Vincent Moreau, sous-directeur à la direction du budget . - Nous sommes très réservés envers l'affectation d'une taxe, contraire en son principe à l'évolution de notre fiscalité depuis 2003, quand une taxe affectée à l'IRSN avait été réaffectée au budget général. J'ajoute que ce dispositif comporte un risque de doublon.

M. Claude Birraux, député, président . - Il vaut mieux que les CLI soient financées par l'argent public plutôt que par les industriels.

M. Vincent Moreau, sous-directeur à la direction du budget . - L'objection concerne non pas l'utilisation d'argent public, mais l'affectation d'une taxe.

M. Bernard Bigot, administrateur général du Commissariat à l'énergie atomique et aux énergies alternatives . - Sans porter de jugement sur l'origine de la ressource, j'estime que l'intervention de l'ANR apporte une garantie de transparence et de bon usage des moyens.

M. Claude Birraux, député, président . - En effet.

Mme Marie-Pierre Comets, commissaire de l'Autorité de sûreté nucléaire . - En l'occurrence, la loi TSN a déjà opéré l'affectation de la taxe INB. Pour demander des expertises et suivre leur évolution, les CLI ont besoin chacun d'un demi-poste ou d'un temps plein.

M. Claude Birraux, député, président . - Venons-en aux recommandations relatives à la recherche universitaire, avec l'introduction d'un cahier des charges et l'établissement d'un rapport annuel par l'ASN.

Mme Marie-Pierre Comets, commissaire de l'Autorité de sûreté nucléaire . - Les 50 millions attribués dans le cadre du grand emprunt ne constituent qu'une première réponse à Fukushima. J'insiste sur la nécessité de pérenniser cette enveloppe.

D'autre part, l'ASN est membre du comité de pilotage.

Mme Jacqueline Lecourtier, directrice générale de l'Agence nationale de la recherche . - Comportant un volet consacré à la gestion de crise, le programme de recherche est complet. Il va démarrer très vite

Mme Marie-Christine Blandin , sénatrice . - J'insiste sur la nécessité d'envisager les conséquences à terme des accidents, sans se borner aux effets immédiats.

M. Nicolas Chantrenne, Mission sûreté nucléaire et radioprotection (MSNR) . - Le fonds est abondé par les investissements d'avenir, non par les exploitants, mais il est envisageable de trouver d'autres sources de financement. D'autre part, le cahier des charges dont il s'agit doit être rédigé non par l'ASN, mais par un comité dont l'ASN fait partie, avec les ministères de la recherche et du développement durable. Enfin, l'ANR rendra sans nul doute compte de l'évolution des travaux de recherche, sur lesquels l'ASN formulera un avis.

M. Bernard Bigot, administrateur général du CEA . - Malgré leur caractère significatif, les 50 millions d'euros ne suffiront pas.

M. Claude Birraux, député, président . - Venons-en aux différentes recommandations relatives à la gestion de crise.

Il faut aller jusqu'au bout de l'exercice d'anticipation. Nous avons recommandé que le Gouvernement renforce l'année prochaine les moyens de l'Institut français des formateurs en risques majeurs et protection de l'environnement (IFFO-RMe), afin de développer l'instruction civique sur les risques majeurs. L'institut dispose aujourd'hui de 500 formateurs pour l'ensemble du territoire national.

M. Guillaume Déderen, chef du bureau des risques majeurs à la direction générale de la sécurité civile et de la gestion des crises . - Je commencerai par la réorganisation du Réseau national d'alerte. Initialement conçu pour parer aux attaques à l'époque de la Guerre froide, ce réseau doit être remplacé par un nouveau dispositif, dénommé « système d'alerte et d'information de la population » (SAIP). Il s'agit d'un projet lourd, évalué à 78 millions d'euros. Hélas, les restrictions budgétaires ont diminué les crédits à 24 millions d'euros, avant d'être réévalués à 44 millions. Dans ces conditions, le SAIP ne sera disponible que dans un format réduit.

Le principe envisagé repose sur l'envoi d'un signal d'alerte, suivi de consignes synthétiques. Notre réflexion est conduite par bassin de risque.

S'agissant des moyens d'alerte, il est clair que le réseau de téléphone cellulaire jouera un rôle essentiel, à l'instar de ce qui se fait aux Pays-Bas et aux États-Unis, avec le self broadcast . Malgré le fort développement de l'Internet, ce moyen n'est guère utile pour la diffusion d'alerte, sauf à passer par la wifi ou par le réseau 3G, malheureusement très vite saturés en cas de crise, tout comme la transmission satellitaire. Le troisième outil technique est constitué par les réseaux sociaux. La sécurité civile réclame depuis longtemps une réflexion de fond à leur propos. Au demeurant, à chaque exercice nucléaire nous simulons la diffusion de fausses informations, principalement via Twitter. C'est ce que nous appelons « la pression médiatique simulée ». La direction générale a donc engagé une réflexion sur Twitter et Facebook.

J'insiste, d'autre part, sur la distinction entre alerte et communication gouvernementale. La direction générale est disposée à travailler, par exemple, à l'information nationale de la population, mais après l'accident de Marcoule, la préfecture du Var a été submergée par des messages provenant du monde entier.

Pour la direction générale de la sécurité civile, l'impératif est de bien distinguer entre communication locale et informations à re-router vers le centre national. Quant à la profondeur territoriale des plans de secours, ne surestimons pas les capacités locales d'accueil, à l'hôpital ou les mairies par exemple ; mais les plans Orsec comprennent un premier, un deuxième, un troisième niveau... Les qualifications des plans Orsec doivent peut-être être revues à la lumière de Fukushima, mais il n'existe pas de plan Orsec national, tous sont zonaux ou départementaux.

Que recouvre le « volontariat » ? Presque tous les pompiers en France sont volontaires ! S'il s'agit de la « surexposition volontaire » mentionnée dans le Code de la santé publique, nous pouvons, je vous l'indique, dresser un recensement de ces volontaires.

Sur les moyens de l'IFFO-RME, la préfecture est incompétente : les subventions proviennent du ministère de l'Ecologie, non du ministère de l'Intérieur. En revanche, nous avons, de concert avec le ministère de l'Education nationale, créé un magazine, Risques et savoirs , pour aider les professeurs qui consacrent du temps à l'éducation à la gestion des crises.

Mme Marie-Christine Blandin , sénatrice . - Après notre visite à Gravelines, à la préfecture du Nord, nous avons entendu un exposé fort complet sur la réaction à la crise... mais le plan est départemental. Or la centrale est située près du Pas-de-Calais. Je voudrais être certaine que les synergies fonctionnent.

M. Guillaume Déderen, chef du bureau des risques majeurs à la direction générale de la sécurité civile et de la gestion des crises . - D'autres centrales ont une situation géographique similaire. Nous travaillons avec les services belges et avec les autres préfectures. Par chance, dans cette région, il est facile de réunir les représentants des deux préfectures !

Mme Marie-Pierre Comets, commissaire de l'ASN . - L'accident de Fukushima nous incite à reconsidérer les mesures de protection post-accidentelles. L'ASN poursuit depuis 2005 une réflexion sur cette question - notre pays est le seul au monde à le faire. L'an prochain paraîtra un guide comportant la définition des zonages d'évacuation, des informations sur la gestion des denrées alimentaires, etc. C'est un travail concret. Je signale aussi les études faites par le comité directeur gestion de phase post-accidentelle (Codirpa) sur des scénarios plus durs que ceux envisagés jusqu'à présent.

S'agissant de la formation du personnel, EDF, dans le rapport remis le 15 septembre dernier, propose une force d'action rapide nucléaire. Nous en examinerons les modalités, nous étudierons les propositions concernant la formation, et nous rendrons notre position d'ici fin 2011.

M. Christian Bataille, député, rapporteur . - Cinq recommandations intéressent plus spécifiquement l'ASN, nous allons les évoquer à présent. La première vise une meilleure garantie concernant la sous-traitance : « Le gouvernement, d'ici la fin de l'année 2011, confère une compétence d'audit à l'ASN sur les procédures mises en oeuvre par le Comité français de certification des entreprises (Cefri) pour l'habilitation des entreprises et des personnes. » La deuxième concerne le suivi de l'ajout d'une arrière-garde à la défense en profondeur : « L'ASN transmet à la mission parlementaire, d'ici la fin de ses travaux, une évaluation du renforcement en cours des dispositifs mobiles d'approvisionnement de secours en eau et électricité. »

Les deux suivantes visent à garantir la cohérence internationale des évaluations de sûreté : « Le gouvernement et l'ASN veillent, notamment en s'assurant du caractère incontestable des revues par les pairs, à l'uniformité du degré d'exigence des évaluations européennes de sûreté dans les pays membres. » En outre, « le gouvernement et l'ASN veillent à ce que les conséquences tirées des évaluations européennes de sûreté soient fondées sur des bases homogènes, conduisant à appliquer les mesures les plus rigoureuses aux réacteurs les plus mal classés au niveau européen. » La cinquième vise à assurer une meilleure transparence des coûts de la filière : « L'ASN établit dans son rapport annuel d'activité un bilan de l'ensemble des coûts supportés par les exploitants au titre du renforcement de la sûreté nucléaire. » Quelle est la position de l'ASN ? J'interroge ses représentants, mais ceux du gouvernement peuvent aussi donner leur point de vue.

M. Jean-Jacques Dumont, commissaire de l'ASN . - La sous-traitance est un problème important à nos yeux. C'est un des points sur lesquels le cahier des charges a été complété, dans le cadre des évaluations complémentaires de sûreté, par rapport aux stress tests européens. Les facteurs organisationnels et humains ont retenu toute notre attention. Je signale aussi le projet de renforcement des exigences réglementaires concernant les sous-traitants des INB. Avec la direction générale du travail, nous avons, en outre, un projet de certification par le comité français d'accréditation (Cofrac) pour les entreprises sous-traitantes des INB. L'arrêté sera publié fin 2011 ou début 2012. Sur la deuxième recommandation citée, nous prendrons position à la fin de l'année, dans le cadre des évaluations complémentaires.

Sur la troisième et la quatrième recommandations, nous sommes parfaitement en ligne avec vous ; nous nous impliquons fortement dans la promotion des peer reviews . Nous sommes très présents en ce domaine. Nous participons au groupe de travail technique qui prépare l'organisation des revues et faisons également partie du groupe de pilotage pour leur mise en oeuvre.

Plutôt que d'inclure dans notre rapport annuel un bilan des coûts, puisque les aspects financiers ne sont pas notre coeur de métier, pourquoi ne pas écrire, dans le décret d'application de l'article 21 de la loi de sûreté nucléaire, que les exploitants incluent ces données dans leur « description des dispositions prises pour renforcer la sûreté nucléaire » ?

Mme Stéphanie Gilardin, direction générale du travail . - Depuis la loi de 1975, la pratique de la sous-traitance est encadrée par le code du travail, pour l'ensemble des champs où elle est utilisée. Certes, les installations nucléaires présentent des spécificités, mais on pourrait aussi invoquer la dangerosité des installations Seveso : pour nous, la sous-traitance est une question transversale. Le problème aujourd'hui se situe plutôt dans la mise en oeuvre de la réglementation. Le ministère du travail a décidé, pour 2012, une action des inspecteurs et contrôleurs du travail centrée sur la sous-traitance.

M. Thierry Lahaye, direction générale du travail . - L'arrêté sur la certification sera soumis aux partenaires sociaux avant la fin de l'année.

Vous suggérez de donner compétence à l'ASN sur l'audit des entreprises : mais nous avons à ce jour fait le choix de la certification, qui autorise l'intervention d'entreprises étrangères dans les installations. Le dispositif dans son ensemble a été notifié à la Commission européenne en 2010, dans le cadre de la mise en oeuvre de la directive « Services ».

Mme Catherine Procaccia , sénateur . - Le code du travail organise la sous-traitance. Soit, mais le fait-il suffisamment ? Les contrôleurs ne peuvent être partout. Estimez-vous qu'il y a des définitions à revoir, des limites à préciser ? Une refonte de certaines dispositions par le législateur est-elle nécessaire ?

Mme Stéphanie Gilardin, direction générale du travail . - Il faudrait consulter le ministère de l'économie, car la question a un versant industriel et économique...

Mme Catherine Procaccia , sénateur . - Il ne faut jamais rien toucher !

Mme Stéphanie Gilardin, direction générale du travail . - Pour nous, la sous-traitance doit exclure des pratiques telles que le prêt de main-d'oeuvre, il faut donc vérifier le respect de ces interdictions. Les limites sont du ressort des services économiques et industriels.

Mme Marie-Christine Blandin , sénatrice . - Je ne parlerai pas du pourcentage des doses - 80% du total - reçu par les sous-traitants. Je me concentrerai sur les problèmes sociaux apparus lors de la construction du nouvel EPR. Une société X que nous connaissons tous, sous-traite à Y l'embauche d'une centaine de personnes en Pologne et en Hongrie. Les intéressés cotisent, notamment pour la maladie. Or une fois retournés dans leur pays, ils ne bénéficient d'aucune couverture, l'argent à cette fin a été détourné à Chypre ! Je vous demande solennellement de nous informer sur ce cas. Les ouvriers recrutés ont été mis dans un car au prétexte d'un stage de formation, puis renvoyés manu militari dans leur pays !

M. Christian Bataille, député, rapporteur . - S'il vous plaît, informez-nous par écrit des détails de cette affaire.

M. Thierry Lahaye, direction générale du travail . - Une inspection commune est menée par l'inspection du travail et la DGCCRF.

M. Christian Bataille, député, rapporteur . - Dans les six recommandations suivantes, la mise en oeuvre incombe plus spécifiquement au gouvernement.

La première recommandation est relative au contrôle des conditions de financement de la filière. Sur certains points de la loi de 2006, les résultats se font attendre ! « Le gouvernement fournit à la Commission nationale d'évaluation du financement des charges de démantèlement des installations nucléaires de base et de gestion des combustibles usés et des déchets radioactifs (Cnef), prévue à l'article 20 de la loi du 28 juin 2006, les moyens de remettre son premier rapport d'évaluation avant la fin de l'année 2011. » Nos questions écrites sont toujours demeurées sans réponse...

Les deux suivantes visent à une gestion plus sûre des conditions de la sous-traitance. « Le gouvernement transmet à la mission parlementaire, d'ici la fin de ses travaux, une étude sur les possibilités juridiques et les dispositifs permettant de réduire ou d'éliminer le recours aux cascades de sous-traitance. Ce document sera publié en annexe du rapport final. » ; « Le gouvernement, d'ici la fin de l'année 2011, prend les dispositions instituant, pour chaque site, un correspondant-référent de la médecine du travail, chargé du suivi radiologique de tout travailleur intervenant sur le site. »

Les deux recommandations suivantes concernent la consolidation de la maîtrise publique du contrôle de sûreté. « Le gouvernement, dans le cadre de l'adoption de la loi de finances initiale pour 2011, unifie les moyens budgétaires de l'ASN. » C'est là une revendication de l'ASN, au titre de la simplification comptable et de la transparence des moyens publics affectés au contrôle du secteur nucléaire. « Le gouvernement, d'ici la fin de l'année 2011, donne une base réglementaire et financière au système des astreintes de l'ASN, pour garantir en toutes circonstances sa pleine réactivité. ». On en vient à douter, hélas, de la volonté des autorités supérieures, lorsque l'on constate que ce système repose essentiellement sur le volontariat et le bénévolat...

La dernière recommandation concerne la cohérence internationale des évaluations de sûreté : « Le gouvernement prend toute initiative pouvant contribuer à ce que les normes de sûreté retenues au niveau européen soient intégrées dans les standards de l'AIEA. »

M. Jean-Luc Lépine, président de la Cnef . - La commission s'est mise en place en juin dernier, elle s'est mise au travail. La loi de 2006 prévoyait un délai de deux ans pour établir le premier rapport : la Cnef va s'efforcer de rattraper le retard pris et publiera son rapport en juin prochain... Nous disposerons ainsi d'une vision de tout l'exercice 2011, particulièrement chahuté. Une photographie du niveau des actifs à fin 2011 sera instructive.

M. Christian Bataille, député, rapporteur . - Tout de même, cinq ans de retard, c'est long ! Et une année de plus, cela fait six ans...

M. Pierre-Franck Chevet, directeur, direction de l'énergie et du climat (DGEC) . - Les responsabilités de ce retard sont partagées : la nomination des dirigeants a eu lieu en juin dernier, après un assez long débat car nous assurons le secrétariat de la Commission tout en étant son autorité administrative.

M. Christian Bataille, député, rapporteur . - Le gouvernement déploie le paratonnerre au-dessus de ses services ! C'est admirable !

M. Jean-Jacques Dumont, commissaire de l'ASN . - L'ASN demande une réforme du financement du contrôle de la sûreté nucléaire et de la radioprotection. Une généralisation de la contribution des installations nucléaires de base - l'IRSN a reçu au titre de cette taxe 30 millions d'euros en 2010 - serait souhaitable, pour assurer la pérennité. L'ASN demande aussi une clarification de sa structure budgétaire, qui dépend en 2011 encore de cinq programmes. Nous suggérons de créer un programme unique pour l'ensemble des dépenses de contrôle de la sûreté. Enfin, nous avions demandé, avant l'accident de Fukushima, un renfort de 52 postes, pour prendre en charge les nouvelles missions et pour assumer le contrôle des sources radioactives - aucune administration ne le fait ! Après Fukushima, nous avons demandé 40 autres postes, en raison de besoins supplémentaires. Hélas nous avons obtenu seulement 22 mises à disposition - en provenance de l'IRSN...

M. Claude Birraux, député, président . - Je remercie toutes les personnes qui ont participé à cette réunion. Nous organiserons une autre réunion de suivi des recommandations une fois le rapport final rendu, vers le début 2012.

Mais je ne suis président de l'office que jusqu'à nouvel ordre ! A ce propos, je tiens à féliciter les sénateurs élus ou réélus, et à assurer de notre amitié ceux qui ne se représentaient pas ou qui n'ont pas été réélus. Nous avons travaillé au sein de cette mission avec beaucoup d'allant, beaucoup d'entrain. Nous attendons de nos interlocuteurs d'aujourd'hui trois notes particulières. Nous voulons ainsi savoir quelle médecine du travail est désormais responsable du suivi de ces travailleurs polonais dont nous avons évoqué le sort.

Monsieur Lépine, vous n'êtes pas responsable du retard de la Cnef, mais votre premier rapport pourrait s'intituler Désiré .

Les personnes auditionnées quittent la salle.

*

Programme des travaux du deuxième volet de la mission.

M. Christian Bataille, député, rapporteur . - Que pensez-vous de ces échanges ?

M. Daniel Raoul , sénateur . - Que de demandes au législateur ! Dans bien des cas nous nous trouvons en réalité dans le domaine réglementaire et l'on ne saurait botter ainsi en touche !

M. Claude Birraux, député, président . - De telles réunions sont utiles notamment pour voir cela de près...

M. Daniel Raoul , sénateur . - Cependant le financement de l'Association nationale des CLI relève de la loi de finances et ne nécessite qu'un jeu d'écritures.

M. Claude Birraux, député, président . - Le projet de programme pour la seconde partie du travail de la mission est le suivant. Le 27 octobre, nous évoquerons la situation européenne créée par l'accident de Fukushima. Nous entendrons des représentants allemands et anglais. Soit dit en passant, je me suis rendu à Londres pour participer à un débat sur le sujet à la Chambre des communes.

M. Christian Bataille, député, rapporteur . - Et j'ai pour ma part passé une semaine d'études en Allemagne. Je vous ferai à notre prochaine réunion un compte-rendu de cette visite.

M. Claude Birraux, député, président . - Le 3 novembre, nous aborderons l'évolution de la consommation d'électricité et les efforts d'efficacité énergétique, notamment dans le bâtiment, qui consomme à lui seul presque la moitié de l'énergie primaire. Nous avions déjà rendu un rapport sur la question, mais les ministres inventent des commissions chargées d'étudier tel ou tel aspect des conclusions présentées - elles disposent bien sûr d'un temps indéterminé... Puis, le 17 novembre, nous nous pencherons sur le développement des filières futures de l'énergie nucléaire, quatrième génération, fusion, démantèlement. Nous avions tout dit sur le démantèlement en 1996... Le 24 novembre, nous envisagerons les énergies renouvelables et le stockage de l'énergie. C'est un sujet d'actualité. Le 17 novembre, nous évoquerons l'impact de la filière nucléaire sur la balance des paiements car cette dimension entre en ligne de compte, notamment pour compenser par l'exportation les pertes en revenus et en emplois qui résulteraient d'une réduction du parc nucléaire français. Le 7 octobre, nous serons à Bure.

La mission a alors approuvé le programme de travail.

SITUATION DE LA FILIÈRE NUCLÉAIRE EN SUÈDE
(mercredi 5 octobre 2011)

Une réunion s'est tenue le 5 octobre 2011 à l'Ambassade de France en Suède, en présence de l'Ambassadeur, S. Exc. M. Jean-Pierre Lacroix, pour permettre un échange entre d'une part, M. Claude Birraux, député, Président de l'OPECST et M. Jean-Yves Le Déaut, député, vice-Président de l'OPECST, et d'autre part, Mme Saïda Lâarouchi-Engström, Chef de la direction de l'environnement et de la communication chez SKB, M. Jan Greisz, Directeur de la stratégie du groupe Vattenfall, et M. Stefan Appelgren, Chef de la sécurité nucléaire au ministère de l'Environnement.

Ainsi que M. l'Ambassadeur et M. Claude Birraux l'ont d'emblée précisé, il s'agissait de faire un point de l'impact de l'accident de Fukushima sur le débat public suédois relatif au devenir de la filière nucléaire; M. Claude Birraux a expliqué que l'exemple de la Suède nourrirait utilement une étude en cours à l'OPECST sur l'avenir de la filière nucléaire en France.

M. Jan Greisz , après avoir rappelé que l'énergie nucléaire fournissait un tiers de l'électricité suédoise, par ailleurs pour moitié produite grâce à de l'énergie renouvelable, essentiellement par l'exploitation de barrages hydroélectriques, a expliqué que le débat sur les centrales nucléaires avait été intense dans les années 70, mais qu'il avait pris alors une dimension plutôt rationnelle. La décision d'équiper le pays d'un parc nucléaire a été remise en cause par référendum en 1980, suite à l'accident de Three Mile Island; et les tensions avec les voisins danois ont conduit à l'arrêt des deux réacteurs de Barsebäck en 1999 et 2005. Mais depuis la levée du moratoire sur la construction de nouveaux réacteurs par une loi de juin 2010, ce débat n'est plus guère relancé en Suède, et les événements de Fukushima n'ont suscité aucun élan d'hostilité nouveau.

Mme Saïda Lâarouchi-Engström a précisé que le débat des années 70 sur l'énergie nucléaire avait créé des lignes de clivage traversant chaque parti, les deux camps «pour» et «contre» étant au total assez équilibrés, et que l'argument déterminant avait été l'absence d'alternatives techniques claires, notamment au regard des objectifs de prix, de sûreté et d'indépendance énergétique, compte-tenu de l'effort déjà fait dans le domaine de l'hydroélectricité; c'est là un raisonnement équivalent à celui qui a prévalu parallèlement au Japon. Elle a justifiée le faible écho donné aux événements de Fukushima en Suède par une retenue pudique des responsables des différents partis, peu enclins à exploiter d'une manière intéressée, dans l'arène politique, le drame vécu par la population japonaise; leurs électeurs en auraient été moralement choqués. Quant aux syndicats, qui sont très puissants en Suède, ils soutiennent fortement l'industrie nucléaire.

M. Stefan Appelgren a confirmé que l'accident de Fukushima n'avait pas modifié le statu quo quant à l'avenir de l'énergie nucléaire en Suède, les interrogations se portant en revanche sur les efforts à accomplir pour maintenir les conditions de sûreté et améliorer les conditions d'exploitation, compte-tenu d'un évident besoin de modernisation du parc nucléaire, puisque les dix réacteurs en service dans le pays sont actuellement contraints à des arrêts de maintenance fréquents, au point de faire craindre des pénuries d'électricité, et conséquemment des hausses drastiques du prix de celle-ci. Des difficultés de cet ordre se sont déjà manifestés au cours des deux hivers derniers. Et deux facteurs vont accroître au cours des prochaines années les tensions sur les capacités de production : d'une part, le vieillissement du parc; et d'autre part, les opérations de mise à niveau, qui induisent par elles-mêmes une baisse de la disponibilité des centrales. Mais les modalités techniques de l'adaptation du parc nucléaire sont considérées par l'ensemble de la population comme relevant de la seule responsabilité des exploitants et de l'autorité de sûreté nucléaire.

Mme Saïda Lâarouchi-Engström a indiqué que, pour les Suédois, l'énergie nucléaire apparaissait comme un moyen, et même comme un signe, d'un certain standing de vie. Telle qu'elle a pu s'en apercevoir à l'occasion de plusieurs réunions internationales, cette image moderniste était à l'origine d'un fort souhait d'accéder à cette énergie dans nombre de pays en développement, sans que ceux-ci prennent suffisament en compte les contraintes en termes d'organisation de sûreté et de gestion des déchets radioactifs que cela suppose.

Rappelant que la loi de juin 2010 a autorisé le remplacement des réacteurs un par un, sans augmentation de puissance, et sans apport d'argent public, M. Jan Greisz a expliqué que l'énergie nucléaire était considérée par les producteurs suédois d'électricité, et notamment Vattenfall, comme indispensable pour une fourniture en base, même si son coût avait beaucoup progressé depuis les années 70. L'accord qui a permis le vote de la loi bénéficie d'une assise large, ce qui assure une visibilité pour la politique d'investissement des opérateurs suédois. En pratique, la situation est restée jusque là gelée, mais l'éclatement récent de la coalition rouges-verts permet aux sociaux-démocrates d'avoir une position plus ouverte sur la construction de centrales nucléaires, et le changement à la tête du parti libéral devrait également favoriser un déblocage. Une polémique est née autour de la distorsion de concurrence qu'induit la restriction de n'autoriser qu'un pur remplacement des réacteurs, sur les mêmes sites, ce qui pénalise d'éventuels nouveaux entrants; mais une solution pourrait être trouvée en incluant ceux-ci dans le tour de table, avec un droit de tirage sur la production.

M. Stefan Appelgren a souligné que la Suède prendrait sa part aux évaluations complémentaires de sûreté décidées par le Conseil européen en mars, dont la nécessité a été confirmée par la déclaration de l'AIEA du 20 juin. Il s'agit d'élargir au maximum le champ des circonstances accidentelles à prendre en compte, combinant intempéries extraordinaires et chocs sismiques, en s'interdisant désormais de considérer certaines configurations comme impossibles.

Mme Saïda Lâarouchi-Engström a insisté sur l'intérêt scientifique que la Suède prenait à sa participation aux travaux de recherche sur la quatrième génération, même si le pays a fait le choix d'un stockage géologique direct des combustibles, ce qui limite l'intérêt d'une transmutation des déchets radioactifs. Les accords de coopération signés dans ce domaine avec la France assurent l'accueil d'une trentaine de doctorants suédois au CEA. Les travaux du professeur Wallenius à l'Institut royal de technologie KTH explorent la voie des réacteurs au plomb. Les technologies du futur ouvrent la perspective attrayante d'une efficacité démultipliée dans la production d'énergie, mais ces avancées ne pourront se faire qu'à la condition d'une garantie absolue sur la sûreté.

COMPTES RENDUS DES VISITES INOPINÉES

VISITE DE LA CENTRALE DE PALUEL
mercredi 30 novembre 2011

Contrôle inopiné de la centrale de Paluel consistant à réaliser un exercice portant sur la réalimentation électrique du réacteur n°1, considéré à l'arrêt, et sans aucune alimentation électrique interne et externe, par le réacteur n°2

Compte rendu par
M. Claude Birraux, député, président de la mission

La délégation comprend M. Claude Birraux, deux responsables de l'ASN, et un membre du secrétariat de l'OPECST.

19h35

Arrivée sur le parking

19h40

Annonce du contrôle inopiné à la porte d'entrée de la centrale. Nous notons que le badge de l'ASN ne lui permet pas de rentrer de nuit sans se faire annoncer.

19h50

Formalités d'entrée

20h00

Des membres de la direction de la centrale viennent à notre rencontre dans le hall d'entrée. Problème mineur avec le badge d'un des responsables de l'ASN.

20h15

Réunion dans le bureau du directeur de la centrale

Présentation des raisons de notre visite, présentation de la centrale

Présentation de la centrale

- Risque sismique faible, mais quelques modifications restent à entreprendre pour que celui-ci soit pris en compte convenablement (notamment pour rendre la salle de gestion de crise plus résistante)

- Pas de risque d'inondation provenant de la mer, la zone nucléaire se trouvant à plus de 20m de hauteur.

- L'ASN relève la bonne qualité de la station de pompage du site par rapport aux autres centrales.

- Sous-traitance à 3 niveaux maximum. En arrêt de tranche, la sous-traitance représente 70 à 80  %. EDF garde en interne la partie électrique et automatisme. Suivi dosimétrique centralisé. Sous-traitance principalement locale.

- Sous-traitance d'origine étrangère : suivi dosimétrique déclaratif, c'est une limite du système (suivi dosimétrique centralisé pour l'échelon national uniquement).

20h55

Salle de commande de la tranche n°1

21h05

Relève de quart

Nous assistons à l'intégralité du relevé de la situation, notamment un bilan du travail effectué dans la journée, le programme de travail à venir (Priorité jour, Priorité Semaine), et des différents incidents mineurs qui ont eu lieu dans la journée (employé blessé très légèrement à la jambe, souci sur un purgeur dont le débit n'est pas à son niveau maximal).

A deux reprises lors du relevé, le responsable de l'ASN a demandé à l'exploitant si l'évènement qu'il évoquait n'aurait pas du faire l'objet d'un signalement de niveau 0. L'absence de signalement a semblé à chaque fois justifiée.

21h50

Début de l'exercice

Salle de commande de la tranche n°1

Présentation au chef d'exploitation des détails de l'exercice.

L'exercice consiste en la perte totale des alimentations électriques et du diesel de la tranche n°1, nécessitant le branchement de la tranche n°2 sur la tranche n°1 (alimentation de 1LHA par 2LHB).

Ce branchement est considéré comme une « possibilité de réalimentation exotique » par EDF, qui est pourtant un exercice type post-Fukushima. EDF dispose toutefois d'un document détaillant la procédure à suivre une telle opération.

22h00

Les personnels d'astreinte sont appelés par téléphone par le PCD

22h40

Les personnels d'astreinte sont réunis dans le bâtiment de sécurité. Le personnel a pu être réuni en 25mins.

22h50

Les PCDirection et PCMateriel font le point sur la situation. Les équipes impriment le document détaillant la procédure à suivre pour ce type de réalimentation.

23h00

Salle de commande de la tranche n°1

Les équipes d'EDF passent la procédure en revue pour établir le matériel nécessaire.

Dans le même temps, l'ASN s'interroge si les documents pour cette procédure sont au format papier en nombre suffisant. En cas de séisme, les imprimantes ne fonctionnent pas forcément. EDF répond que oui.

23h30

Salle de commande de la tranche n°1

Une clé nécessaire dans la procédure (pour un panneau d'alimentation électrique) est actuellement « en commande » et n'est pas disponible sur site. Il faudra donc être créatif pour cette partie de la procédure.

L'ASN fait remarquer que, sans le matériel sur site, la procédure n'est pas vraiment opérationnelle.

23h40

Salle de commande de la tranche n°1

Pré-job briefing de l'équipe et départ sur site.

00h00

Nous suivons l'équipe EDF sur le terrain. Nous arrivons dans un local électrique, mais les indications du document de procédure ne correspondent pas au panneau électrique du local. Il y a un doute : les clés sur le panneau sont-elles mal étiquetées, ou bien sommes-nous dans le mauvais local ? Le local non plus n'est pas numéroté, ce qui est relevé par l'ASN. Après plusieurs allers et retour entre la tranche n°1 et la tranche n°2, l'énigme est résolue : toutes les premières instructions du document de procédure semblent en réalité inexactes.

00h20

L'équipe se rend (à raison) dans la tranche n°3 pour poursuivre la procédure, ce qui est toutefois plutôt contre-intuitif puisque le scénario porte sur le basculement de la tranche n°2 sur la tranche n°1.

01h00

L'exercice avance, mais à nouveau le document EDF comporte des inexactitudes qui ne facilitent pas la tache de l'équipe : le document n'indique pas clairement si certaines actions doivent effectuées sur la tranche n°1 ou la tranche n°2, et certaines actions semblent tout bonnement inutiles au personnel sur place.

A nouveau, les personnels sont obligés de barrer plusieurs lignes du document de procédure.

01h30

Nous mettons fin à l'exercice.

BILAN

Le guide technique pour cette « procédure exotique » comportait de nombreuses erreurs et de nombreuses lacunes d'ergonomies (renvois multiples, manque de clarté des indications, etc...). Toutefois, il est important de signaler que le personnel a su se poser de bonnes questions, n'est jamais resté bloqué devant ces situations parfois burlesques, et au final réussissait à progresser dans ce guide technique qu'il n'hésitait pas lui-même à critiquer ouvertement.

De l'avis général, le document pour cette procédure « exotique » doit être revu ligne par ligne (ce qui devrait être fait dans les jours qui viennent).

Lors de notre contrôle, celui-ci n'était à l'évidence pas opérationnel.

Lettre de suite de l'ASN

VISITE DE LA CENTRALE DU BLAYAIS
30 novembre 2011

Contrôle inopiné de la centrale du Blayais sur le thème du risque d'inondation

Compte rendu par
M. Bruno Sido, sénateur, rapporteur

Dans le cadre de la mission menée par l'OPECST sur la sécurité nucléaire, la place de la filière et son avenir, j'ai choisi de me rendre à la centrale nucléaire du Blayais, dans le cadre d'une inspection inopinée, menée par l'Autorité de sûreté nucléaire avec l'appui de l'IRSN.

Cette mission a permis d'approcher au plus près du travail quotidien de l'ASN, qui est parfois chargé puisque parallèlement à notre visite au Blayais, l'équipe de l'ASN apprenait de l'état major de zone de défense, en début d'après-midi, qu'un départ de feu avait été maîtrisé à 11h30 à la centrale de Civaux, qui dépend comme le Blayais de la division ASN de Bordeaux.

Nous sommes arrivés sur le site du Blayais vers 14h00. Le personnel d'EDF s'est montré très coopératif, pour faciliter notre entrée dans la centrale, malgré le caractère inhabituel de cette inspection inopinée conjointe, impliquant un parlementaire.

L'inspection a eu pour objet principal le risque d'inondation, dans une centrale où ce risque s'est déjà réalisé, lors de la tempête du 27 décembre 1999. De fortes vagues en provenance de l'estuaire de la Gironde, ayant franchi la digue, avaient alors provoqué des inondations en sous-sol et des difficultés d'accès au site. Cet incident, de niveau 2 sur l'échelle INES, a été analysé par l'Office au cours des semaines qui ont suivi, dans un rapport de M. Claude Birraux. Cet incident a, par la suite, incité l'ASN à reconsidérer globalement le risque d'inondation dans l'ensemble des centrales nucléaires françaises.

Le contrôle effectué hier visait à vérifier les actions correctives menées par EDF à la suite d'une précédente inspection réalisée, en juin dernier, dans le contexte post-Fukushima. L'ASN a en effet mené une campagne d'inspections ciblées en supplément des évaluations complémentaires de sûreté prescrites à EDF à la suite de l'accident japonais. L'objet de ces inspections ciblées était de contrôler l'organisation mise en place pour faire face à des agressions externes d'origine naturelle : séisme, inondation, perte de source froide.

En premier lieu, nous nous sommes rendus sur la digue dite « front de Gironde », surélevée à la suite de l'incident de 1999. Le directeur de la centrale nous a présenté cette digue impressionnante, composée d'enrochements, d'une hauteur de 6m20 (surélevée de 1 m après 1999), complétée par un mur pare-houle de 2m30 de haut, puisqu'il nous a été indiqué que la houle pouvait atteindre 3 mètres dans l'estuaire. Cette digue constitue la première ligne de défense de la centrale ; elle est complétée par une digue côté « marais ». La seconde ligne de défense de la centrale consiste à garantir l'étanchéité des bâtiments à protéger. Cette étanchéité a été améliorée par la pose de batardeaux aux entrées de ces bâtiments.

Si la digue est impressionnante, la route qui conduit à la centrale, au travers des marais, l'est toutefois beaucoup moins. Il s'agit d'une petite route, légèrement surélevée mais subissant des affaissements. EDF en a acheté un tronçon mais n'y envisage pas de transformations importantes à court terme, préférant prévoir la présence de plusieurs équipes susceptibles de se relayer sur le site lorsque les conditions météorologiques risquent d'engendrer des difficultés d'accès.

Au cours de notre visite, L'ASN a procédé à plusieurs vérifications documentaires. La sûreté repose en effet très largement sur l'existence de consignes décrivant précisément la conduite à tenir par les agents en situation d'incident. Cela est d'ailleurs un élément du retour d'expérience de l'accident de Three Mile Island aux Etats-Unis (1979) : il s'agit de privilégier une approche « par états », en fonction de la situation donnée plutôt que de ses causes supposées. Au nombre des vérifications documentaires réalisées par l'ASN, je mentionnerai les suivantes, qui montrent que des questions apparemment simples peuvent se révéler problématiques :

L'ASN a vérifié la traçabilité des contrôles réalisés dans le cadre de la surveillance quotidienne de la protection volumétrique (étanchéité des bâtiments) ;

Elle a vérifié la prise en compte par les procédures d'urgence de la nécessité de procéder à la fermeture de certaines vannes en cas d'inondation ;

Elle a vérifié la correction d'une consigne concernant l'un des critères d'entrée en phase d'alerte, relatif à la vitesse du vent, qui était erroné car non conforme aux standards nationaux ;

Enfin l'ASN a demandé aux opérateurs, en salle de commande, quel était le critère conduisant à l'arrêt du pompage d'eau, en cas d'inondation : en effet, nous avons pu constater que deux capteurs différents donnaient deux mesures différentes du niveau d'eau, et que la prise en compte de l'effet d'aspiration de la pompe sur ce niveau d'eau semblait mal définie. La question s'était concrètement posée en 2010, lors de la tempête Xynthia, mais sans conséquences. Sur ce point l'ASN a obtenu la réponse qu'elle attendait, à l'issue d'un délai d'environ une demi-heure de recherches documentaires.

Un point a par ailleurs été réalisé sur la prise en compte des débris végétaux susceptibles d'obstruer les voies d'eau, d'où il ressort que des progrès devraient être réalisés d'ici à 2014 :

- d'une part, un doublement de la capacité filtrante sera expérimenté ;

- d'autre part un modèle prédictif de ce type d'incident devrait être construit.

Enfin, cette inspection inopinée fut l'occasion pour l'ASN de visiter des galeries techniques rarement contrôlées, qui lui ont laissé une impression mitigée : en effet, nous avons pu voir :

- des fuites non identifiées, non traitées ;

- un repérage insuffisant des tuyauteries, dont certaines très corrodées ;

- 1 plot en béton et des déchets divers traînant sur le sol.

Ceci a conduit l'ASN à recommander une meilleure maîtrise de l'environnement de ces galeries techniques.

En définitive, cette inspection inopinée a permis d'appréhender les modalités concrètes de la sûreté nucléaire, qui est une combinaison d'anticipation des situations et de règles de conduite à tenir, en cas de réalisation de ces situations. Le dialogue entre exploitant et autorité de sûreté m'a paru de nature à réellement enrichir au jour le jour ce processus.

Lettre de suite de l'ASN

RAPPORTS DE L'OPECST SUR LA FILIÈRE NUCLÉAIRE

1. Rapports sur la gestion des déchets radioactifs

Rapport sur la gestion des déchets nucléaires à haute activité n° 1839 déposé le 14 décembre 1990 par M. Christian BATAILLE

Rapport sur la gestion des déchets très faiblement radioactifs n° 2624 déposé le 22 avril 1992 par M. Jean-Yves LE DÉAUT

Rapport sur l'évolution de la recherche sur la gestion des déchets nucléaires à haute activité : tome I - les déchets civils n° 2689 déposé le 27 mars 1996 par M. Christian BATAILLE

Rapport sur l'évolution de la recherche sur la gestion des déchets nucléaires à haute activité : tome II - les déchets militaires n° 541 déposé le 15 décembre 1997 par M. Christian BATAILLE

Rapport sur les conséquences des installations de stockage des déchets nucléaires sur la santé publique et l'environnement n° 2257 déposé le 17 mars 2000 par Mme Michèle RIVASI

Rapport sur les possibilités d'entreposage à long terme des combustibles nucléaires irradiés n° 3101 déposé le 30 mai 2001 par M. Christian BATAILLE

Rapport sur l'évaluation du plan national de gestion des matières et déchets radioactifs (PNGMDR) n° 3793 déposé le 6 avril 2007 par MM. Christian BATAILLE et Claude BIRRAUX

Rapport sur l'évaluation du plan national de gestion des matières et déchets radioactifs 2010-2012 n° 3108 déposé le 19 janvier 2011 par MM. Christian BATAILLE et Claude BIRRAUX

2. Rapports sur la recherche en matière nucléaire

Rapport sur l'aval du cycle nucléaire - Tome I : Étude générale n° 978 déposé le 11 juin 1998 par MM. Christian BATAILLE et Robert GALLEY

Rapport sur l'aval du cycle nucléaire - Tome II : les coûts de production de l'électricité n° 1359 déposé le 2 février 1999 par MM. Christian BATAILLE et Robert GALLEY

Rapport sur la durée de vie des centrales nucléaires et les nouveaux types de réacteurs n° 832 déposé le 13 mai 2003 par MM. Christian BATAILLE et Claude BIRRAUX

Rapport sur l'état d'avancement et les perspectives des recherches sur la gestion des déchets radioactifs n° 2159 déposé le 16 mars 2005 par MM. Christian BATAILLE et Claude BIRRAUX

3. Rapports sur la sécurité nucléaire

Rapport

Résumé

Principales recommandations

Conséquences de l'accident de la centrale nucléaire de Tchernobyl et organisation de la sûreté et de la sécurité des installations nucléaires.

M. Jean-Marie RAUSCH, sénateur et M. Richard POUILLE, sénateur (1987)

Quatre mois après la catastrophe de Tchernobyl , il présente les enseignements que l'on peut en tirer pour la France.

« Afin d'assurer à la population une informations sur les problèmes nucléaires qui soit à la fois cohérente, crédible et reconnue par tous, il conviendrait de créer une Agence nationale de la sécurité et de l'information nucléaires »

Contrôle de la sûreté et de la sécurité des installations nucléaires.

M. Claude BIRRAUX, député et M. Franck SÉRUSCLAT, sénateur (1er rapport) (1990)

- les modalités de fonctionnement du contrôle de la sûreté et de la sécurité des installations nucléaires de base

- les suites qui sont données aux avis, aux observations et aux recommandations

- les conditions dans lesquelles l'information sur l'énergie nucléaire est diffusée et perçue

« L'ensemble des exploitants français [feront] l'objet d'audits OSART et d'examens ASSET de l'AIEA réguliers »

« Associer des experts indépendants aux analyses radioécologiques des sites à l'occasion des révisions décennales [...] et organiser des débats contradictoires avant la mise en service et pendant le fonctionnement de la centrale nucléaire »

« Assurer aux travailleurs extérieurs une protection égale à celle assurée aux travailleurs directement employés par les exploitants »

« Développer le rôle des Commissions locales d'information CLI »

Contrôle de la sûreté et de la sécurité des installations nucléaires.

M. Claude BIRRAUX, député (2e rapport) (1991)

L'organisation des administrations chargées du contrôle

L'instauration de commissions locales d'information et de surveillance autour des sites nucléaires civils.

« le rapport annuel établi par l'Inspecteur général de la sûreté nucléaire du CEA sur les installations nucléaires civiles de ce dernier est rendu public »

« à propos des opérations de maintenance et de la réforme en cours sur ce sujets à EDF, l'Office souligne l'importance des orientations actuelles en vertu desquelles les impératifs de sûreté priment en tout circonstance »

« Le CEA et l'IPSN renforcent leurs études et recherches sur le vieillissement des centrales »

Contrôle de la sûreté et de la sécurité des installations nucléaires.

M. Claude BIRRAUX, député (3e rapport) (1992)

A l'international : AIEA, contrôle de la sûreté des installations nucléaires en Europe centrale, niveau de sûreté des installations nucléaires dans les pays nouvellement industrialisés ou en voie de l'être.

En France , sur les rapports entre la sécurité civile et la sécurité nucléaire.

« Le Plan particulier d'intervention du site du Tricastin est complété par un chapitre concernant les incidents ou accidents chimiques, un autre chapitre traitant des incidents ou accidents à caractère mixte : nucléaire et chimique »

« Les départements voisins des départements d'implantation des installations nucléaires sont invités à prévoir des mesures minimum pour accompagner les plans d'urgence. »

«Le jumelage, au niveau européen, entre centrales de l'Est et centrales de l'Ouest »

Contrôle de la sûreté et de la sécurité des installations nucléaires.

M. Claude BIRRAUX, député (4e rapport) (1994)

300 000 colis radioactifs circulent chaque année en France.


Près de 30 000 travailleurs extérieurs interviennent sur les centrales nucléaires d'EDF : quel suivi dosimétrique et médical ?

L'arrêt de Superphénix

« La mise au point d'une Charte des transports des matières radioactives »

« L'autorité de radioprotection nucléaire attribue à chaque travailleur extérieur affecté à des travaux sous rayonnements ionisants un numéro national d'identification permanent et intangible, numéro porté sur sa carte de suivi médical et les divers documents nécessaires au suivi médico-réglementaire de tous les travailleurs de catégorie A »

« Les pouvoirs publics sont invités à renforcer l'action de l'inspection médicale du travail, autorité de contrôle de la médecine du travail ».

Le contrôle et la sûreté des installations nucléaires.

M. Claude BIRRAUX, député (5e rapport, 1994)

Démantèlement des grandes centrales électronucléaires .

Rejet des effluents radioactifs dans l'environnement.

« L'autorité de sûreté et l'autorité de radioprotection sont invitées à préciser leurs objectifs de sûreté et de sécurité vis-à-vis des différents scénarios de démantèlement susceptibles d'être proposés par les exploitants »

« L'obligation pour l'exploitant de présenter dans les documents soumis à l'enquête publique les évolutions probables des rejets radioactifs d'une installation nucléaire dus à son vieillissement »

Le contrôle et la sûreté des installations nucléaires.

M. Claude BIRRAUX, député (6e rapport, 1996)

Les effets des faibles doses de rayonnements ionisants

La gestion rigoureuse des déchets radioactifs , dont les résidus miniers et les effluents .

« L'autorité de radioprotection est invitée à réfléchir aux modalités d'application de la CIPR 60 pour les professions qui pourraient justifier d'un régime autre que celui de la limite dérivée de 20mSv par an en moyenne, tout en respectant la limite fondamentale de 1 Sv sur la vie entière. »

« L'inventaire national des déchets de très faible activité (TFA) devra être complété par tous les établissements susceptibles de générer ou d'avoir généré des déchets TFA »

« L'autorité de radioprotection, avec ses appuis techniques, est invitée à examiner la pertinence de la limite actuellement utilisée pour les émetteurs á à vie longue de la chaîne de U238 présents dans les poussières en suspension et dans l'air inhalé, au cas des résidus miniers »

« L'ANDRA est invitée à se joindre rapidement aux réflexions entreprises sur l'avenir des stockages des résidus, dans la perspective d'une prise en charge future de ces sites par la puissance publique »

« L'OPRI et le CEN Saclay sont invités à régler rapidement la divergence d'appréciation relative aux activités volumiques maximales autorisées pour les effluents liquides en sortie de la station de traitement »

Le contrôle et la sûreté des installations nucléaires.

M. Claude BIRRAUX, député (7e rapport, 1997)

La maintenance des réacteurs nucléaires

Le recours aux prestataires extérieurs

« EDF est invitée à supprimer toute sous-traitance pour les tâches qui relèvent directement de la responsabilité de l'exploitant nucléaire, en particulier dans les services de radioprotection »

« EDF doit demander à ses prestataires de faire connaître de façon exhaustive et à chaque instant les sous-traitants intervenants sur les sites, à quelque niveau de sous-traitance que ce soit »

« L'ensemble des partenaires du nucléaire (administrations, exploitants, prestataires, chercheurs, syndicats, CHSCT) est invité à organiser une enquête destinée à préciser de façon exhaustive, sur une base individuelle, le statut des travailleurs extérieurs intervenant sur les installations nucléaires, le lien avec leur exposition professionnelle et la stabilité de leur emploi »

Le contrôle et la sûreté des installations nucléaires.

M. Claude BIRRAUX, député (8e rapport, 1998)

Enjeux scientifiques, de sûreté et économiques du projet de réacteur nucléaire à eau pressurisée franco-allemand (EPR)

« Toutes les options ouvertes pour la définition d'une politique énergétique doit s'entendre de manière dynamique. Cette position implique le maintien des compétences de l'industrie nucléaire car le coût nécessaire à la reconstitution des compétences serait prohibitif. »

« Il est indispensable que les partenaires sociaux soient plus étroitement associés aux réflexions conduites. »

«  Il est nécessaire de mettre en place une procédure d'agrément préalable des projets de construction d'installation nucléaire de base. »

Le contrôle et la sûreté des installations nucléaires.

M. Claude BIRRAUX, député (9e rapport, 1999)

Des investigations demeurent nécessaires, en particulier dans les domaines de la radioprotection et de la sûreté des centrales des PECO .

La crédibilité de l'autorité de sûreté est établie.

La vigilance doit subsister, en particulier sur le démantèlement .

«  La politique conduite en matière de radioprotection doit relever de l'autorité politique et non de la cogestion avec l'exploitant »

« Au niveau international, une grande inquiétude s'est fait jour sur l'état de la sûreté des centrales des PECO [...] l'association des autorités de sûreté soit délégataire de la gestion des programmes d'aide aux centrales nucléaires des pays de l'Est [...] la sûreté nucléaire ne relève pas des compétences de l'Union européenne mais de la coopération intergouvernementale. »

«  Même si la perspective du démantèlement est à long terme, nous devons y consacrer une grande vigilance et du sérieux, présenter honnêtement les termes du débat »

«  Quel que soit le mode de financement retenu, aucune certitude ne peut être donnée sur la pérennité des sommes destinées au démantèlement. »

Le contrôle et la sûreté des installations nucléaires.

M. Claude BIRRAUX, député (10e rapport, 2000)

Analyse des incidents survenus à la centrale nucélaire du Blayais lors de la tempête du 27 décembre 1999.

Enseignements sur le risque d'inondation des installations nucléaires

«  Le réexamen de la situation de chaque site vis-à-vis du risque inondation [...]Les conclusions de ces analyses doivent être rendues publiques et, dans un souci de transparence, faire l'objet d'un débat devant les CLI. »

« Le concept de défense en profondeur doit être étendu en matière de lutte contre les éléments extérieurs :
1/ voies d'accès libres
2/ étanchéité de la plate-forme »

« Les préfets sont invités, à la lumière du retour d'expérience du Blayais, à réexaminer les conditions de mise en oeuvre des PPI, en liaison avec les CLI »

« Nous n'étions pas dans une situation dramatique car l'inondation du bâtiment combustible a affecté l'un des circuits de secours et non le réacteur proprement dit. »

« La simple honnêteté commande de souligner qu'à aucun moment il n'y a eu de risque d'accident majeur de type fusion du coeur et qu'aucune mesure de précaution concernant la population n'a du être envisagée. »

Les conséquences des installations de stockage des déchets nucléaires sur la santé publique et l'environnement
Mme Michèle RIVASI, députée (2000)

L'impact des installations de stockage des déchets nucléaires sur la santé publiqu e et l'environnement .

Les avancées scientifiques et techniques nécessaires ainsi que les améliorations juridiques et institutionnelles qu'il conviendrait d'apporter à la situation actuelle.

« En tout état de cause, les stratégies individuelles ne font pas une stratégie nationale. »

« Différentes catégories de déchets ne reçoivent toujours pas de solutions de stockage, alors que les volumes correspondants sont importants et que les situations d'attente ne peuvent que présenter une sûreté inférieure à celle de solutions spécifiquement adaptées à leur nature particulière. »

« Il s'agit aujourd'hui de mettre en place une politique nationale des déchets mais aussi des rejets radioactifs, dans la plus grande transparence et la plus grande rigueur. »

« Il faut enfin et surtout engager une recherche scientifique approfondie pour la minimisation rapide et drastique des rejets dans l'environnement »

Les possibilités d'entreposage à long terme de combustibles nucléaires irradiés
Christian BATAILLE, député (2001)

Etude des conditions dans lesquelles on pourra entreposer à long terme , de façon sûre et à des coûts économiquement supportables , le combustible qui restera ainsi en attente d'un futur retraitement ou d'un stockage définitif .

« Il est indispensable et urgent de donner un caractère législatif à un certain nombre de règles qui doivent régir ces activités qui commencent au moment du déchargement des combustibles irradiés et se poursuivent par le retraitement, l'entreposage, le recyclage et voire même par le stockage définitif. »

« Chaque pays doit rester responsable des éléments produits en aval du cycle, ce qui impose :
- de ne pas chercher à exporter ses déchets ou ses combustibles irradiés,
- de fixer des règles très précises à l'entrée et au séjour sur le sol français des combustibles étrangers destinés à être retraités »

«  L'ANDRA doit s'affirmer en qualité d'opérateur unique pour la gestion de tous les déchets nucléaires sans exception »

« l'organisation actuelle du financement du stockage des déchets, de l'entreposage des combustibles irradiés, et du démantèlement des installations hors d'usage par de simples provisions inscrites dans les comptes d'EDF ne constitue plus, à long terme, une solution satisfaisante »

Le contrôle de la sûreté et de la sécurité des installations nucléaires.

M. Claude BIRRAUX, député (11e rapport, 2001)

La reconversion des stocks de plutonium militaire

L'utilisation des aides accordées aux pays d'Europe centrale et orientale et aux Nouveaux Etats Indépendants

« L'avenir de la politique de retraitement à base du combustible MOX est aujourd'hui contesté par des remarques, souvent fondées, qui oublient de prendre en compte les problèmes dans leur globalité. [...] L'approche centrée sur le coût n'intègre pas la responsabilité des exploitants qui doivent à terme arriver à obtenir un cycle fermé sans déchets ni pollution. »

« L'OPECST considère que l'élimination du Pu d'origine militaire est une bonne décision pour la paix et la sécurité du monde. »

«  L'OPECST invite le Gouvernement à proposer à l'Union Européenne de concevoir ses actions dans une vision large incluant les aspects déchets ou environnementaux, en maintenant l'assistance lorsque nécessaire, et en impulsant le passage à la coopération qui valorise les compétences locales. »

Rapport sur la durée de vie des centrales nucléaires et les nouveaux types de réacteurs

de MM. Christian BATAILLE et Claude BIRRAUX, députés (2003)

La durée de fonctionnement restant à courir du parc électronucléaire d'EDF et l'état d'avancement des projets pouvant, le cas échéant et le moment venu, remplacer les réacteurs actuellement en service.

Les différents facteurs physiques ou immatériels agissant sur le vieillissement des centrales nucléaires et traite de la question de savoir si la durée de vie de conception de quarante ans pourra ou non être dépassée dans la pratique

Comparaisons internationales .

« Tout en réaffirmant le droit de regard permanent de l'autorité de sûreté et son droit de suspendre l'exploitation à tout moment, il serait avantageux

- d'étudier la possibilité de transformer la notion actuelle de non opposition au fonctionnement en autorisation de fonctionnement de principe

- de fixer la durée des autorisations de fonctionnement à 20 ans, sous réserve des inspections inopinées et d'examens de sûreté programmés. »

« EDF devra pouvoir à l'avenir mettre en oeuvre dans le domaine de la durée de vie une gestion différentielle de ses réacteurs, l'autorité de sûreté étant appelée à jouer tout son rôle pour contribuer à sélectionner les tranches dont l'exploitation sera étendue au maximum dans le temps et celles qu'il conviendra d'arrêter plus rapidement. »

« La France doit engager sans délai la construction d'un démonstrateur-tête de série EPR [...] Il appartiendra alors à l'industrie de prouver l'avenir et la compétitivité à long terme de l'EPR. »

«  le retraitement conserve un rôle essentiel dans la politique des déchets grâce à la réduction des volumes de stockage qu'il permet pour les déchets radioactifs de haute activité à vie longue. »

«  Pour la mise au point de solutions pour le grand futur de l'énergie, aucune filière ne devra être écartée a priori, ni la filière des réacteurs à très haute température ni celle des réacteurs à neutrons rapides. »

L'évaluation du plan national de matières et déchets radioactifs 2010-2012 (Déchets nucléaire : se méfier du paradoxe de la tranquillité)
Par MM. Christian BATAILLE et Claude BIRRAUX, députés
(2011)

Le domaine de la gestion des déchets nucléaires semble être en proie [...] au « paradoxe de la tranquillité ».

L'amélioration du contexte de la gestion des déchets nucléaires, [...] semble faire oublier aux acteurs industriels toutes les étapes antérieures qui ont été nécessaires pour atteindre progressivement ce palier d'échanges pacifiés. [...] Ce faisant, ils risquent de remettre en cause toute la crédibilité du dispositif.

« La transmutation doit rester au coeur des réflexions de conception sur les réacteurs de quatrième génération. »

« La construction des filières de stockages doit se poursuivre dans le cadre institutionnel prévu par la loi du 28 juin 2006. Nul n'étant sensé ignorer la loi ni s'en exonérer, les acteurs de la filière nucléaire doivent respecter les procédures de concertation mises en place par la loi Birraux précitée. »

« Les difficultés politiques rencontrées dans la démarche de mise en place d'un centre de stockage pour les déchets FA-VL ne doivent pas conduire à transiger sur les critères scientifiques de choix du ou des futurs sites. »

« Le Gouvernement doit créer, auprès de chaque cour administrative d'appel, un «tribunal de l'environnement», ayant compétence pour juger en première instance les contentieux attachés aux décisions administratives relatives aux questions d'environnement. »

« Le périmètre des entreprises du secteur nucléaire français doit être stabilisé sur les bases qui ont montré jusqu'ici leur pertinence. »

Page mise à jour le

Partager cette page