Allez au contenu, Allez à la navigation

COMPTES RENDUS DE L' OFFICE PARLEMENTAIRE D'EVALUATION DES CHOIX SCIENTIFIQUES ET TECHNOLOGIQUES


Jeudi 3 novembre 2011

- Présidence de M. Bruno Sido, premier vice-président -

Evolution de la consommation électrique et économie d'énergie

M. Bruno Sido, sénateur, premier vice-président, rapporteur. - Permettez-moi d'abord d'excuser Claude Birraux, dont l'état de santé l'oblige, pour la première fois, à renoncer à présider une audition.

La semaine dernière, nous avons eu l'opportunité de comparer les choix énergétiques de plusieurs pays européens, notamment ceux de l'Allemagne et de la Grande-Bretagne. Aujourd'hui, nous allons essayer de mieux appréhender l'évolution de la consommation électrique de notre pays et les possibilités en matière d'économies d'énergie. Nous nous intéresserons à la performance énergétique des bâtiments, secteur qui est loin d'être mineur, puisqu'il représente à lui seul 43 % de notre consommation énergétique.

C'est un sujet que Claude Birraux et Christian Bataille connaissent bien pour l'avoir déjà traité en 2009, dans le cadre d'un rapport de l'Office. Le législateur avait prévu à l'article 4 de la loi de programmation du 3 août 2009, relative à la mise en oeuvre du Grenelle de l'environnement, que l'Office soit chargé d'une étude sur la nouvelle réglementation technique des bâtiments, fixant un plafond de consommation annuelle d'énergie primaire de 50 kWh/m².

Le calendrier parlementaire avait déjà contraint les rapporteurs à travailler dans un contexte d'urgence. Malgré tout, en quatre mois, ils avaient réalisé une quarantaine d'auditions, pour moitié en France et pour moitié à l'étranger, de manière à prendre connaissance de l'expérience de nos voisins, en général bien plus avancés que nous sur ces questions.

Sur la base d'une analyse approfondie, Claude Birraux et Christian Bataille avaient émis plusieurs recommandations. Pour la plupart, elles tendaient à promouvoir une démarche équilibrée et réaliste, à faciliter l'innovation, du moins à ne pas la freiner inutilement par des rigidités réglementaires. Ils avaient également préconisé une approche pratique, sur le terrain, de la mesure de la performance énergétique des bâtiments, qui ne se limite pas à des calculs théoriques.

Les deux tables rondes de cette matinée ont pour objectif d'évaluer les progrès réalisés sur ces deux aspects depuis 2009 et d'identifier, le cas échéant, les points de blocage qui pourraient nous empêcher de rattraper notre retard. La première table ronde, consacrée aux enjeux de la normalisation technique, sera ouverte par deux représentants de la sous-direction de la qualité et de la réglementation technique de la construction, du ministère en charge de l'Écologie, du développement durable, des transports et du logement, désignés par ce ministère à la suite d'un courrier que Claude Birraux a adressé le 4 octobre 2011 à Mme Nathalie Kosciusko Morizet. Il s'agissait « d'éclairer les membres de la mission parlementaire sur deux dispositifs clés dans l'intégration des nouvelles technologies du bâtiment : d'une part, sa prise en compte au niveau du moteur de calcul réglementaire au titre de la procédure dite du « titre V », d'autre part, la formulation des avis techniques par le centre scientifique et technique du bâtiment ». Je donne donc la parole à M. Richard Danjou, adjoint du sous-directeur, et à Mme Marie-Christine Roger, chef du bureau de la réglementation technique et de la construction.

M. Richard Danjou, adjoint au sous-directeur, sous-direction de la qualité et du développement durable dans la construction, direction de l'habitat, de l'urbanisme et des paysages, au ministère de l'Écologie, du développement durable, des transports et du logement. - Nous avons prévu de vous rappeler les principaux points de la réglementation thermique (RT) 2012, la méthode de calcul qui a conduit au texte, et nous dirons quelques mots de la procédure dite « titre V », qui permet d'intégrer les nouveaux procédés, puis nous terminerons par le lien entre avis techniques et réglementation.

Mme Marie-Christine Roger, chef du bureau de la qualité et de la réglementation technique de la construction, sous-direction de la qualité et du développement durable dans la construction, direction de l'habitat, de l'urbanisme et des paysages, au ministère de l'Écologie, du développement durable, des transports et du logement. - C'est en 1974 qu'a été mise en place la première réglementation applicable aux bâtiments lors de leur construction, réglementation dont les exigences ont été régulièrement renforcées et les périmètres d'application étendus. J'ajoute que les modalités de cette réglementation ont été toujours élaborées par l'Etat, sur la base des travaux et des propositions des différentes parties prenantes, en particulier les professionnels et les industriels du bâtiment.

Pour les bâtiments neufs, les objectifs ont été inscrits à l'article 4 de la loi du 3 août 2009 relative à la mise en oeuvre du Grenelle de l'environnement. Plusieurs objectifs y sont consignés : une évolution technologique et industrielle significative dans la conception de l'isolation des bâtiments et pour chacune des filières énergétiques ; un bouquet énergétique équilibré, faiblement émetteur de gaz à effet de serre et contribuant à l'indépendance énergétique nationale. Deux objectifs sont inscrits dans la loi : ceux de la réglementation thermique 2012, mais aussi un horizon donné vers la réglementation thermique 2020.

La réglementation thermique 2012 stipule une consommation annuelle moyenne d'énergie primaire inférieure à 50 kWh/m² pour le parc de logement neuf, une modulation de l'exigence, en particulier en fonction de la localisation géographique, pour tenir compte du climat, des caractéristiques, de l'usage des bâtiments et des émissions de gaz à effet de serre. Par ailleurs, un besoin maximal en énergie des bâtiments sera l'objet d'un seuil défini pour la première fois dans une réglementation.

A l'horizon 2020, la réglementation vise les bâtiments à énergie positive, bâtiments qui, sauf exception, produiront plus d'énergie renouvelable qu'ils n'en consommeront, notamment en utilisant le bois-énergie.

J'en viens au label bâtiment basse consommation (BBC) 2005, qui nous a servi de socle. Au fur et à mesure des années, depuis 2007, on a vu le nombre de logements labellisés BBC croître : 800 en 2007, 2500 en 2010, 20 000 en 2009, 100 000 en 2010 - autant sur les six premiers mois de l'année 2011.

Ce label s'est calé sur trois zones climatiques pour la France - H1, H2 et H3 - H2 désignant la zone de climat océanique, H1 le nord et l'est du pays, H3 la Méditerranée. En zone très froide, le label BBC est fixé à 60 kWh/m², à 40 kWh/m² en zone méditerranéenne.

Comment avons-nous procédé ? De nombreux groupes de travail constitués d'experts ont été sollicités, représentants les professionnels du secteur du bâtiment - maîtres d'ouvrage, industriels, architectes, bureaux d'étude, artisans, entreprises et ONG. Au fur et à mesure de l'avancée des travaux, des consultations publiques périodiques ont été organisées, élargies à l'ensemble des différents acteurs. Puis nous avons mis en place un groupe de travail dit « applicateurs », en faisant travailler des experts de la réglementation, en particulier des bureaux d'étude thermique, pour simuler sur plusieurs milliers de cas le logiciel de calcul. Pour cela, nous avons bien entendu utilisé le rapport de l'OPECST sur la performance énergétique des bâtiments.

Nous avons pris en compte plusieurs recommandations. Premièrement, le maintien des coefficients de conversion entre énergie primaire et énergie finale, de 2,58 pour l'électricité et 1 pour les autres énergies. Deuxièmement, l'affichage des émissions de CO2 en 2012, étant entendu qu'on vise pour 2020 un seuil qui sera inscrit dans la réglementation thermique. A ce jour, je le rappelle, aucun consensus scientifique ne se dégage sur le contenu en CO2 de certaines énergies, raison pour laquelle il a été décidé de reporter le travail en 2020. Troisièmement, faire la part entre la performance du bâti et la prise en compte de l'énergie par électricité photovoltaïque. Quatrièmement, une modulation selon la localisation ou l'altitude. Cinquièmement, l'introduction d'une exigence de confort d'été. Sixièmement, la modulation des exigences en fonction de la surface des bâtiments. Septième, huitième et neuvième recommandations : le suivi des consommations énergétiques dans les logements. Nous avons enfin pris en compte la dix-huitième recommandation : le contrôle de la perméabilité à l'air des bâtiments.

S'agissant du calendrier, un premier décret relatif aux caractéristiques thermiques et à la performance a été publié le 26 octobre 2010, de manière à ce que les professionnels puissent prendre connaissance des textes très en amont et se les approprier. Dans la foulée, ont été publiés l'arrêté du 26 octobre 2010 relatif aux caractéristiques thermiques et aux exigences de performance énergétique des bâtiments nouveaux et des parties nouvelles de bâtiments, et l'arrêté du 20 juillet 2011 portant approbation de la méthode de calcul Th-B-C-E 2012.

Ces premiers textes concernent la plus grande partie du parc : les bâtiments à usage d'habitation, les bureaux, les bâtiments d'enseignement et les crèches. Un deuxième arrêté est en cours d'élaboration pour d'autres bâtiments : hôtelleries, bâtiments de restauration, universités, palais de justice, équipements sportifs, aéroports, hôpitaux et bâtiments commerciaux, où les consommations sont très élevées.

Pour la grande majorité de ce parc, la date d'entrée en vigueur des exigences législatives se fera au 1er janvier 2013. Cela dit, le coeur de la réglementation repose sur trois exigences. Premièrement, le besoin bioclimatique répond à l'objectif de concevoir un bâtiment pour l'optimiser, en particulier pour qu'il ait accès aux apports solaires, de manière à éviter des consommations de chauffage inutile. C'est ainsi qu'un bâtiment avec des surfaces vitrées orientées au sud sera bien optimisé. Je n'insisterai pas sur l'exigence Cepmax, rappelant que l'exigence de consommation maximale annuelle de 50 kWh/m² s'évalue non seulement pour la consommation de chauffage, mais aussi, particularité française, pour la production d'eau chaude sanitaire et la consommation des auxiliaires.

Nous avons d'autres exigences, en particulier le traitement de l'étanchéité à l'air. Pour accélérer le développement des énergies renouvelables, la production d'eau chaude sanitaire devra se faire via les énergies renouvelables (EnR). Pour un bon usage du bâtiment, le comptage des consommations d'énergie devra se faire par usage dans les logements. La consommation d'énergie primaire avant déduction de production d'électricité à demeure est également bornée.

La règle des 50 kWh/m² admet quelques souplesses, en particulier pour les logements collectifs, qu'il ne faut pas pénaliser par rapport à la maison individuelle. Jusqu'au 1er janvier 2015, le temps de l'appropriation de la réglementation par les maîtres d'ouvrage, l'exigence de consommation sera augmentée jusqu'à 75kWh/m².

Vous trouverez dans mes transparents quelques simulations sur une petite maison coeur de cible en primo-accédant de 90 m², destinées à montrer, à la demande de la ministre, que les différentes solutions : pompe à chaleur, chaudière à condensation, chaudière bois ou effet joule, se positionnent toutes correctement en termes de coût global. Par rapport à un bâtiment construit en 2005, les surcoûts varient entre 7,5 et 10 %. Certaines solutions, comme le bois en climat méditerranéen, ont du mal à se positionner. L'effet joule tire par contre son épingle du jeu.

Il faut revenir sur la méthode de calcul, point sur lequel perdurent les idées préconçues. Comme pour toute méthode de calcul, des paramètres sont fixés a priori. Certains sont indépendants et inconnus lors de la conception du bâtiment, comme le nombre d'occupants, la température de consigne de chauffage et de refroidissement. Ils sont saisis par l'utilisateur et inscrits directement dans la méthode de calcul.

La méthode de calcul n'est pas prédictive et n'a pas pour vocation à faire un calcul de consommation réelle, compte tenu du nombre de conventions retenues, par définition important. Pour le climat, on prend en considération les données climatiques des dernières années. L'objectif est de fournir une évaluation de la performance énergétique globale du bâtiment, au moment de sa construction, compte tenu des niveaux de prestation sur le bâti et les équipements.

Faute de temps, je ne dirai rien sur le titre V, sauf pour rappeler qu'une commission d'experts se réunit pour étudier les dossiers après instruction technique.

S'agissant de la réglementation thermique sur l'existant, dès qu'on atteint un seuil en montant de travaux et une surface de 1 000 m², on demande que le bâtiment atteigne une certaine performance après travaux. Même lorsqu'on réalise de petits travaux, on doit utiliser des équipements performants ou mettre en place des double-vitrages d'une certaine performance. Tout le champ de l'existant est couvert par une réglementation thermique.

Les avis techniques n'ont pas de rapport direct avec la réglementation thermique et le calcul de la performance. Ils sanctionnent une aptitude à l'usage de nouveaux produits, pas seulement sur le plan thermique.

En conclusion, la France, pays le plus avancé en termes de réglementation, se positionne plus qu'honorablement au plan européen.

M. Bruno Sido, sénateur, rapporteur. - La parole est à M. Vekemans. Comment le concept de maison passive, à très basse consommation, parvient-il à s'inscrire dans le contexte législatif et réglementaire français et européen ?

M. Etienne Vekemans, président de l'association Maison Passive France. -  Maison Passive France est une association créée il y a cinq ans, qui vise la promotion du concept européen de maison passive, laquelle fêtera cette année ses vingt ans d'existence. Le but est de construire des bâtiments peu consommateurs d'énergie, très confortables et accessibles au marché.

Ce concept se développe particulièrement en Europe, mais aussi dans d'autres pays du monde, tous les pays qui sont concernés par le réchauffement climatique et l'épuisement des ressources. Il s'agit de trouver une solution pour des bâtiments qui répondent aux besoins de l'humanité de demain. J'ajoute que ce concept se développe à côté des réglementations nationales, ce dans certains pays.

Notre association est citoyenne. Elle compte plus d'un demi millier de membres à jour de leur cotisation. Nous faisons la promotion de ce concept par le biais de l'information, de la formation et de la certification, les bâtiments devant passer des tests qualité. De fait, on récence plus de 500 bâtiments passifs en France, concept qui s'adapte aussi bien au neuf qu'à la rénovation, aussi bien à l'individuel qu'au collectif. Un bâtiment rénové passif permet une division par dix de sa consommation totale, preuve qu'avec de l'effort, on peut construire des bâtiments satisfaisants pour l'avenir de l'humanité.

En France, la construction passive se fait sans subventions nationales, certains bénéficiant cependant de subventions départementales. Un projet européen, mis en place en 2007, a eu pour objectif d'accélérer le mouvement, en aidant ceux qui veulent aller au-delà de la réglementation. On peut ainsi distinguer en Europe un croissant bleu, allant de Rotterdam à Milan, composé de pays très actifs dans le développement du passif. L'Autriche est à cet égard un modèle, chaque région de ce pays déterminant son mode de subvention. Ainsi, le Tyrol subventionne la construction passive de manière assez exemplaire. Un land comme le Voralberg, qui a décidé depuis longtemps de subventionner le bâtiment passif, par le biais des constructions des bailleurs sociaux, est à suivre tout particulièrement. Du coup, après dix ans de subventions, on constate une réduction réelle de la consommation du bâtiment dans ce land. C'est la preuve que nous ne sommes pas face à un destin d'augmentation constante des consommations, et qu'on peut arriver à les freiner.

L'Allemagne, de son côté, a mis en oeuvre un autre système de subventions, organisé par la Caisse des dépôts et consignations allemande, sous la forme de prêts bonifiés à 1 % sur vingt ans, taux particulièrement intéressant, qui permet d'économiser des montants de l'ordre de 10 à 20 000 € par rapport au système financier classique.

La Belgique est également un pays très intéressant. Le passif y est non seulement réglementaire, mais aussi aidé. Trois types de subventions ont été prévues : à l'échelon fédéral, la construction passive bénéficie de 850 € de crédits d'impôt sur dix ans, auxquels s'ajoutent des subventions régionales. Certaines provinces, enfin, apportent des subventions supplémentaires.

La République tchèque, pour sa part, n'accorde des subventions que pour le bâtiment passif, le bâtiment à basse consommation n'y étant plus subventionné. Des pays comme la Slovaquie ou la Slovénie sont moins exigeants.

Pour l'heure, l'Angleterre reste très « libérale » vis-à-vis du passif, mais il faut dire qu'elle est partie plus tardivement que l'Europe continentale sur ces questions de performance énergétique.

M. Bruno Sido, sénateur, rapporteur. - La parole est à M. Pierre-Louis François. Comment la réglementation RT 2012 a-t-elle été prise en compte par les fabricants d'équipement thermique français ?

M. Pierre-Louis François, président du directoire, Groupe Atlantic. - Que s'est-il passé depuis trois ans en matière d'équipement et de matériel de chauffage, d'eau chaude, de ventilation et de refroidissement ? Comment les énergies ont-elles évolué dans le bâtiment ces trois dernières années ? Quelles évolutions, en fonction des conditions de mise en oeuvre des normes BBC et du « titre V », du succès et des échecs des industriels, et des conditions économiques ?

De fait, on dispose d'assez bonnes références en collectif, puisqu'à 70 %, il est construit selon la norme BBC, contre 60 % pour les maisons individuelles groupées, une maison individuelle isolée seulement sur dix étant construite aujourd'hui selon cette norme.

Pour imaginer la suite, il faut partir du décret d'application de la loi Grenelle et des arrêtés « exigences » et « méthode ».

En matière de thermodynamique chauffage, la pompe à chaleur à boucle eau chaude a souvent été considérée comme le vecteur principal d'innovation technologique. En gros, un logement sur dix est construit avec une pompe à chaleur. Paradoxalement, et pour plusieurs raisons, les chiffres sont en baisse ces trois dernières années, un pic à 16 % ayant été observé en 2008. Pour l'essentiel, ces pompes à chaleur sont placées en maison individuelle. Pour le collectif, deux logements sur cent sont équipés d'une pompe à chaleur.

En matière de chauffage, il faut savoir que le marché français de la pompe à chaleur a nettement reculé ces trois dernières années : il a été divisé par 2,5. Il a régressé beaucoup plus fortement que dans d'autres pays européens : Suisse, Allemagne, Autriche ou Suède. A noter que les technologies thermodynamiques hybrides ne sont pas référencées à ce jour dans l'arrêté « méthode ».

L'eau chaude étant devenue la consommation principale, que s'est-il passé en la matière ? De fait, les technologies thermodynamiques se développent pour la maison individuelle, pas encore pour le collectif, car elles n'ont pas encore été référencées dans le « titre V ». Une maison sur dix est construite avec une eau chaude sanitaire (ECS) utilisant les énergies renouvelables, dont la moitié par chauffe-eau thermodynamique, et une autre moitié par chauffe-eau solaire, pourcentage qui n'a pas beaucoup évolué entre 2010 et 2011. Aussi la RT 2012 devrait-elle changer les choses, puisqu'elle instaure une obligation. Au vu des premiers éléments sur les arrêtés « exigences et méthode », on peut penser que la part du solaire augmente plus que la part du thermodynamique, mais la question reste ouverte.

Nous observons que les particuliers sont demandeurs d'ECS utilisant des EnR, le thermodynamique tendant à devenir dominant. Pour le collectif, le thermodynamique et la pompe à chaleur ne se développent pas, faute de référencement. Le BBC a par contre fait décoller le chauffe-eau solaire collectif. Au vu des premières analyses de l'arrêté « méthode », il semblerait que la partie solaire pourrait régresser.

J'en viens au gaz naturel. Depuis trois ans, il a pris, hors zone raccordable à un réseau de chaleur, une place quasi hégémonique en logement collectif et dominante en maison individuelle groupée. L'accès au réseau de distribution de gaz - donc la part du gaz - reste marginal en maison individuelle isolée. En matière de technologie gaz, en maison individuelle, la chaudière murale gaz 23 kW reste le produit dominant. Les versions dotées d'un échangeur à condensation et d'un brûleur modulant à prémélange achèvent de s'imposer : de 28% des logements gaz en 2006 et 60% en 2008, les technologies basculent à 90% en condensation en 2010. La percée du chauffage collectif gaz en BBC pourrait s'interrompre en RT 2012, de même que celle de l'ECS solaire thermique.

La ventilation est un poste de plus en plus important, les deux principales consommations n'étant plus le chauffage, mais l'eau chaude et la ventilation. En la matière, des technologies performantes se développent. En maison individuelle, une maison sur quatre est équipée d'une ventilation qu'on peut qualifier de performante : double flux à moteur à commutation électronique. A l'inverse, pour le collectif, le mouvement est beaucoup plus lent, la mise en place de la RT 2012 ne devant pas entraîner d'inflexion majeure.

En conclusion, on constate une montée du gaz en logement collectif, qui s'effectue au détriment de l'électricité. Les réseaux de chaleur se développent de façon encore limitée : 5,6 % sur le premier semestre 2011 contre 5,0 % en 2010 et 3,7 % en 2009. Le bois se stabilise en maison individuelle isolée à 13 %. Dans le contexte actuel, il est difficile de prévoir pour des questions de coûts ce que va être l'équipement des maisons individuelles isolées en 2012-2013. Vous trouverez enfin dans votre dossier une comparaison entre pays européens.

M. Bruno Sido, sénateur, rapporteur. - La parole est à MM. Laurent Thierry et Mark Salt.

M. Laurent Thierry, président directeur général, Actis. - La société Actis, que je dirige, est spécialisée dans la fabrication des isolants dans le sud de la France. Nos usines sont situées dans la région Midi-Pyrénées et Languedoc-Roussillon. Nous fabriquons des isolants minces, domaine dans lequel nous sommes innovants, et, depuis 2008, des isolants à base de fibres de bois.

Notre présentation portera sur la performance mesurée des isolants et la stratégie suivie depuis quelques années par le gouvernement pour conduire la réglementation thermique. Le gouvernement dispose de plusieurs leviers pour réduire les gaz à effet de serre, dont près de 43% proviennent du bâtiment. Il s'agit de la réglementation thermique, les incitations fiscales, et les diagnostics et performances énergétiques pour vérifier la performance des systèmes.

L'évolution de la réglementation thermique depuis 1974 montre que l'augmentation de l'épaisseur des isolants dans les bâtiments a été multipliée de façon importante, alors que la performance pour le consommateur n'a été accrue que de 3 %. Les ventes de laines minérales, elles, suivent celles de l'épaisseur des isolants, les chiffres d'affaires des entreprises passant en quarante ans de 200 millions d'euros à 1,2 milliards d'euros.

L'étanchéité est un autre facteur important dans la performance des bâtiments. La réglementation thermique, il faut le savoir, ne se mesure qu'en laboratoire, donc dans des conditions statiques. Or un chercheur américain, David Yarbrough, a montré que la résistance thermique d'un isolant à l'air chutait de 25 % lorsque le flux d'air et le flux de chaleur vont dans le même sens, de 80 % lorsque ces deux flux vont en sens contraire. La RT 2012 a d'ailleurs pris en compte cet élément, l'étanchéité étant au coeur du dispositif. Le neuf sera ainsi soumis à une obligation de résultat, document à l'appui. Sans polémiquer, pourquoi avoir attendu quarante ans pour mettre l'étanchéité au centre du dispositif, alors que les pays d'Europe du nord ont mis en oeuvre depuis longtemps des systèmes de contrôle d'étanchéité ? Il faut aussi savoir que 92 % des isolants vendus en France sont épais, dont 65 % de laines minérales, isolants dont la pose exige un écran d'ossature et un pare vapeur. A défaut, la résistance thermique du matériau dans une toiture tombe de 5 à 1.

Il est donc essentiel de mesurer la performance des isolants en situation réelle. La RT 2012 va dans le bon sens, ayant mis l'étanchéité au centre du dispositif, mais elle reste insuffisante. C'est une étape majeure, qui ne s'adresse qu'au secteur de la construction neuve, alors que la vraie problématique se pose dans la rénovation, avec près de 20 millions de logements peu ou pas isolés. Il est donc indispensable que l'approche globale de la RT 2012 soit étendue immédiatement aux bâtiments existants pour éviter que l'approche « élément par élément » de la RT dans l'existant perdure. J'ajoute que les fabricants d'isolants minces que nous sommes ont une réponse adaptée à ce type de bâtiment, avec un produit qui assure l'étanchéité sur le bâti, qui a un niveau de résistance thermique suffisant et qui permet d'économiser des mètres carrés.

Il est également urgent d'évaluer autrement la performance des isolants, seul le CSTB procédant jusqu'à présent à celle-ci. Or depuis juillet 2011, le laboratoire anglais BM TRADA a été accrédité par les organismes de certification, et peut servir d'alternative.

M. Mark Salt, directeur technique, BM TRADA Group (traduction). - BM TRADA est une société de certification reconnue comme indépendante. Elle emploie près de 250 personnes et a émis pas moins de 10 000 certificats à travers le monde. Notre chiffre d'affaire avoisine les 30 millions d'euros, avec une croissance de 10 % par an au cours des six dernières années, rythme de croisière que nous pensons poursuivre. J'ajoute que, depuis juillet 2011, nous avons été accrédités par l'organisme européen en charge de l'agrément pour les produits innovants, afin d'évaluer la performance thermique et délivrer les agréments techniques nationaux pour les produits.

M. Bruno Sido, sénateur, rapporteur. - Des progrès restent donc à faire dans le domaine de la normalisation technique, si nous voulons avoir une chance de rattraper notre retard dans la performance énergétique des bâtiments.

Cela dit, le débat est ouvert. Comment la réglementation 2012 intègre-t-elle le modèle de la maison passive ? M. Vekemans nous a dit que les aides en Allemagne étaient accordées sur des performances mesurées, qui permettent d'intégrer un effort dans le bon sens, sans passer par des calculs théoriques réglementaires. Qu'en sera-t-il en France à partir de 2013 ?

Mme Marie-Christine Roger. - Dans le système français, les aides sont accordées pour des bâtiments labellisés d'un niveau supérieur au niveau réglementaire. Dès lors que la réglementation 2012 sera applicable à l'ensemble des bâtiments, il ne pourra pas y avoir d'aide de l'Etat, sauf évolution de la législation. Une consommation d'énergie primaire inférieure à 50 kWh/m².an en moyenne, cela signifie qu'une maison individuelle ne dépassera pas 15 kWh/m².an en moyenne en chauffage, les niveaux entre la maison passive et la maison à basse consommation étant à peu près identiques. J'ajoute que les maisons seront équipées de compteurs pour mesurer la performance.

Cela dit, il y a aura toujours des écarts, dans la mesure où les températures ne sont pas les mêmes sur tout le territoire. On pourrait imaginer un système, comme on le fait de manière expérimentale, qui prendrait en compte l'occupation réelle des bâtiments, et adapterait certains paramètres de la méthode. Enfin, les tests d'étanchéité à l'air seront obligatoires à la livraison du bâtiment. Nous encourageons les démarches qualité engagées par des constructeurs de maison individuelle pour que ces tests d'étanchéité à l'air soient réalisés au fur et à mesure du chantier.

Bref, pour l'instant, et pour répondre à votre question, nous n'avons pas encore réfléchi à des aides mises en place a posteriori, à partir d'une mesure de la consommation.

M. Bruno Sido, sénateur, rapporteur. - Nous venons d'apprendre que les installations de pompe à chaleur au cours des années récentes étaient en recul. Comment expliquer ce mouvement à rebours, au regard de l'objectif d'une mobilisation intense des meilleures technologies au service de la meilleure performance énergétique ? Comment analysez-vous ce recul ?

Mme Marie-Christine Roger. - Dans la période 2005-2008, de simple application de la réglementation précédente, on a observé un recul des systèmes de chaudière à basse température et à condensation, et une montée des pompes à chaleur. Puis on a assisté à une redescente. Sur les exigences de 15 kWh/m².an pour le chauffage et 20 kWh/m².an pour l'eau chaude, la pompe à chaleur est aussi bien positionnée que la chaudière à condensation. M. François a mis en avant, pour certaines technologies, des solutions pas bien calées dans les titres V. Nous y travaillons, de manière à ce que tous les systèmes soient sur un pied d'égalité.

M. Bruno Sido, sénateur, rapporteur. - M. François a évoqué la difficulté de la pénétration des ventilations double flux, notamment dans les bâtiments collectifs. N'est-ce pas inquiétant au regard de l'objectif d'une forte isolation, qui suppose la gestion contrôlée de l'air qui entre et sort, sans compter les fuites du bâtiment ?

Mme Marie-Christine Roger. - Mettre en avant une forte étanchéité à l'air, c'est corriger les manques de l'application des réglementations précédentes, comme entend le faire la réglementation thermique 2012. Pour autant, on ne transformera pas le bâtiment en bouteille thermos. Sans vouloir polémiquer, je ne souscris pas aux propos de M. Thierry. Dans la réglementation thermique 2012, on n'impose pas un « R » de telle ou telle valeur. On n'impose pas de minimum dans l'épaisseur des isolants. Mais on demande que les déperditions soient limitées.

Quant à la ventilation double-flux, elle est en effet beaucoup plus facile à mettre en oeuvre dans la maison individuelle. Pour le collectif, les installations exigent des systèmes de sécurité, pas encore mis en place. J'ajoute qu'un tel système est plus contraignant, notamment pour les petits logements, bien plus qu'un système de contrôle classique, bien adapté pour des climats méditerranéens. Dans de tels climats, il est inutile de traquer les kWh, comme on le fait pour le nord-est de la France. Pour un climat de type continental, on ne gagnerait que quelques kWh par mètre carré. L'enjeu est différent pour les climats de l'Europe du nord.

M. Pierre-Louis François. - Comment expliquer de telles évolutions ? En 2009, le prix de l'énergie est retombé. Parallèlement, les crédits d'impôt ont été revus à la baisse. Si on peut le comprendre, il faut regretter les instabilités réglementaires ou fiscales, qui entrainent une grande confusion sur le terrain. J'ajoute que la filière, qu'il s'agisse des industriels ou des installateurs, est sans doute montée trop vite en puissance, évolution qui est à l'origine d'erreurs et de déceptions chez le client final. Enfin, il faut reconnaître que les procédures du titre V ont eu du mal à se mettre en oeuvre. Il a fallu ainsi deux ans et demi pour que les pompes à chaleur de service soient référencées. Les pompes à chaleur géothermiques, technologie qui existe depuis longtemps, ne sont toujours pas prises en compte. Par ailleurs, si l'innovation est supposée favorisée, les processus réglementaires sont de fait très longs. A mon sens, ces trois facteurs sont responsables à part égale de la chute du marché. Même analyse pour le chauffe-eau thermodynamique, solution potentielle, mais qui ne peut se mettre en oeuvre aujourd'hui, faute de titre V.

Quant à la VMC en collectif, elle n'est pas simple, étant entendu qu'il ne faut pas aller trop vite dans des solutions mal faites. A vouloir aller trop vite, on perd du temps, comme dans la célèbre fable. Il faut s'attaquer sérieusement au sujet, performance énergétique et enjeu de santé obligent. Dans les faits, les problèmes de qualité de l'air sont beaucoup plus concentrés en appartement qu'en maison. Allons-nous vers une étanchéité plus forte, avec les mêmes systèmes de ventilation, notamment sans double flux ? C'est un fait que les technologies performantes de ventilation ont un coût. Reste que l'enjeu de santé est au moins aussi important que l'enjeu énergétique.

M. Philippe Saint Raymond, membre du comité d'experts. - Ma question s'adresse à Mme Roger. Faute de temps, vous n'avez pas développé les mesures pour l'habitat existant. C'est pourtant un enjeu essentiel, le taux de renouvellement de l'habitat étant très faible, alors que le gisement d'économies d'énergie se trouve dans l'habitat existant. Pourriez-vous nous en dire plus ?

Mme Marie-Christine Roger. -En la matière, nous avons mis au point une réglementation thermique, tout comme nos collègues européens, le sujet relevant d'une directive européenne. Dès qu'on réalise des travaux d'un montant relativement faible, de l'ordre de 300 euros par mètre carré, on doit atteindre une performance globale. A titre d'exemple, la performance demandée est en moyenne de l'ordre d'une centaine de kWh/m².an. On dispose aussi d'un système de label, où l'on atteint 80 kWh/m².an. C'est un saut considérable, nombre de nos bâtiments étant classés autour de 500 kWh/m².an. Quant au levier des aides, il est très développé. Le crédit d'impôt, avec ses forces et ses faiblesses, aura tout de même permis de rénover 7 millions de logements, sur 26 millions de résidences principales, dont la moitié en résidences individuelles. Pour les copropriétés, nous sommes en train de mettre en place des décrets d'application de la loi Grenelle II, avec obligation d'un audit et envisageons aussi un plan de travaux ou un contrat de performance énergétique.

On le voit, il s'agit d'une mise en mouvement et d'une dynamique pour disposer d'outils appropriés par segments. Typiquement, la réglementation dans l'existant pour les bâtiments de plus de 1 000 m² sera passée à 500 m², pour un impact sur les bâtiments public. Nous travaillons enfin sur les décrets d'application Grenelle I relatifs aux obligations de travaux dans tous les bâtiments tertiaires, soit 800 millions de m², dont 500 millions de m² de bâtiment de l'Etat et des collectivités locales et près de 400 millions de m² de bureaux et de commerces. C'est donc une mosaïque de mesures qui est à l'oeuvre pour l'existant.

M. Robert Meras. - Les enjeux, on vient de le constater, portent sur l'isolation des bâtiments anciens. A mon sens, la politique du gouvernement est incohérente en matière de crédit d'impôt. Ce qui est recherché, c'est l'efficacité du bâtiment et de la consommation d'énergie. Or pour bénéficier du crédit d'impôt, vous devez être en mesure d'afficher auprès du centre des impôts la pause d'un isolant, dont la résistance thermique est supérieure à 5. Autrement dit, la RT 2012 pose des conditions d'efficacité de consommation d'énergie, alors que l'incitation fiscale repose sur la résistance thermique du produit. Or celle-ci n'est pas une condition essentielle à l'efficacité de la consommation d'énergie d'un bâtiment. Tout cela milite pour donner des crédits d'impôt en fonction des résultats obtenus, une fois l'isolation réalisée.

Mme Marie-Christine Roger. - L'éco-prêt à taux zéro repose sur la performance globale. Et pourtant, on peine à le distribuer. Comment donc mettre au point l'outil le plus approprié ? Une fois mis en place, comment le contrôler ? Mettre un crédit d'impôt en place avec un calcul de performance globale ? Quoi qu'il en soit, nous sommes bien conscients de l'imperfection d'une exigence élément par élément.

M. Jean-Pierre Tardieu. - On distingue mal les dispositifs qui privilégient l'électricité et le gaz. En France, l'électricité est beaucoup plus développée que chez nos voisins. En quoi notre politique créée-t-elle une pointe énergétique qui modifiera l'ensemble du système énergétique de la France ?

M. Bruno Sido, sénateur, rapporteur. - C'est en effet le coeur du sujet, qui sera abordé par une autre table ronde.

M. Pierre-Louis François. - S'agissant de la ventilation collective, on n'a pas compris une disposition des réglementations thermiques précédentes qui favorisait la filtration. Pour une raison inconnue, elle a été supprimée, alors que cette disposition permettait de favoriser l'échange thermique.

M. Etienne Vekemans. - Quelques précisions sur les ventilations et les outils de calcul. Plusieurs exemples de ventilation en collectif double flux fonctionnent très bien. En Hollande, le double flux représente 50 % du marché de la ventilation. Comment prétendre que ce procédé ne fonctionne pas bien pour le collectif ? C'est probablement, pour la France, une question de manque de compétences. Or ce type de ventilation devient une exigence de plus en plus forte, dans la mesure où les bâtiments deviennent de plus en plus étanches. Sans apport d'air neuf, les gens vont étouffer. Si on accroît l'étanchéité, des ventilations qui apportent de l'air neuf et extraient de l'air vicié doivent être mises en place.

S'agissant enfin des moteurs de calcul, ils visent à donner des consommations réelles. La comparaison avec le moteur réglementaire est très délicate, les kWh produits par le réglementaire n'étant pas des kWh réels. Comment comparer les « pommes » du réglementaire et les « poires » du passif ? C'est un combat de boxe qui n'en finit pas et qui n'a aucun sens. Une fois par an, nous organisons un salon, le prochain devant avoir lieu au parc floral de Vincennes les 14 et 15 décembre 2011. Ce sera pour nous une occasion de présenter des comparaisons entre le passif et le réglementaire, les consommations réelles et réglementaires étant complémentaires.

M. Laurent Thierry. - Actis est une société innovante, qui consacre 6 % de son budget à la R&D. S'agissant du double flux, nous avons réalisé de nouveaux produits, que nous présenterons au salon Batimat la semaine prochaine, produits faits de systèmes pariétaux-dynamiques. L'étanchéité des bâtiments deviendra de plus en plus importante, ce qui exigera de renouveler l'air. Mais il existe également des systèmes qui permettent de récupérer l'air extérieur, pour le faire passer le long d'un isolant et le réinjecter, comme dans le double flux. Cela dit, proposer des produits innovants est une chose, la certification et l'agrément une autre. En France, c'est un fait que ces procédures sont extrêmement complexes. Le laboratoire BM TRADA, encore une fois, offre une alternative.

M. Christian Bataille, député, rapporteur. - L'objectif d'une performance mesurée est un problème que nous avions relevé avec Claude Birraux dans notre rapport de 2009. Nous n'avions alors rien inventé. La mesure de la performance énergétique, après construction d'un bâtiment, est en effet obligatoire depuis de nombreuses années en Allemagne, aussi bien qu'en Suisse. Il s'agit évidemment d'une démarche de bon sens : comment peut-on espérer atteindre une réelle performance énergétique en se contentant d'appliquer des règles et des normes sans jamais constater les résultats obtenus ? Nous n'avions sans doute pas été suffisamment convaincants pour que notre recommandation sur ce point soit prise en compte dans la réglementation par le ministère en charge de l'Écologie et du développement durable.

C'est donc à des fins pédagogiques que nous avons demandé à plusieurs professionnels du secteur de nous apporter leur vision sur cette question. Nous commencerons par entendre Mme Brigitte Vu, ingénieur en efficacité énergétique des bâtiments, qui nous fera part de ses convictions sur la nécessité d'un contrôle de la performance énergétique après construction.

Mme Brigitte Vu, ingénieur en efficacité énergétique des bâtiments, BATIRECO-BBC, Bureau d'étude thermique et efficacité énergétique. - Mon propos portera sur la performance énergétique mesurée dans les bâtiments, au regard de mon expérience des dernières années.

La réglementation thermique 2012 s'adresse depuis le 28 octobre 2011 aux bâtiments non résidentiels et aux bâtiments construits dans les zones définies par l'Agence nationale pour la rénovation urbaine (ANRU). La labellisation BBC RT 2005 a préfiguré la réglementation thermique 2012. Or, force est de constater que seuls 4 % des permis de construire déposés depuis octobre 2006, date d'entrée en vigueur de la réglementation thermique 2005, ont obtenu le label. L'objectif de la RT 2012, je le rappelle, est d'atteindre 96 % de bâtiments RT 2012 d'ici fin 2014-2015. Le chemin est donc encore long.

La RT 2012 est une étape supplémentaire dans l'évolution réglementaire concernant le bâtiment. Le pas qui sera franchi est extrêmement important, dans la mesure où il s'agit de diviser par trois les consommations énergétiques des bâtiments neufs d'ici deux à trois ans. Le renforcement des contrôles est pris en compte dans le cadre de cette réglementation thermique 2012, dans la mesure où il est nécessaire d'avoir une attestation de prise en compte de la réglementation thermique à deux étapes clés, ce qui n'était pas le cas jusqu'à présent, lors de la demande du permis de construire et de l'achèvement du bâtiment.

On demande aujourd'hui d'atteindre certaines performances, alors qu'elles sont atteintes sur un bâtiment virtuel. Que ce soit dans le cadre d'une labellisation BBC RT 2005 ou d'une RT 2012, on demande au maître d'ouvrage de réaliser une étude thermique virtuelle, en se basant sur des choses qu'on souhaite mettre en place. En aucun cas, si ce n'est au travers du test d'étanchéité à l'air, il n'y aura de contrôle post ou pendant l'utilisation du bâtiment, point que je déplore par-dessus tout.

L'article 23 de la RT 2012 stipule qu'on devra donner une mesure des consommations d'énergie a minima mensuellement. Comment cependant donner une mesure des consommations d'énergie sans imposer, comme on l'a fait dans le cadre de la RT 2005, la pause de compteurs sur le chauffage et la production d'eau chaude sanitaire, ce qu'on ne retrouve pas dans la RT 2012 ? En donnant des évaluations ? Certes, mais sur quelle base ? La pause de sous compteurs pour la production de chauffage et d'eau chaude sanitaire doit être la règle. On m'avait dit à l'époque qu'il était extrêmement difficile de contrôler l'ensemble des bâtiments. Je le reconnais. Mais si on n'impose pas un contrôle réel de la performance du bâtiment, la RT 2012 n'aura pas les effets escomptés. Les bâtiments BBC RT 2005 sont peu nombreux, et font l'objet de très peu de mesures réelles. Or à mon sens, il est très difficile de se baser sur des estimations.

Comparée aux réglementations mises en oeuvre à l'étranger, la RT 2012 est sans doute la plus aboutie au plan européen. Si l'on veut qu'elle ait un effet sur le bâtiment neuf, le suivi des consommations demeure essentiel, consommations qui doivent être mesurées en réel.

L'étanchéité à l'air devient une obligation en RT 2012 pour le neuf. Si l'étanchéité du bâtiment est bien faite, on peut diminuer de 30 % la consommation en chauffage. Plus le bâtiment sera étanche, plus la température de confort sera baissée, moins vous consommerez d'énergie.

M. Christian Bataille, député, rapporteur. - La parole est à MM. Cottet et Vérité, qui vont nous présenter un projet innovant, Homes, et nous faire part de ses conséquences normatives et réglementaires en France comme en Europe.

M. Olivier Cottet, directeur marketing et filières du programme HOMES, Schneider-Electric. - Il s'agira d'une présentation à deux voix. Le programme Homes est un programme de recherche sur l'efficacité énergétique des bâtiments en Europe, subventionné par l'Etat français. Il regroupe des laboratoires académiques, des PME, des établissements de taille intermédiaire (ETI) et des grands groupes, français ou européens. Notre objectif est de travailler sur l'efficacité énergétique active, et ce sur l'ensemble du parc résidentiel et tertiaire, neuf et existant.

Ce programme de recherche a démarré il y a trois ans et s'achèvera l'an prochain. Aussi disposons nous d'ores et déjà de résultats, que nous sommes en mesure d'extrapoler sur l'ensemble du parc. Cela dit, l'efficacité énergétique active est la manière dont on se sert du bâtiment, et pas sa conception. Un bâtiment est fait d'une enveloppe avec quatre caractéristiques : son isolation, son inertie, son étanchéité à l'air et son apport lumineux - taux de vitrage et masques. S'y ajoutent des équipements techniques, dont il faut améliorer le rendement ou diminuer les pertes, et l'efficacité énergétique active.

Pour pouvoir travailler, le programme a repris une approche systémique du bâtiment. On a beaucoup parlé de consommations d'énergie en utilisant nos performances, la performance étant face à des services qui sont rendus : température et qualité de l'air, confort psychologique et éléments de productivité de l'activité. Améliorer la performance, c'est améliorer l'utilisation de l'énergie face à ces services. Entre les deux, on distingue deux mondes : à gauche, celui des machines, des équipements qui permettent de transformer et de distribuer cette énergie dans des locaux sous forme de vecteurs énergétiques, fils, tuyaux et gaines, à droite, celui des gens, qui utilisent cette énergie dans différents locaux. A gauche, on mesure combien, à droite, où s'identifient les gaspillages, pourquoi.

Il faut également distinguer les éléments d'occupation et d'activité, qui sont essentiels, éléments qui ne sont pas liés à la qualité du bâtiment ou des machines. Imaginez un bâtiment où l'on consomme jour et nuit, alors qu'un seul étage est occupé, une école entièrement chauffée, parce qu'elle est attenante à la maison du directeur. Ce sont là des gaspillages énergétiques fantastiques, alors que la qualité des machines et du bâti est bonne.

Fort de cette analyse systématique, nous sommes parvenus à trois grandes catégories de solutions pour améliorer l'efficacité énergétique. Premièrement, réduire les besoins énergétiques dans les différents locaux : pour ne pas gaspiller, il suffit de ne pas consommer là où ce n'est pas nécessaire. Ce n'est pas en optimisant le chauffage, l'éclairage et la ventilation qu'on obtient un bâtiment performant. Encore faut-il intégrer l'ensemble de la cohérence entre les différents équipements consommateurs, face à une activité, à une présence des gens et la manière dont ils utilisent ce bâtiment. Lorsque je regarde la télévision, je n'ai pas besoin du même confort thermique que lorsque je suis en train de faire de la gymnastique. L'adaptabilité de la manière dont on consomme cette énergie pour satisfaire les besoins est la clé pour des bâtiments performants.

Deuxièmement, comment approvisionner de manière optimisée des énergies pour servir les besoins de locaux ? L'énergie extérieure, il faut le rappeler, n'a pas forcément la même disponibilité ou le même taux de CO2 au moment où l'on en a besoin.

Le troisième élément est l'implication des gens, la manière dont ils occupent, gèrent, entretiennent et possèdent un bâtiment. L'ensemble des acteurs du monde peuvent se décomposer sous forme de ces quatre profils. Suivant la manière dont on leur donne l'information, ils pourront avoir ou pas des comportements qui seront durablement économes et performants.

Ce travail nous a amené à une architecture technique. Quelle est l'image du parc existant ? C'est un système de chauffage, de ventilation et son pilotage, un système de gestion d'éclairage. Demain, il faudra assurer la gestion de la cuisine, du bureau, du restaurant, du couloir, et, en fonction des besoins satisfaits par ces différents locaux, approvisionner les bonnes quantités d'énergie. L'avantage de cette philosophie est de voir le bâtiment comme une somme de locaux qui sont des consommateurs, la mutualisation de la mise à disposition d'énergie devant être optimisée. Un cran supplémentaire : les bâtiments sont les consommateurs, la mutualisation des approvisionnements en énergies devant être visée au niveau d'un quartier, d'un campus ou d'une ville.

M. Hugues Vérité, délégué en charge des relations institutionnelles, Groupement des industries de l'équipement électrique, du contrôle-commande et des services associés (GIMELEC). - Cette rupture d'architecture met en évidence un premier chantier réglementaire, celui de la mise en place d'un macro lot sur la performance énergétique et environnementale, étant entendu que la loi maîtrise d'ouvrage publique (MOP) de 1985 continue de marquer les esprits.

M. Olivier Cottet. - J'en reviens aux travaux sur les systèmes techniques et leur pilotage, et, plus particulièrement, à la dimension humaine. Deux situations extrêmes sont catastrophiques : d'une part, le bâtiment entièrement manuel est énergivore, d'autre part, un bâtiment entièrement automatisé est anxiogène et génère de fortes insatisfactions. Le bon compromis est un individu, au centre du bâtiment, qui décide de son environnement perçu, les éléments techniques du bâtiment optimisant les consommations, le confort et les systèmes. Pour donner ce pouvoir à l'usager du bâtiment, il faut aussi lui donner le retour des conséquences de ses actes, le faire passer de la connaissance à la conscience. Imaginons que cette pièce soit en surconsommation. De quel moyen disposons-nous pour agir ? D'aucun. Si l'on veut entrer dans l'occupation, il faut donner les moyens d'agir et l'information.

Il s'agit de passer d'un statut de consommateur à celui de « consomm-acteur », dans le résidentiel comme dans le tertiaire. Soit l'exemple de la gestion d'un hôtel. Sur dix gestionnaires d'hôtels, tous m'ont dit qu'ils ne toucheraient pas au confort de leurs clients, à l'eau chaude, à l'éclairage et au chauffage. Je leur ai présenté une argumentation sur les usages du bâtiment : chambres, restaurant, buanderie, etc. Six m'ont dit qu'il y avait là des postes sur lesquels ils pouvaient travailler. Une même information, présentée de manière différente, n'induit pas le même comportement. Parler de comportements et de responsabilité, cela s'instrumente, en donnant les outils de compréhension et les moyens d'action.

Comment passer de la théorie à la réalité ? Le programme Homes a travaillé sur cinq bâtiments en exploitation, dans la vraie vie, en les instrumentant intégralement pour mesurer les consommations et le confort. Il a pris en compte des bâtiments du XIXe siècle, d'avant 1975, des années 90 ou tout neuf, sous quatre climats différents, plusieurs systèmes énergétiques et secteurs d'activité. Mesurer les performances énergétiques d'un bâtiment, ce n'est pas seulement mesurer les consommations, mais aussi leurs usages. L'ensemble des données recueillies a permis d'établir des tableaux de bord, que l'on testera l'an prochain, pour savoir s'ils permettent de changer les comportements. Surtout, il s'agissait de travailler sur le simulateur de bâtiment existant, celui de la vraie vie, qui permet de reproduire les consommations énergétiques et le confort des bâtiments, sur lequel nous avons évalué le potentiel des algorithmes mis au point par les chercheurs.

Les résultats sont d'ores et déjà significatifs. Pour le résidentiel, on atteint 23 % d'économies d'énergie, pour les bureaux, 36 %, pour les écoles 56 % et sur les deux hôtels testés 30 et 37 %. Ce sont des résultats significatifs, seulement en travaillant à réduire la demande dans les locaux, adapter le confort, l'usage à la présence et l'activité des gens qui y vivent.

En extrapolant ces résultats sur l'ensemble du parc européen, soit 30 000 millions de m², on constate que les trois leviers que sont le travail sur le bâti, sur les équipements et sur la manière dont on s'en sert, ont le même potentiel de gain. Celui-ci ne s'applique pas de la même manière selon les secteurs. Sur un bâtiment occupé de façon permanente, il vaut mieux travailler l'isolation et le rendement des machines. Pour un bâtiment occupé seulement quelques heures, il vaut mieux travailler sur les modes de contrôle.

Par secteur d'activité, on s'aperçoit que la performance est d'autant plus forte que les bâtiments sont cloisonnés, ce qui suppose d'identifier des zones de bâtiments inutilisés ou mal utilisés. Pour des bâtiments mal cloisonnés, dans le commerce ou la logistique, il s'avère préférable de travailler sur le rendement des machines.

Nous avons enfin travaillé sur une maquette numérique résidentielle, soit un laboratoire virtuel dans lequel on peut faire varier l'intégralité du paramètre d'un bâtiment. Un premier exercice a consisté à tester trois enveloppes différentes : types qualité 80, RT 2005 ou 2012. Sans système de contrôle, on constate que l'amélioration de l'enveloppe fait progresser la consommation énergétique des bâtiments.

Le deuxième exercice a ajouté les fonctions de contrôle développées par Homes. Quelle que soit la qualité de l'enveloppe, on s'aperçoit que le potentiel de gain est à peu près le même. On gagne 40 % sur chacun des types de bâtiment, que ce soit sur le bâtiment des années 80 ou celui de type RT 2012. Avec le contrôle actif, et c'est paradoxal, on atteint un certain niveau où l'amélioration de l'enveloppe ne sert plus à rien, tout se passant comme si tous les plus gros gains se faisaient sur les premiers éléments de travaux. Nous en tirons une conséquence pour le parc existant : l'ordre dans lequel on mène les opérations d'amélioration n'a pas d'importance. On peut commencer par isoler, contrôler la présence ou changer les équipements, peu importe, étant entendu qu'il est préférable de jouer sur les trois piliers plutôt que d'en saturer un.

Nous tirons enfin de l'exercice plusieurs constats. En premier lieu, les gens réfléchissent à la consommation globale de leurs bâtiments, bref, ont en tête leur facture. En deuxième lieu, des travaux sont développés sur l'ensemble des bâtiments existants de par le monde, bien souvent malgré l'existence de réglementation. Les deux moteurs du marché sont actuellement les économies d'énergie, le rendement des capitaux investis sur les bâtiments, mais aussi les investissements pour diminuer l'empreinte carbone, extraordinaire moteur de développement sur le marché. Du coup, nous recommanderions que la mesure de la performance énergétique du site sur l'ensemble des postes de consommation soit le coeur qui permette de travailler sur l'optimisation. Pour inciter, enfin, à l'amélioration en pourcentage, plutôt qu'en valeur absolue, nous observons que la diversité des bâtiments est extraordinaire. Deux bâtiments ne sont pas identiques. Il suffit qu'il existe un restaurant d'entreprise, que l'informatique soit externalisée ou internalisée, pour disposer d'objectifs de consommation totalement différents, le meilleur référentiel d'un bâtiment étant lui-même. J'ajoute enfin que 93 % des bâtiments non résidentiels en Europe sont d'une superficie inférieure à 1 500 m². Ajouter une barre de rénovation ? Il n'y aura pas d'effets.

J'en viens à quelques recommandations techniques pour le neuf. On construit aujourd'hui des bâtiments très performants, où les occupants ne peuvent pas éteindre leur chauffage, un seul système ayant été mis en oeuvre pour les zones jour et nuit. Dans le même ordre d'idées, la surventilation inutile est responsable d'un quart du gaspillage des bâtiments en Europe. Il est donc essentiel de construire des bâtiments pilotables. Par ailleurs, il faut bien dissocier la qualité intrinsèque du bâti et la performance énergétique du site, en mettant en avant le besoin énergétique, pour ne pas induire des frustrations et des insatisfactions. Une norme a été élaborée sur les systèmes de contrôle technique du bâtiment, donnant des classes d'efficacité en fonction de la granulométrie des différents locaux, chaque bâtiment devant être en mesure de contribuer au marché de capacité. Avec des systèmes de contrôle de mesure, on est capable à tout instant d'affirmer que tel ou tel bâtiment est susceptible d'effacer 25, 30 ou 40 kWh en conservant les services rendus de manière optimisée.

M. Hugues Vérité. - J'ai identifié trois chantiers normatifs, réglementaires et législatifs. Le premier a trait au comité d'orientation stratégique des éco-industries, sous la double tutelle du ministre de l'Industrie et de la ministre de l'Ecologie, qui comprend cinq groupes de travail, dont un sur les systèmes énergétiques intelligents et le stockage de l'énergie, et un autre sur le bâtiment à faible impact environnemental. Le rapport établit par ce comité est officiel depuis le 16 juillet dernier. On y préconise de passer de la RT à la R2E ou la R3E. De quoi s'agit-il ? De passer de la réglementation thermique à une réglementation efficacité énergétique ou environnementale. Il s'agit de passer de l'obligation de moyens à celle de résultat, de juger la mesure réelle in fine, et de s'inscrire durablement dans une exportabilité pour nos industries au plan européen. L'objectif est que le marché France soit un marché domestique leader pour nos industries, qui sont les plus gros exportateurs industriels en France. Sur ce point, il faut rappeler que la part du gaz a augmenté, et qu'en parallèle, la balance commerciale de la France battra ses records négatifs de 1973.

Le GIMELEC a beaucoup milité pour un tarif d'autoconsommation des énergies renouvelables. D'aucuns estiment qu'il s'agit de la plus mauvaise idée de l'année. Nous avons pourtant fait la preuve de l'intérêt à remettre ce chantier en oeuvre dans le cadre d'une R2E ou R3E globale et systémique, étant entendu que toutes les technologies seront disponibles dans le cadre du programme Homes.

Nous soutenons les conclusions du groupe de travail sur l'amélioration énergétique du parc tertiaire piloté par Maurice Gauchot, qui tient compte d'une philosophie de package de solutions, et vous savez tous que des foncières d'investissement et des fonds d'investissement étrangers sont très présents dans le système. Nous sommes partisans de nous inspirer des conclusions de M. Gauchot pour nous projeter dans la prochaine R2E ou R3E. La loi MOP a marqué durablement l'urbanisme d'Etat, et continue à marquer durablement les pratiques d'acheteurs. Ne convient-il pas d'ouvrir le chantier de macro lots de performance énergétique ? L'objectif est d'inclure a priori le coût global de possession d'un immeuble, le coût de la construction valant dix, contre quatre-vingt-dix pour le coût global de possession.

Cela dit, nous sommes une industrie européenne, voire mondiale. Nous sommes très attentifs à un chantier en cours à Bruxelles, sur la révision de la directive 2006, et plus particulièrement le point relatif à l'efficacité énergétique et l'utilisation finale de l'énergie. Nous sommes très volontaires d'un point de vue industriel et souhaitons une directive ambitieuse, pour que l'efficacité énergétique soit une valeur de croissance et d'investissement pour l'Union européenne. Celle-ci doit pouvoir se détacher rapidement des zones continentales, qui sont en train de prendre une certaine avance.

M. Christian Bataille, député, rapporteur. - La parole est à M. Grémy. Quelle est la position de votre organisation sur les enjeux de la mesure réelle de la performance énergétique des bâtiments ?

M. François Grémy, délégué général, COPREC. - Je représente la COPREC et la fédération des sociétés tierce parties de contrôle et de certification, qui regroupe les leaders mondiaux en la matière, soit 175 000 salariés dans le monde, répartis sur 140 pays. Nos métiers concernent l'évaluation de conformité dans tous les secteurs d'activité. Par exemple, nous contrôlons 95 % du parc automobile en France dans le cadre du contrôle technique automobile, les centrales nucléaires et 70 % des ascenseurs.

Dans le secteur de la construction, nous réalisons des missions de contrôle de certification et d'assistance à maîtrise d'ouvrage. La nature même de l'existence de notre société est l'indépendance. Au titre de notre mission de contrôle construction, nous sommes missionnés par les pouvoirs publics, les ministères qui nous donnent un agrément pour contrôler si les dispositions en phase de construction ont été prises, tant sur la solidité des ouvrages, la sécurité incendie, l'accessibilité que dans bien d'autres domaines. Cela nous permet de disposer d'une vision globale sur l'ensemble des bâtiments en France, étant entendu que nous en contrôlons environ 90 %. Cette situation nous permet d'effectuer des remontées d'information régulières auprès des pouvoirs publics sur l'efficacité réelle, ou pas, de certaines dispositions législatives ou réglementaires.

S'agissant du sujet du jour, nous sommes dans une phase préalable à la mise en application réelle de la RT 2012. Nous ne pouvons pas effectuer des remontées de terrain. Néanmoins, l'enjeu repose pour nous essentiellement sur l'efficacité et la crédibilité des mesures engagées auprès des pouvoirs publics pour améliorer la performance énergétique des bâtiments. D'importantes dispositions ont été prises dans le cadre de la RT 2012 dans l'acte de construire, dont on peut distinguer la phase de programmation, de conception, d'exécution et de réalisation. Si nos efforts portent uniquement sur l'acte de construire, et non sur l'usage quotidien du bâtiment, qui représente pourtant 95 % de sa durée de vie, l'efficacité de ces mesures en phase construction pourrait être fortement altérée.

C'est la raison pour laquelle nous pensons qu'une attention particulière devrait être portée dès à présent au suivi continu des bâtiments, sur la base d'une consommation réelle et non conventionnelle. Cette mesure réelle deviendrait alors un indicateur irréfutable, qui nous permettrait d'assurer un niveau de performance énergétique continu, voire de l'améliorer. Une consommation conventionnelle se distingue d'une consommation réelle sur plusieurs points. Les appareils d'usage, notamment l'électroménager, ne sont pas pris en considération. Or le taux d'équipement depuis trente ans est en constante croissance, même si l'on constate une amélioration de la consommation de ces mêmes équipements. Par ailleurs, l'usage standard de la température est fixé à 19 degrés. Si l'occupant souhaite augmenter, pour une raison de confort minimal, cette température d'un degré, l'impact sur la consommation d'énergie pourrait, même après rénovation, varier, selon la qualité du bâtiment, de 3 à 15 %. A titre de comparaison, l'écart entre la consommation conventionnelle et la consommation réelle des bâtiments est de même nature que l'écart entre la consommation théorique d'une automobile en condition d'essai et la réalité de son usage.

Nos observations sur l'importance d'une mesure réelle et l'objectif d'une performance mesurée sont de trois ordres, qui relèvent plutôt du bon sens que des éléments techniques. Le premier est le déficit de perception de la part des propriétaires occupants et des maîtres d'ouvrage. Si les factures des occupants s'éloignent des estimations théoriques affichées dans le cadre de l'attestation RT 2012, l'occupant, dès l'entrée dans son habitation, aura un ressenti négatif sur l'efficacité des travaux. Ce ressenti sera d'autant plus fort que l'occupant est le propriétaire, ayant accepté d'investir, dans un contexte économique compliqué. N'oublions pas que les citoyens n'ont pas encore été associés à ce dispositif de performance au même niveau que les professionnels. Leur première approche, avec la performance énergétique, sera d'appréhender ce sujet très complexe, le comprendre, payer, avec des surcoûts prévisibles, de constater que les factures sont plus élevées que les estimations, sans compter que des recours seront probablement engagés.

Ce premier enjeu débouche sur un second enjeu : le risque de rupture de dynamique. Les pouvoirs publics envisagent de faire évoluer la RT 2012 vers la RT 2020 pour améliorer les performances de l'ensemble des bâtiments. Pour cela, il faut conserver une dynamique générale de la part de tous les acteurs. Or, le déficit de confiance peut enrayer cette dynamique engagée, et affecter la mise en oeuvre des ambitions à long terme, telles que la RT 2020. A notre sens, la confiance doit être au coeur de nos priorités, car c'est l'ensemble des acteurs politiques, professionnels et citoyens qui garantiront la réussite de cette évolution. C'est ainsi que les diagnostics de performance énergétique (DPE) souffrent d'une communication négative. Inverser la tendance, même en modifiant les textes réglementaires, reste très compliqué sur le terrain, le déficit de crédibilité étant bien ancré.

Un autre enjeu : le risque d'une efficacité déclinante. Outre le comportement des usagers, évoqué à maintes reprises, il faut mentionner l'usure des bâtiments, des installations et des équipements qui peuvent influer fortement sur la consommation d'énergie. C'est la raison pour laquelle il importe d'assurer un suivi régulier, pour identifier les aléas, afin d'assurer la pérennité de la performance après travaux. Des dispositifs très hétérogènes existent aujourd'hui : contrat de performance énergétique, certification HQE, etc. Ils restent associés à une démarche volontaire, non universelle, sur des calendriers relativement courts.

Aussi souhaitons-nous faire passer un seul message : pour avancer dans ce dispositif lié à la performance, il nous paraît utile de réfléchir à la mise en place d'un suivi, quels que soient les acteurs, durant les 95 % de la durée de vie du bâtiment, de manière à conserver et accroître la confiance de l'ensemble des parties prenantes. Il nous paraît aussi essentiel de tendre à l'amélioration de la performance énergétique ou de la garantir sur le long terme. Tel est notre message principal, dont les détails techniques pourront être discutés dans des groupes de travail idoines.

M. Christian Bataille, député, rapporteur. - Notre rapport pourra faire écho à vos propositions.

La parole est à MM. Stéphane Pénet, directeur, et Raimundo Silva, responsable construction, de la Fédération française des sociétés d'assurances (FFSA). Comment la responsabilité décennale se trouve-t-elle impliquée par le risque de défaut de la performance énergétique des bâtiments ?

M. Stéphane Pénet, directeur, Fédération française des sociétés d'assurances (FFSA). - Si vous avez souhaité entendre les assureurs dans cette réunion, c'est parce que vous vouliez recueillir leur contribution dans l'atteinte des objectifs du Grenelle de l'environnement, notamment s'agissant du bâtiment. Si notre contribution s'impose, il convient d'ajouter qu'il ne faudrait pas croire que tout arrivera, comme par magie, grâce à l'assurance.

Depuis 2007, les assureurs se sont mobilisés sur trois sujets. Premièrement, il s'agissait de pouvoir accompagner les innovations techniques, qu'il s'agisse des techniques de construction ou des matériaux, l'assurance ne devant pas être un frein au développement des innovations, mais accompagner le mouvement. A cette fin, nous avons rapidement travaillé, avec les filières du bâtiment, à la mise en place du Pass innovation, pour rendre assurable plus rapidement des nouvelles techniques de construction ou des nouveaux matériaux, l'avis technique du CSTB pouvant apparaître comme un frein à l'innovation. Nous avons beaucoup cru à ce dispositif, que nous avons promu. Aussi sommes-nous quelque peu déçus par le nombre de Pass octroyés. Quoi qu'il en soit, nous continuerons à promouvoir ce dispositif, qui nous permet de rendre assurables des innovations plus rapidement, à moindre coût pour les industriels.

Le deuxième sujet qui nous a beaucoup mobilisés a été celui de l'assurance des énergies renouvelables, notamment des panneaux photovoltaïques. Les assureurs ont été pris d'une grande crainte lorsqu'ils ont vu débarquer en France des panneaux photovoltaïques d'origine et de qualité très diverses, et des installateurs de panneaux à la compétence parfois contestable. Or les assureurs, notamment du fait du choix de la France de favoriser la filière « intégration à la toiture », sont directement concernés. Car, dès lors qu'un panneau photovoltaïque est intégré dans une toiture, il a une fonction d'étanchéité et rentre dans une responsabilité décennale. A ce titre, les assureurs ont été très vigilants sur la qualité des matériaux et la qualification des installateurs.

Le troisième sujet qui nous a mobilisés est celui de la performance énergétique. Nous avons été très rapidement sollicités sur ce thème, pour savoir comment l'assurance pouvait apporter une certaine protection de la part de ceux qui investissaient, soit en rénovation énergétique, soit dans une construction neuve, avec des objectifs contractuels ou normatifs de performance énergétique.

Quel lien entre la norme et la responsabilité décennale d'un constructeur ? Aucun. La responsabilité décennale d'un constructeur, il faut bien le comprendre, est une responsabilité entièrement construite à côté des régimes de responsabilité de droit commun. Elle doit être analysée au regard de ce que disent les textes, notamment au regard de trois éléments : le dommage crée-t-il une insécurité aux personnes qui vivent dans ce bâtiment ? La solidité du bâtiment est-elle en jeu ? Le bâtiment est-il impropre à sa destination ? C'est au regard de ces trois éléments que l'on jugera si le dommage entre ou pas dans la responsabilité décennale du constructeur. Certains bâtiments peuvent répondre à toutes les normes, tout en créant des dommages de type décennal. D'autres ne répondent pas aux normes, mais créent ou pas des dommages de ce type.

Cela dit, existe-t-il un lien entre un dommage que l'on pourrait qualifier de décennal, et qui rentrerait dans la garantie obligatoire de responsabilité décennale des constructeurs, et la performance énergétique elle-même ? Ce sujet met en jeu une interprétation juridique complexe qui concerne l'impropriété à destination d'un bâtiment. Pour autant, nous en restons, nous, assureurs, à l'esprit de la loi Spinetta de 1978 sur la responsabilité décennale des constructeurs, qui met en avant l'habitabilité du logement. Lorsque la RT 2012 sera mise en place pour le logement, le fait qu'un bâtiment consomme 70 kWh/m².an au lieu des 50 de la norme, ne remet pas en cause l'habitabilité du logement. Pour nous, cette impropriété à destination doit être vue sous le seul critère de l'habitabilité pour les logements et des missions premières attribuées s'il s'agit de logements de type tertiaire ou de bureaux.

D'aucuns jugeront que nous avons une vision restrictive de la responsabilité décennale. Quoi qu'il en soit, c'est une réponse que nous apportons, étant entendu que c'est au juge de dire la loi. Nous défendons cette thèse pour deux raisons principales. La première est que l'assurance a besoin de sécurité juridique : elle ne peut fonctionner dans un cadre où les jurisprudences évoluent sans cesse et font constamment changer l'appréciation du risque. Si l'on entre dans une interprétation sur l'impropriété à destination qui pourrait être celle du confort, de l'environnement, on ne manquera pas d'entrer dans des dérives qui déboucheront sur des insécurités juridiques totales. Or l'insécurité juridique entraînera immanquablement un surcoût de l'assurance construction très important. Pour nous, il est indispensable que le prix de cette assurance soit compatible avec l'économie du bâtiment.

D'aucuns estimeront également que les assureurs n'apportent pas grand-chose en matière de sécurité des maîtres d'ouvrage sur le plan des investissements qu'ils peuvent apporter. C'est oublier les produits d'assurance existant. Ainsi, lorsque la performance énergétique se dégrade, mais qu'elle maintient le logement habitable, la situation étant le fait d'un défaut d'un matériau, nous disposons de contrats d'assurance de type « responsabilité civile produits », qui peuvent jouer. En cas de défaut de conception évident de la part de l'architecte ou du concepteur, la responsabilité civile professionnelle du concepteur peut être mise en jeu.

S'agissant enfin de la performance énergétique, nous avons toujours été sollicités pour développer de nouveaux produits qui permettent de sécuriser la personne, notamment en matière de rénovation énergétique. Comment être assuré d'un retour sur investissement dès lors qu'on améliore la performance énergétique de son bâtiment ? En la matière, il faut le reconnaître, les techniques assurantielles ont leur limite, et ce, en raison notamment de l'aléa comportemental des personnes. Un bâtiment performant est une chose, le comportement responsable des personnes qui y vivent, une autre. Or nous ne savons pas assurer cet aléa comportemental. C'est une première limite de l'assurance sur la question de la sécurisation des personnes s'agissant de leurs investissements. La deuxième limite est celle du risque d'entreprise. De fait, certaines entreprises sont plus compétentes que d'autres. Heureusement, une telle situation n'est pas assurable. Le risque d'entreprise est par nature inassurable.

Pour autant, certains assureurs ont mis en place un certain nombre de produits qui peuvent garantir l'atteinte d'une certaine performance à la livraison du bâtiment. Au-delà, les techniques assurantielles ont leur limite. Des produits de type cautions ou garanties de fin de travaux permettent au maître d'ouvrage de conserver une certaine sécurité sur le fait que l'engagement, contractuel, de label ou normatif, fixé, puisse être atteint. S'il ne l'est pas, la caution pourra jouer, pour faire en sorte que les travaux complémentaires soient menés et que l'objectif soit atteint.

Tels sont les types de produits que les assureurs essaient de développer. Ils seront d'autant plus faciles à développer que nous disposerons des instruments de mesure de la performance énergétique au moment de la livraison des travaux qui seront incontestables et incontestés. Plus ces instruments de mesure peuvent être contestés, plus il sera difficile de développer des produits d'assurance, l'assurance recherchant par dessus tout de l'objectivité dans la façon de mesurer le risque. Nous sommes donc très favorables au développement et à l'amélioration des instruments de mesure, et qu'il y ait un consensus autour de certains instruments de mesure. Grâce à cela, nous pourrons développer des produits de plus en plus performants, sécurisant le maître d'ouvrage sur la qualité des travaux qu'il pourra recevoir.

Encore une fois, l'assurance s'arrête, s'agissant de la performance énergétique, à la livraison, la décennale ne jouant que sur le critère d'inhabitabilité. En résumé, elle peut assurer une certaine sécurité complémentaire dans l'atteinte des objectifs du Grenelle de l'environnement, au même titre que les normes et les labels. Encore ne faut-il pas oublier que la réalité des économies et la réalisation des objectifs du Grenelle de l'environnement sont très liées au comportement des personnes, point sur lequel il n'existe aucune assurance à ce jour.

M. Christian Bataille, député, rapporteur. - Toutes les interventions nous ont permis de confirmer que la mesure de la performance après construction est non seulement souhaitable, mais aussi indispensable si nous voulons améliorer de façon significative l'efficacité énergétique dans ce secteur et ne pas nous contenter d'effets d'annonce.

M. Grémy a posé le problème d'une performance effectivement atteinte, pour éviter les déceptions de la population. Cette considération était au coeur du rapport que j'ai cosigné avec Claude Birraux en 2009. A l'époque, nous avons aidé le rapporteur à l'Assemblée nationale à défendre des amendements dans ce sens dans le cadre du projet de loi Grenelle II, avec un résultat partiellement satisfaisant.

Cela dit, ma première question s'adressera à Mme Roger. Le problème d'une globalisation de l'appel d'offre pour une construction afin d'obtenir une meilleure performance par une meilleure coordination a été mentionné par notre rapport en 2009. La solution de l'appel d'offre sur performance ne sera plus utilisable une fois la RT 2012 mise en oeuvre, dans la mesure où le besoin ne sera plus une exception mais la norme. Y a-t-il des réflexions en cours sur le sujet ?

Mme Marie-Christine Roger. - A ma connaissance, nos collègues du ministère des Finances qui s'occupent des marchés publics ne nous ont pas signalé de réflexion sur ce sujet. Mais on peut imaginer que nous nous rapprochions d'eux pour savoir si la loi y ferait obstacle. Un intervenant a parlé du coût global. A ma connaissance, la loi MOP n'interdit pas de recourir à tel ou tel type d'allotissement. Par contre, elle ne l'énumère pas comme l'un des possibles.

M. Christian Bataille. - Le débat est ouvert.

M. Etienne Vekemans. - Je souhaite apporter un complément à cette deuxième partie de l'audition, où l'on a beaucoup insisté sur l'effet des habitants sur les consommations. Au niveau passif, le bâtiment se chauffe pour un tiers par le soleil, pour un tiers grâce aux habitants et pour un dernier tiers par un apport de chauffage. Or, on s'aperçoit que la première source de consommation dans les bâtiments peu consommateurs est non pas l'eau chaude, comme on l'a dit, mais l'électroménager. Chose étonnante : lorsque les bâtiments sont occupés de façon importante, l'électroménager est très utilisé, alors que les besoins en chauffage sont réduits. En revanche, lorsqu'ils sont occupés par peu de personnes, l'électroménager est peu utilisé, alors que le chauffage reste important. Bref, dans l'habitat passif, l'activité ou la non activité des habitants se compensent, résultat inverse de ce qu'on constate depuis des années dans les bâtiments, où les consommations évoluent peu en fonction des choix de vie des habitants. Que les gens gaspillent ou pas n'aurait donc que peu d'importance. Ainsi de l'ouverture des fenêtres : lorsqu'il fait froid dehors, les gens ne les ouvrent pas.

M. Christian Bataille, député, rapporteur. - En quoi la RT 2012 intègre-t-elle l'apport potentiel d'une gestion technique de l'énergie ?

M. Hugues Vérité - A ma connaissance, le moteur de calcul, lorsqu'il ne développe pas de phénomènes physiques qu'il est capable de simuler, n'est pas capable de produire une économie d'énergie. Autrement dit, le fait qu'un bâtiment soit occupé partiellement, à 50 %, où que le système de ventilation puisse être piloté pièce par pièce, n'est pas reproductible dans le moteur de calcul.

Mme Marie-Christine Roger. - Des évolutions sont toujours possibles. Si des systèmes plus complexes sont mis en place, on peut travailler à leur modélisation. Cela dit, sans doute y a-t-il un malentendu sur la mesure. Le principe de la mesure des consommations est inscrit dans la réglementation thermique. Des discussions, pilotées par la Direction générale de l'énergie et du climat (DGEC), que vous entendrez cet après-midi, sont en cours sur l'installation des compteurs, raison pour laquelle rien n'est calé sur la mesure. Mais on a bien prévu dans les logements un système de mesure.

Pour en revenir à la gestion de l'énergie, on fixe un scénario d'occupation, en particulier dans les bureaux. Soit une situation qui diffère complètement de l'occupation dans un bureau donné : si le modèle a prévu une occupation jour et nuit, ou huit heures par jour, l'indicateur ne donnera pas le même résultat. C'est la raison pour laquelle notre réglementation tend à la meilleure qualité intrinsèque du bâti, mais ne peut prévoir dans chaque cas de figure la consommation, le scénario étant fixé dans les modèles. Cela n'interdit pas de faire une modélisation en fonction de l'occupation réelle, puisqu'à chaque changement d'occupant, il n'y aura pas une nouvelle réglementation thermique à appliquer, mais éventuellement un occupant qui occupera le bureau de façon différente. La réglementation fixe un scénario pour chaque type de bâtiment. Le bureau d'étude thermique, qui a une connaissance plus fine, peut changer le paramètre de scénario d'occupation dans le modèle de calcul qui lui convient, pour évaluer sa consommation et utiliser au mieux sa gestion propre.

M. Hugues Vérité. - Il s'agit bien d'un moteur qui mesure la qualité du bâti, et l'exprime sous forme d'une énergie. Par ailleurs, dès lors que la réglementation n'impose pas une chose, nombre de choses étant déjà imposées, elle ne sera pas mise en oeuvre. Un système de pilotage de ventilation par poste ou d'optimisation ne se réalise pas pour la seule raison qu'il n'est pas prévu dans la réglementation.

M. Maxime Grand. - Je souhaite apporter un éclairage nouveau sur deux points qui me paraissent essentiels. Le premier est une réponse différente à la question que vous venez de poser. Comment fait-on pour mesurer d'un point de vue réglementaire, un peu mieux cette logique d'optimisation des systèmes ? Il existe aujourd'hui des logiciels qui fonctionnent très bien pour simuler la performance dynamique d'un bâtiment, et qui tiennent compte de tous les paramètres dont on vient de discuter. Seul problème : ces logiciels ne sont pas réglementaires, obligeant à réaliser une étude dynamique, qui occasionne des surcoûts. Une première réponse serait de réaliser une étude réglementaire pour des bâtiments qui nécessiteraient une autre logique pour optimiser la performance énergétique. On pourrait alors utiliser de tels logiciels, très pointus, en remplacement des études réglementaires.

Je souhaite également intervenir sur la mesure de la consommation d'énergie. J'ai bien compris que tous les intervenants sont très favorables à mesurer la consommation d'énergie. Or, tout est conçu dans la filière bâtiment à partir des performances réglementaires, qu'il s'agisse du coefficient de performance d'une pompe à chaleur, du rendement d'un panneau photovoltaïque, etc. Tout cela est mesuré en laboratoire selon des règles conventionnelles. Ensuite, on installe un ensemble d'équipements sur les bâtiments. Comment dès lors mesurer l'ensemble en fonctionnement, lorsque tous les éléments sont connectés ? Le travail qu'on a mené sur les isolants est généralisable à tous les équipements et à des bâtiments complets. Notre principale difficulté ? Elle a consisté non pas à mesurer la consommation directe d'un bâtiment, mais à afficher une performance basée sur une consommation valide quelle que soit la météo. Pour cela, nous avons travaillé sur des logiciels thermiques qui permettent avec très peu de temps d'acquisition des données, d'être capable de prédire la performance de ce système sur un climat moyen d'un pays.

Imaginons qu'on procède au même raisonnement sur un bâtiment venant d'être réceptionné. On attend dix jours avant la venue de ses habitants. On fixe sa température à 19 degrés, puis on mesure l'évolution de sa consommation. On est aujourd'hui capable de donner la performance réglementaire à la réception de l'ouvrage, et de savoir si le bâtiment est conforme ou pas à ce qu'on attendait. Le fait d'avoir cloisonné et de n'avoir mis en avant que des approches réglementaires a occulté cet avantage de l'approche in situ, laquelle est une véritable réponse à la problématique de la mesure de la performance des équipements, mais aussi du bâtiment fini.

M. Olivier Cottet. - Mes travaux de recherche menés dans le cadre du programme Homes permettent de mesurer, pendant la vie du bâtiment, son isolation et son étanchéité à l'air. Ce faisant, on dispose d'un protocole de mesures et de vérifications de la qualité intrinsèque du bâti, comme on est capable de mesurer le rendement d'une pompe à chaleur ou la consommation d'une lampe.

- Présidence de M. Christian Bataille, député, rapporteur -

M. Christian Bataille, député, rapporteur. - Nous en venons à la deuxième partie de cette audition, sur la consommation électrique et les économies d'énergie, organisée dans le cadre de notre mission sur la sécurité nucléaire, la place de la filière et son avenir. Ce sujet, vous le savez, sera intégré au rapport déposé sur les bureaux de l'Assemblée nationale et du Sénat en décembre prochain.

Ce matin, nous avons pu constater qu'en matière de performance énergétique des bâtiments, bien des efforts restaient à faire pour transformer les déclarations d'intention du Grenelle de l'environnement en résultats concrets et mesurables sur notre consommation d'énergie. Trop souvent, d'aucuns pensent pouvoir passer sans délai du stade de l'idée à celui des résultats. C'est oublier que leur obtention exige, dans le domaine de l'énergie, une préparation de longue haleine, parfois plus d'une décennie avant de pouvoir bénéficier pleinement d'une nouvelle filière industrielle. J'aime à dire que le temps politique et le temps énergétique sont déphasés, le premier étant de cinq ans, contre cinquante ans pour le second, soit dix fois un quinquennat présidentiel. C'est une réalité qu'il faut bien avoir en tête, tant on entend des déclarations partiales sur le sujet de l'avenir de l'énergie.

Il est peu de domaines qui demandent plus de réflexion et de préparation, tant l'influence des décisions prises nous engage sur le long terme. La question de l'énergie est en effet intimement reliée à tous les aspects de l'activité économique de notre nation, et même de notre vie quotidienne. Imaginons un instant où en serait notre pays si, d'un commun accord, ses dirigeants politiques n'avaient pas pris, après le premier choc pétrolier, la décision d'assurer, par l'industrie nucléaire, notre indépendance énergétique, si nos ingénieurs, nos techniciens, nos ouvriers, n'avaient pas mis toutes leurs compétences et leurs efforts dans la réalisation de ce projet ambitieux, si nos concitoyens n'avaient pas accepté les sacrifices financiers nécessaires à un tel investissement.

La première table ronde concernera les évolutions de la consommation d'énergie dans l'industrie. Pour ne pas se tromper, il est essentiel de prévoir. Pourtant, la prévision est un exercice des plus difficiles dans le domaine énergétique, tant les facteurs à prendre en compte - croissance économique, population, habitudes sociologiques, innovations techniques - sont nombreux, et largement soumis aux aléas. Puisque nous essayons de cerner l'évolution de la consommation électrique, il nous a semblé essentiel de croiser sur ce sujet, dans cette première table ronde, les visions du gouvernement, des industriels et des universitaires qui y réfléchissent.

La parole est à Pierre-Franck Chevet, ingénieur général des Mines, directeur général de l'énergie et du climat, qui présentera la position du gouvernement sur la question de l'évolution de la consommation électrique de notre pays.

M. Pierre-Franck Chevet, ingénieur général des Mines, directeur général de l'énergie et du climat. - La France, depuis très longtemps, a développé une politique énergétique structurée et perçue comme telle par les autres pays. Vous avez cité les décisions historiques prises dans les années soixante-dix, au moment du premier choc pétrolier. On pourrait également évoquer la décision de développer la force hydraulique du pays initiée aux alentours de la deuxième guerre mondiale, décision structurante, dont on recueille aujourd'hui les bénéfices, notamment en matière de CO2. Au moment où, début 2000, se profilait l'ouverture des marchés, la France, tout en l'organisant, s'est astreinte, de par la loi, à un exercice de prévision systématique et organisé en matière énergétique. Il peut sembler étonnant de se lancer dans des exercices de prévision, au moment où un marché est libéralisé. Mais la France a souhaité suivre les choses, essayer d'anticiper autant que possible et donner des signaux aux marchés, notamment parce que les investissements en cause sont longs et importants. C'est le cas dans le domaine nucléaire, mais aussi pour l'éolien, tout comme pour les réseaux : entre la décision de construction d'une ligne électrique et sa réalisation, pas moins de dix ans sont nécessaires. C'est pourquoi nous essayons de réaliser des exercices de prévision, exercices prévus à chaque changement de législature. Le dernier portait sur les années 2006-2009, avec un horizon de temps à 2020. Le prochain est prévu en 2013, avec un horizon de temps à 2030.

Lorsqu'on effectue une prévision pluriannuelle des investissements (PPI), il s'agit d'examiner l'adéquation en énergie, et surtout, en puissance, point très important pour l'électricité. On effectue le même type d'exercice sur le gaz ou la chaleur pour lesquels les problèmes ne se posent pas de la même manière, dans la mesure où le stockage est possible.

Comment procédons-nous ? Nous nous appuyons sur un certain nombre d'exercices de prévision donnés par des spécialistes, notamment des gestionnaires de réseau, RTE pour la métropole et EDF-SEI pour les DOM-TOM, dont les scénarios sont revus tous les deux ans. La dernière version dont nous disposons a été rendue publique en juillet dernier par RTE. Des critères de sécurité d'approvisionnement sont mis en avant, avec une durée moyenne de défaillance visée annuelle de trois heures. La prise en compte de l'apport des interconnexions est également un point important. Comment le prenons-nous en compte ? Considère-t-on globalement qu'on construit un système tel qu'on pourrait s'en passer, dimensionné pour disposer, en moyenne, à satiété de l'énergie et de la puissance nécessaires ? Ou s'appuie-t-on plus sur l'apport des interconnexions ? C'est un point sur lequel je reviendrai, car il touche à des questions de principe qu'il convient d'approfondir. D'un côté, on met en place un marché européen, avec une plaque européenne d'échange, de l'autre, notre système s'est mis en place avec un certain degré d'autonomie s'agissant du paramétrage. Tout cela n'est pas incompatible. Encore faut-il assumer les conséquences de ses choix.

Le dernier bilan prévisionnel RTE, de juillet 2011, porte sur des horizons de temps à 2030. Une prévision à dix ou vingt ans n'est pas le même exercice qu'une prévision à un horizon plus lointain. Au plan politique, sous l'impulsion d'Eric Besson, ministre chargé de l'énergie, nous sommes en train de travailler à un exercice de prévision à 2050. Il faut cependant préciser que cette approche est très différente d'une approche à 2030, pour laquelle les technologies sont connues, même si des incertitudes demeurent, par exemple sur les coûts et les conditions de déploiement. A l'horizon 2050, un certain nombre de technologies sont encore inconnues et on s'engage, de ce fait, dans des scénarios d'équilibres plus globaux, plus ou moins technologiquement indépendants. A horizon de vingt ans, les scénarios sont d'une fiabilité relativement bonne. A plus long terme, on entre dans un autre domaine, nécessaire, mais qui s'appréhende de manière différente.

Vous pourrez apprécier sur les transparents que je commente un certain nombre de courbes, qui font état de la consommation telle qu'on peut l'imaginer en 2020 et 2030, les scénarios prenant en compte les croissances économique et démographique ainsi que les changements d'habitude de consommation. En 2030, les scénarios varient entre 500 et 600 TWh de consommation annuelle.

Le scénario « Grenelle », basé sur une hypothèse de mise en oeuvre des mesures du Grenelle de l'environnement dans les délais prévus, nous place, sur un scénario bas, avec des consommations à peu près inchangées entre aujourd'hui et 2020-2030. Ces mesures permettraient de stabiliser, malgré la croissance, la consommation d'électricité, étant entendu que je parle d'équilibre énergétique global sur une année.

Mais les scénarios ont également un effet sur la puissance maximale appelée. Sur ce point, on constate des résultats significativement différents entre les scénarios hauts, plutôt consommateurs, et les scénarios bas, faiblement consommateurs. Le taux de dépendance augmente beaucoup plus fortement, en proportion, entre les deux types de scénarios.

RTE a également pris en compte un scénario de Grenelle différé, à l'horizon 2030. Il nous rapproche du scénario haut.

Que se passe-t-il sur la pointe selon qu'on prend des hypothèses différentes aux frontières ? L'hypothèse classique retient un import/export nul à la pointe. En moyenne, notre système est dimensionné de façon à produire en son sein l'électricité nécessaire. Il devient alors possible de calculer pendant combien de temps il manquera de l'énergie, quelle puissance nous manquera, pour chiffrer ce manque de puissance que le système aurait s'il vivait en « autarcie ». Actuellement, ce qui manque en puissance de pointe est proche de zéro, à 0,4 GW. Dans les années qui viennent, la dépendance croîtra assez rapidement, pour nous amener à un manque de puissance de 7,2 GW. Dans l'autre hypothèse, qui s'appuie davantage sur les capacités d'importation et d'exportation, les chiffres augmentent beaucoup moins à horizon 2014, où ne manquent que 2,7 GW. Comment traiter la pointe ? Comment gérer la puissance ? Comment augmenter ou baisser la pointe de consommation pour être compatible avec la puissance qu'on délivre ? Tel est l'esprit de la loi NOME (Nouvelle Organisation des Marchés de l'Electricité), dans sa deuxième partie, dont on n'a pas assez parlé, soulignant que l'ensemble des fournisseurs, EDF et alternatifs, doivent avoir les capacités pour faire face aux besoins de leurs clients. Pour réaliser l'adéquation, la loi met en avant soit la puissance au regard de la consommation soit, à l'inverse, l'organisation de l'effacement. On le voit : le sujet est difficile. Traiter la pointe à 7,2 GW ou à 2,7 GW est sans commune mesure. C'est un sujet qui renvoie à l'ensemble du marché de capacité, qui est devant nous.

Cela dit, nous ne sommes pas tant limités par la capacité de production des autres pays que par la capacité physique des interconnexions, sujet qui renvoie à la manière dont on trace les lignes transfrontalières. Je pense en particulier à la ligne France-Espagne, qui est en train de trouver sa solution après vingt ans de travail, non pas simplement du fait d'une mauvaise volonté des marchés, mais aussi des questions légitimes des populations riveraines. Celles-ci se demandent pourquoi elles auraient à subir des pylônes au-dessus de leur tête, au nom du marché européen. Ces questions ne peuvent être balayées d'un revers de main. Elles doivent être traitées par l'enfouissement, solution qui coûte de l'argent.

Nous avons également fait fonctionner des scénarios à l'horizon 2030, scénarios qui prennent en compte l'énergie, le climat et l'air. Ils font des hypothèses énergétiques, tout en s'efforçant d'analyser finement les impacts en CO2 et ceux sur la qualité de l'air. Un scénario prend les mesures telles qu'elles existent et les arrêtent dès lors qu'on sait qu'elles ont une fin de vie. Ainsi de la réglementation thermique 2012, dont on sait qu'elle est acquise. A l'inverse, un crédit d'impôt est une mesure votée, qui ne vaut que pour la période prévue par la loi. Un autre scénario « objectif facteur 4 » prend en compte tous les objectifs du Grenelle, de façon à estimer l'écart entre l'acquis et ce qu'il faudrait faire.

Point important, s'agissant du nucléaire, nous avons intégré, pour la période 2011-2020, compte tenu des décisions prises et sans préjuger de la manière dont le système s'organisera, une stabilité de la puissance nucléaire disponible.

Avec nos modèles, nous passons, dans les scénarios bas, de 450 TW en 2010 à 400 TW en 2020, la différence s'expliquant par les effets de la crise.

Dans à peu près tous les scénarios, des gains sur les émissions de CO2 du secteur électrique sont mis en évidence. Pour les scénarios RTE, comparables entre eux et avec le scénario de référence, le gain s'élève à 53 % entre début 2010 et fin 2020, significativement moins pour le scénario qui prend l'hypothèse d'un nucléaire bas.

Lorsqu'on met bout à bout l'ensemble des mesures du Grenelle de l'environnement et l'argent que la collectivité y consacre, ce sont 4 à 5 milliards d'euros par an qui sont inscrits sur la transition énergétique. Par comparaison, l'ensemble des Français payent 60 milliards d'euros par an pour disposer de l'énergie. De telles sommes, on le voit, sont loin d'être anecdotiques, le prix de l'énergie étant un vrai sujet politique.

En conclusion, l'idée de prospective en matière d'électrique est bien intégrée dans la réflexion publique française. Dans le cadre de l'exercice Énergie 2050, nous avons d'ores et déjà listé une dizaine de scénarios qui traitent de ce sujet. Un des points importants de l'exercice en cours est d'essayer d'analyser beaucoup plus finement les hypothèses, pour mettre en avant des points d'alerte.

En consommation finale, l'électricité représente de 20 à 22 % de notre sujet. Si l'on décarbone toute l'électricité, on aura traité 100 % de 20 % du sujet, étant entendu qu'on n'ira pas jusqu'au facteur 4. Gaz, pétrole et hydrocarbures en général sont donc vitaux. C'est un sujet à traiter, qui renvoie aux usages et qui peut changer la donne.

S'agissant de la maîtrise de la demande, avec l'argent qu'on y inscrit et nos prévisions de baisse de 20 % sur l'efficacité énergétique, on parviendrait avec le Grenelle à gagner 17 %. D'autres pays européens ont beaucoup plus de problèmes que nous. Reste que nous ne sommes pas à - 20 %. D'où la table ronde sur l'efficacité énergétique, pour savoir comment compléter le Grenelle.

Enfin, derrière les questions de réseaux se cachent des questions de profils de consommation. Par exemple, le véhicule électrique peut être une vraie solution si l'on gère bien l'espace de stockage qu'il représente, mais un vrai problème si on les charge tous lorsqu'on rentre à la maison à 19 heures, comme on le fait avec nos autres appareils. La pointe est un sujet dont l'importance est appelée à croître.

M. Christian Bataille, député, rapporteur. -Votre intervention a soulevé plusieurs problèmes qui pourront nourrir les rapports de l'Office sur la législature. La parole est à M. Robert Durdilly, président de l'Union française de l'électricité (UFE), qui va nous faire bénéficier, en avant première, des résultats d'une étude réalisée par l'UFE sur le bouquet électrique en France, à l'horizon 2030, et évoquera notamment les scénarios d'évolution de la consommation identifiés dans ce cadre.

M. Robert Durdilly, président de l'Union française de l'électricité (UFE). Comme vous l'avez rappelé, nous avons lancé une étude en début d'année. L'UFE, je le rappelle, rassemble des producteurs, commercialisateurs d'électricité qui interviennent en France, mais aussi les gestionnaires de réseaux que sont RTE et RTF. Nous avons donc un panel assez large de tout le secteur électrique, qui nous permet de conduire des études assez approfondies, avec des angles de compétences et de préoccupations complémentaires, gage de robustesse de nos approches.

Nous avions anticipé que la question du bouquet électrique serait un sujet important, notamment dans le cadre du débat préalable à l'élection présidentielle, l'accident de Fukushima ne faisant que renforcer cette exigence de débat et d'interrogation autour de la place du nucléaire. Nous avons engagé cette étude avec un horizon de temps à 2030, les solutions technologiques à cet horizon étant déjà connues et éprouvées. Nous avons eu l'ambition de traiter à la fois le volet production et consommation, en essayant d'évaluer chaque scénario avec ses conséquences en matière d'investissements, très lourds sur la période, mais aussi en matière d'émission de CO2, d'approche climat/énergie, d'indépendance énergétique, de sécurité d'approvisionnement et de balance des paiements.

Il s'agit d'une approche globale qui vise à la fois les aspects de production, de réseau de transport, de distribution, de commercialisation, mais aussi l'approche sur les énergies renouvelables. Nous en diffuserons les conclusions la semaine prochaine, et je n'en mettrai en avant que quelques éléments. Je me concentrerai sur le volet consommation, étant entendu que nous nous sommes basés sur trois scénarios très contrastés, d'une situation tendancielle que l'on connaît aujourd'hui, le nucléaire y occupant 70 %, jusqu'à un scénario de sortie partielle du nucléaire, avec un poids du nucléaire à l'horizon de 2030 de 20 %.

S'agissant de la croissance de la demande, nous sommes partis des 490 TWh de 2010, corrigés de l'aléa climatique, point de départ sur lequel nous avons projeté trois grandes évolutions. La première est une évolution de transfert d'usage. Lorsque le mix électrique est peu carboné, on a intérêt à déplacer les usages du fuel vers l'électricité, sujet qui renvoie au thème emblématique du véhicule électrique, qu'il soit individuel ou collectif. Il renvoie aussi aux pompes à chaleur en substitution des chaudières fuel, ou, dans le domaine industriel, à des pompes à chaleur industrielles ou toute une série d'applications où l'on gagne à convertir les moteurs industriels vers l'électricité.

Voilà une première donnée qui tend à augmenter la consommation électrique, en substitution d'une énergie fuel.

Deuxième facteur d'évolution : la croissance de la demande, très corrélée à l'activité économique. Les scénarios en la matière évoluent entre 1%, 1,5 % et 2,5 % de croissance, en prenant en compte le développement des nouvelles technologies.

Quant à la maîtrise de l'énergie (MDE), c'est un sujet central. En la matière, nous avons retenu comme hypothèse de référence l'atteinte, à 50%, des objectifs du Grenelle de l'environnement.

Avec ces trois facteurs d'évolution, nous parvenons, à l'horizon 2030, à 570 TWh, soit une légère évolution de 0,8 % par an de 2010 à 2030. Même en faisant beaucoup d'efforts, avec un scénario atteignant 100 % des objectifs du Grenelle de l'environnement, nous sommes toujours en progression de consommation. A l'heure où une directive européenne prévoit une baisse de 1,5 % par an, les enjeux, on le voit, sont très lourds, la faisabilité de ce type d'objectifs devant être appréciée autrement que par une décroissance.

Mais notre approche porte aussi sur la puissance. Dans le système électrique actuel, la puissance croît plus vite que la consommation. Pour faire simple, 1 % d'augmentation de consommation correspond à environ 2 % d'augmentation de la puissance de pointe. Au total, donc, notre scénario met en avant un besoin supplémentaire de 30 GW en pointe si rien n'est fait. Toutes les actions de maîtrise de la demande d'énergie (MDE) contribuent à la maîtrise de la puissance, notamment celle visant à supprimer les ampoules à incandescence par des ampoules à économie d'énergie, qui représente une grande partie de la maîtrise de la puissance.

J'en reviens à l'hypothèse des 50 %. Elle repose sur un constat simple. Nous avons examiné, action de MDE par action de MDE, compte tenu des prix de l'énergie, les temps de retour des actions. Bien évidemment, on observe une grande dispersion. La moyenne de ces temps de retour est supérieure à vingt ans. Nous avons pris comme hypothèse les actions dont le temps de retour serait inférieur à quinze ans, en supposant que des dispositifs d'incitation complémentaires seraient mis en oeuvre. En gros, on atteint 50 % des objectifs du Grenelle.

Nous sommes allés plus loin, pour évaluer où la France en est par rapport aux objectifs et aux dispositifs existants, notamment les certificats d'économie d'énergie. S'agissant des gisements, notre étude s'est nourrie du retour d'expérience des certificats d'énergie, qui constitue une base de données très utile pour évaluer le coût et les effets bénéfiques de chacune de ces actions. Ce faisant, nous avons réévalué l'ensemble du potentiel, toutes énergies confondues. Nous avons mis en évidence des décalages entre les objectifs du Grenelle et le gisement possible. En résidentiel, nous étions plutôt au-dessus, avec un objectif de l'ordre de 150 TWh, pour un gisement théorique de l'ordre de 120 TWh. Pour le tertiaire, le sens est inverse. Il y a donc une question autour du calage de ces objectifs par rapport au potentiel réel, même si, pour le bâtiment, l'objectif global est à peu près calé par rapport au potentiel.

Une fois qu'on a défini un objectif cohérent, quelle chance a-t-on de l'atteindre ? Sur ce point, nous avons effectué une approche type d'action par type d'action, pour essayer d'évaluer l'efficacité propre de l'action, et le retour de cette action, en prenant un taux d'actualisation de 10 %. On a ainsi mis en lumière trois grandes catégories d'actions : celles naturellement rentables, celles économiquement pertinentes, raisonnablement accessibles, étant entendu qu'il faut un euro d'aide pour un euro investi, et celles plutôt hors de portée, compte tenu de l'état des technologies, nécessitant dix euros d'aides pour un euro investi. Sur ce type d'action, la priorité est de mettre l'accent sur la R&D pour faire baisser le coût des technologies correspondantes. C'est le cas de l'isolation des fenêtres ou des combles habitables.

Ce faisant, nous avons quelques messages simples. Il est d'abord important de bien donner la priorité aux actions de MDE efficaces. Le dispositif de certificat d'économie d'énergie, même s'il a permis de démarrer, apparaît complexe et pointilleux, et pas à la mesure des enjeux qui sont devant nous. Le système repose aujourd'hui essentiellement sur les fournisseurs, et l'on voit bien qu'il ne s'agit pas d'une question que les fournisseurs maîtrisent. Il faut faire baisser les coûts des équipements, structurer une filière de fabrication des équipements qui soit compétitive, structurer les filières d'installation en aval, la qualité de la réalisation et le meilleur coût de réalisation étant prépondérant pour que ces actions de MDE se traduisent efficacement. Il faut enfin avoir une action sur les comportements en incitant les propriétaires à agir.

Tels sont quelques éléments de réflexion que je souhaitais évoquer pour avoir une politique de MDE ambitieuse et la plus efficiente possible, à l'heure où l'on se préoccupe de manière de plus en plus aiguë des investissements et des mesures d'aides publiques à des hauteurs très significatives. Pour les objectifs MDE du Grenelle de l'environnement les investissements sont évalués à 150 milliards d'euros, un chiffre considérable. Il est donc primordial d'avoir une approche centrée sur l'efficacité et l'efficience de chacune des actions.

M. Christian Bataille, député, rapporteur. - La parole est à Mme Florence Rodhain, maître de Conférences HDR à l'Université Montpellier 2, qui va évoquer l'impact des nouvelles technologies sur la consommation d'électricité. Je la remercie d'avoir intégré à son exposé une présentation des principales données chiffrées disponibles, l'ADEME n'étant pas parvenue à assurer, dans le délai requis, la présence d'un de ses représentants.

Mme Florence Rodhain, maître de Conférences HDR à l'Université Montpellier 2. - L'histoire des TIC est parsemée de faux espoirs et de vraies idées reçues. Dans les années quatre-vingt-dix, les gourous de l'informatique nous prévoyaient le zéro papier. Mon directeur de thèse a eu l'occasion d'assister à Montpellier à la suppression des imprimantes au sein de la société IBM, avec la montée en puissance des e-mail. Cette mesure n'a duré que deux semaines, les employés ne pouvant se passer de leur imprimante, notamment pour imprimer leurs e-mail. C'est en 1876 qu'a été inventé le téléphone. En 1879, on a retrouvé un éditorial du Times dans lequel un journaliste réputé de l'époque expliquait que les managers n'auraient plus à se déplacer grâce au téléphone. Dans les faits, depuis l'invention du télégraphe, on constate une corrélation très nette entre les progrès des TIC et ceux des autres consommations - papier, transport. Plus il y a de technologie de l'information, plus on consomme de papier et de déplacement.

Cela dit, qu'en est-il de la consommation électrique ? Un « avatar » sur second life consomme autant qu'un « vrai » Brésilien ou deux « vrais » Camerounais, soit l'équivalent de 4,8 kWh.an. Télécharger sur son ordinateur la version électronique d'un quotidien consomme autant d'électricité que de faire une lessive. Une recherche sur le site Google est équivalente à une heure de lumière dispensée par une ampoule à économie d'énergie. En juillet 2011, l'ADEME a montré que l'utilisation des e-mails dans une entreprise de 100 salariés est aussi polluante que 13 allers-retours de Paris à New-York. Un chercheur de l'université de Dresde juge qu'à ce rythme, Internet pourrait, dans vingt-cinq ans, consommer autant d'énergie que l'humanité toute entière aujourd'hui.

J'en viens à quelques données sur la consommation en France, reposant sur le rapport 2008 « TIC et développement durable », établi par le Conseil général de l'environnement et du développement durable et le Conseil général des technologies de l'information, mandatés par les ministères en charge de l'Ecologie et de l'Economie, ainsi qu'un rapport de l'ADEME et d'EDF.

D'après ces rapports, la consommation électrique des TIC en 2008 s'élève à 13,5 % de la consommation française. L'augmentation a été très soutenue entre 1998 et 2008, de l'ordre de 10 % par an. Dans le secteur résidentiel, les TIC occupent aujourd'hui le premier poste hors chauffage, consommant 30 % de l'électricité. Malgré une prise de conscience sur les systèmes de veille, ceux-ci continuent à consommer 10 % de la consommation totale des ménages.

En 2008, la totalité représentait 58,5 TWh.an. La plus grosse partie est occupée par l'informatique, avec 38 %, suivie par les télécoms et l'audiovisuel. Pour le secteur résidentiel, l'audiovisuel occupe la première place. S'agissant de la consommation informatique, les postes de travail professionnels occupent la première place, avec 50 %, contre 32 % chez les ménages. Les serveurs, avec 18 %, sont une grande préoccupation, car très énergivores, d'autant que leur consommation électrique est en très forte croissance, de l'ordre de 15 à 20 % par an, la moitié de cette énergie étant utilisée pour refroidir les serveurs.

Cela dit, cette augmentation doit peut-être être revue à la baisse. Un chercheur comme Jonathan Koomey a montré, en 2007, que la consommation d'électricité des serveurs avait doublé entre 2000 et 2005, mais augmenté de seulement 56 % entre 2005 et 2010.

S'agissant de la production de CO2, les TIC contribueraient à 5 % de leur production en France, avec une marge de 30 %, faute de données fiables. A l'échelle mondiale, on estime qu'elles contribuent à 5 % de la production de CO2, autant que le transport aérien.

Ces deux rapports estiment qu'en 2012 les TIC représenteraient 20 % de la consommation électrique française. Il faut cependant souligner qu'on manque cruellement d'études scientifiques et indépendantes sur ce sujet.

J'en viens à la conscience écologique des consommateurs, et des liens entre TIC et écologie. Nous travaillons sur un panel de consommateurs réputés avoir une très grande conscience écologique. Nous allons chez eux, où nous les interviewons. Ces individus se déplacent à vélo, pratiquent le covoiturage, régulent leur alimentation, consomment bio. Or ils n'ont qu'une conscience très obscure des liens entre TIC et écologie, conscience encore plus obscure entre TIC et électricité. Si ces personnes sont inconscientes des problèmes électriques, on peut supposer cette donnée généralisable à l'ensemble de la population. D'où l'exigence d'information.

Deuxième résultat : ces individus montrent une addiction aux TIC, jugeant leur comportement très difficile à réguler. Si on veut changer les comportements, il faut agir tôt et éduquer le plus tôt possible, avant qu'ils ne soient ancrés dans les habitudes.

En conclusion, ces chiffres montrent une incompatibilité entre l'objectif à 2020 et l'augmentation de la consommation électrique des TIC. Tous les gains réalisés sur l'électroménager et l'éclairage depuis 1995 sont annulés par l'augmentation de la consommation des TIC. Le rapport Emodes - qu'on pourrait presque qualifier de plaidoyer à charge contre l'industrie audiovisuelle - montre que la consommation électrique de l'audiovisuel, secteur qui apparaît comme un secteur qui évolue sans contrainte, a augmenté de plus de 78 % en dix ans. N'y a-t-il donc pas urgence à intervenir rapidement auprès de deux acteurs, à savoir la filière des producteurs ? Les deux rapports cités insistent beaucoup sur l'absence totale d'optimisation énergétique, alors que les gains possibles sont considérables. C'est ainsi qu'on met toujours sur le marché des boitiers ADSL ou des écrans plats qu'on ne peut pas éteindre. Une recommandation évidente serait d'interdire de telles pratiques.

Mais une deuxième recommandation serait d'agir sur le consommateur citoyen, de l'éveiller et l'éduquer sur la consommation des TIC. L'humanité a souvent tendance à s'en remettre au progrès technologique pour sauver la planète. Or sans développement de la conscience du citoyen, les progrès technologiques ne peuvent aboutir aux effets espérés du fait de « l'effet rebond ». Une économie d'énergie fonctionne généralement à comportement constant. Mais souvent, lorsqu'il y a économie d'énergie, il y a changement de comportement. Aussi est-il urgent de passer du vert à la vertu. Toutes les recherches sur les systèmes d'information montrent qu'il n'y a pas de déterminisme technologique, qu'il n'y a pas d'outils bons ou mauvais, verts ou noirs, mais que des utilisations vertueuses ou pas. Pour avoir une action efficace, il faut agir à la fois sur la technique, l'objet, et le sujet.

M. Christian Bataille, député, rapporteur. - Merci pour ce propos qui bouscule nombre d'idées reçues. La parole est à M. Patrick Geoffron, professeur d'économie et directeur du Centre de géopolitique, de l'énergie et des matières premières (CGEMP) à l'université Paris-Dauphine qui va présenter les enjeux économiques de la sobriété énergétique.

M. Patrice Geoffron, professeur d'économie et directeur du Centre de géopolitique, de l'énergie et des matières premières (CGEMP), université Paris-Dauphine. Ce week-end, au moment du passage à l'heure d'hiver, je me suis replongé dans une étude récente commandée par l'ADEME, montrant que les gains très modestes du basculement d'heure sont désormais plus que compensés par l'usage d'une heure de soirée supplémentaire pour se laisser aller aux addictions de type Facebook, dimension qui doit nous alerter.

Cela dit, j'ai été convié dans cette enceinte pour prendre le contrepied parfait de votre propos, pour montrer de quelle manière les technologies de l'information et de la communication (TIC) sont nécessaires pour, une fois insérées à haute dose dans les réseaux et les systèmes électriques, affronter les challenges qui se trouvent devant nous. Ils s'y trouvent d'autant plus au terme d'une année où nous avons appris la décision allemande, et qui semble se dessiner ailleurs, relative au nucléaire, qui nous conduira à introduire plus d'intermittence dans les systèmes électriques. Une telle évolution ne pourra pas se gérer sans plus d'appel aux technologies de l'information.

La contribution politique des TIC viendra donc compenser le tableau que vous venez de nous brosser. Il y a deux ans, mon laboratoire a été conduit à développer une coopération avec la commission de régulation de l'énergie (CRE), qui a développé un site dédié aux smartgrids. Cette coopération a donné lieu, en janvier 2010, à une journée à l'Assemblée nationale, où nous avions convié des industriels du secteur électrique, mais aussi Google, IBM et Cisco. Depuis, mon laboratoire a été lauréat d'un des appels à projet de l'ADEME sur la question des réseaux intelligents. Mon équipe devra ainsi sonder à Strasbourg, en collaboration avec la communauté urbaine de cette ville, la capacité de ménages équipés de boitiers intelligents à établir une relation différenciée avec l'électricité.

Cela dit, à l'horizon 2050, et même pour la partie de l'Europe qui nous concerne, le scénario de l'Agence internationale de l'énergie (AIE) prévoit une augmentation de la demande électrique. Elle est certes moins spectaculaire qu'en Chine ou en Inde, mais les ordres de grandeur mettent en avant des augmentations de 20 à 50 %, compte tenu notamment de l'apparition des nouveaux objets connectés et des consommations nouvelles liées aux véhicules électriques. Il faut y ajouter davantage d'énergie intermittente. Pour l'Union européenne, les ordres de grandeur sont pour le moins considérables. Mettre de l'intermittence dans des systèmes électriques, c'est avoir à les gérer suivant des mécanismes et une alchimie très différente selon qu'on fait appel à du nucléaire, du charbon ou du gaz. Pour résumer, on n'intégrera pas l'intermittence suivant les modalités actuelles de gestion du système de transport et de distribution. A l'horizon 2035, et si rien n'est fait, un scénario prévoit plus de 40 milliards de tonnes d'émission de CO2 et une hausse de température indéterminée à la fin du siècle, de près de 6 degrés. Un autre scénario, dit vert, déjà hors de portée, pourrait nous maintenir aux alentours d'une hausse de 2 degrés, encore gérable.

J'ajoute que 50 % de l'effort sera assuré par les gains en efficacité énergétique. Beaucoup plus d'efficacité énergétique et beaucoup plus d'énergies renouvelables ne pourront se faire avec le type de système d'information qui se couple aujourd'hui avec le réseau électrique.

Avec la mise en oeuvre des smartgrids, les scénarios de long terme de l'AIE mettent en avant deux types d'impact du CO2 : des effets directs, liés aux gains en efficacité énergétique, et des effets indirects, liés à la capacité à intégrer, ou pas, de nouveaux objets, type voiture électrique, et à les interconnecter, de manière vertueuse, dans ces réseaux, selon qu'ils tendront ou pas vers une insertion plus importante de TIC.

En élargissant le spectre au-delà de la France et de l'Europe, on constate de très gros enjeux en termes de réduction du CO2, liés au fait que les systèmes électriques seront amenés à reposer de plus en plus sur le charbon. Des réseaux intelligents en Chine et aux Etats-Unis, c'est également plus de capacité d'effacement, de renoncement à mettre en oeuvre, dans une période de pointe, une centrale à charbon, avec des effets de levier plus importants que dans ce qu'on imaginait de l'Europe continentale, au sein de laquelle on était censé conserver plus de nucléaire.

Que changent les smartgrids ? Les énergies intermittentes vont poser d'autres types de problèmes que ceux gérés habituellement. On peut gérer aujourd'hui la question de la pointe, qu'il est d'usage de voir apparaître en hiver à 19 heures 30. La question de l'intermittence introduit d'autres éléments de variabilité et d'imprévisibilité dans le système, à savoir que la chute du vent en Mer du nord n'a pas de raison d'intervenir durant la nuit, où l'on dispose de moyens de production de base qui peuvent être satisfaisant. Mais ces réseaux intelligents ont aussi une capacité à gérer non plus des problématiques sur une maille régionale et nationale, mais aussi sur une base locale, de quartier, au niveau d'un bâtiment et d'une maison.

Les représentations sont une chose et la technique une autre. Or c'est un fait qu'on ne sait pas encore comment faire techniquement. Ces nouvelles chaînes de valeurs ou ces nouveaux écosystèmes électriques, qui ont vocation à se dessiner progressivement dans les années 2020 et sans doute avant, conduisent à interagir et à faire travailler ensemble à la fois les acteurs des équipements et des systèmes électriques, mais aussi les acteurs des technologies de l'information, des produits de consommation et des industriels du bâtiment.

La capacité à interagir et à faire naître des modèles économiques est pour l'heure totalement indéterminée. Je vous renvoie sur ce sujet à un dossier de la CRE dédié aux modèles économiques des smartgrids, l'idée étant que des modèles innovants peuvent naître autour de l'économie du véhicule électrique, de la question de l'efficacité des bâtiments.

Pour en arriver là, il y a beaucoup d'écueils, liés en particulier aux prix du pétrole et au prix du CO2. Qu'on imagine des particuliers qui voudraient faire des choix technologiques les conduisant à être moins dépendants du fuel et à s'appuyer sur des combinaisons entre GPL et solaire. Tout cela prendra sens en fonction d'éléments relatifs au prix du pétrole. Autre écueil : la montée de l'endettement au sein de l'OCDE, chacun connaissant les contraintes en jeu, la seule certitude étant la plus faible disponibilité d'argent public pour accompagner cette transition et l'insertion des technologies de l'information dans les réseaux. Aussi les acteurs privés sont-ils dans l'obligation d'identifier dans les meilleurs délais des espaces économiques qui permettront de drainer de l'argent privé et de faire émerger des modèles d'affaire qui ne seront pas trop intensifs et consommateurs d'argent public.

Si l'on essaie de se convaincre que les besoins d'investissement seront globalement très conséquents, une manière de les évaluer consiste à se pencher sur l'évaluation réalisée par la DGEC en mars dernier, mettant en avant des investissements de l'ordre de 270 milliards d'euros par an à l'échelon européen, soit 1,5 % du PIB européen chaque année entre aujourd'hui et 2050. Au passage, cette somme est à comparer avec le niveau de la dette grecque.

Dernière inconnue : la manière dont les entreprises pourront s'adapter à ces évolutions. Les entreprises, a fortiori les plus grandes, ont la capacité à dédier des moyens pour entrer au sein de ses systèmes. Pour que nous réussissions cette transition, il faudra associer les ménages à la compréhension de ces systèmes. Pour l'heure, il faut reconnaître que cette compréhension est à peu près égale à zéro, le système dans lequel nous vivons nous ayant placés dans un paradis énergétique, fait d'une continuité d'approvisionnement et de prix bas. La seule fenêtre par laquelle nous entrevoyons les fracas du monde énergétique est le prix à la pompe. Il faudra regarder cette réalité à travers d'autres compteurs, notamment intelligents. Reste que notre compréhension de mécanismes comme les effets d'une chute de vent sur le parc éolien allemand en Mer du Nord n'est pas très bonne. Pour les sciences sociales, il s'agit d'un champ de recherche très important, car on ne réussira pas cette transition sans y associer massivement, et sur des délais plutôt courts, les consommateurs.

Cela dit, il y a une raison d'espérer, nos concitoyens ayant montré, dans la dernière décennie, une aptitude à s'approprier des objets nouveaux et à comprendre des mécanismes complexes. Par contre, leur capacité à s'adapter à ces évolutions pourrait être indexée sur leur niveau de revenu, sujet qui renvoie à la question de la précarité énergétique. Nous avons organisé une conférence sur le sujet à Dauphine, où nous avions convié EDF, l'ADEME et la Fondation Abbé Pierre. Nous avons ainsi appris que l'Allemagne, pourtant réputé être le coeur de la prospérité européenne, était le pays comportant le plus de précaires électriques. Si les Allemands ont probablement une relation plus vertueuse que la nôtre aux consommations énergétiques, il n'en reste pas moins que les populations les plus modestes n'ont pas pu s'adapter aux évolutions. La fracture numérique se doublerait d'une fracture énergétique, les classes moyennes et les classes plus privilégiées ayant la capacité à entrer dans ces nouveaux mécanismes et à en tirer parti pour accroitre leur confort énergétique, alors que les classes les plus modestes seraient dans l'incapacité d'accompagner ce mouvement.

M. Christian Bataille, député, rapporteur. - Merci à tous d'avoir situé les enjeux de la sobriété énergétique et d'avoir rappelé que l'objectif essentiel est la lutte contre le réchauffement climatique, enjeu qui a tendance à être oublié du fait d'autres débats.

Le débat est ouvert.

M. Bernard Tardieu. Je veux revenir sur la question de la puissance, pour bien comprendre comment se fixeront les prix sur un marché libre. Quelles seront les interactions entre la loi NOME II et le marché Spot pour déterminer le prix de la pointe ? Dans la mesure où le suivi de charge du nucléaire n'est pas très rapide, il y aura certainement un appel en urgence sur le transitoire. Comment, dans un marché libre, se fixerait ce prix ?

M. Christian Bataille, député, rapporteur. - D'après vous, le marché actuel n'est pas libre ?

M. Bernard Tardieu. Si. On peut vendre sur le marché libre. Mais une bonne partie des gens dépendent d'un marché régulé. Quelle seront les évolutions en la matière ?

M. Pierre-Franck Chevet. Il n'existe pas de réponse simple à cette question, étant entendu que nous sommes en train d'y travailler. Il y a une différence entre régler les prix de marché à l'instant « t » et vérifier l'adéquation entre l'offre et la demande à tout moment par l'existence d'un marché de capacité installée. Nous travaillons sur les textes d'application, lesquels sont nécessaires et urgents, l'objectif étant de disposer d'une règle du jeu pour 2012, pour qu'on puisse se positionner sur un marché de capacité. Il s'agit d'un sujet complexe, la question de la sécurité d'approvisionnement, qu'on oublie trop souvent, étant au premier plan. Le dernier « blackout » connu en France date de 2007 et a duré au maximum 3 heures. A douze heures, l'effet aurait été tout autre. C'est donc un sujet essentiel, qui se rappelle à nous bruyamment et par surprise. Il s'agit non pas de mettre en avant l'aspect productiviste, vision classique de notre système, mais de donner un début de sens à l'effacement et à ce que chacun d'entre nous peut faire.

M. Christian Bataille, député, rapporteur. - Cette deuxième table ronde sera l'occasion de réfléchir à l'évolution de notre consommation électrique, en nous intéressant tout particulièrement aux effets de l'innovation dans l'aménagement urbain et les transports, domaines où l'évolution des technologies pourrait influer substantiellement sur notre consommation électrique à venir. De telles évolutions comportent de nombreux obstacles, autant d'ordre technique que sociétal. Elles exigent également des investissements conséquents, notamment pour la création d'infrastructures adaptées. Dès lors, on peut légitimement s'interroger sur la possibilité de créer un marché grand public substantiel.

La parole est à M. Bernard Decomps, professeur émérite de l'École normale supérieure de Cachan et conseiller du président du pôle de compétitivité ADVANCITY, qui va nous présenter les conclusions des travaux de l'Académie des technologies sur la performance énergétique de la ville et l'impact de la structure urbaine sur la compétitivité des entreprises.

M. Bernard Decomps, professeur émérite de l'École normale supérieure de Cachan, conseiller du président du pôle de compétitivité ADVANCITY, Académie des technologies. Je vais aborder de façon synthétique trois axes de la question : quels sont les enjeux ? Qui est responsable ? Quels sont les handicaps et les atouts de la France.

Premièrement, les enjeux. Une ville, il faut le rappeler, est d'abord un lieu dans lequel les gens peuvent se rencontrer, développer des activités économiques, sociales et culturelles. S'ils y parviennent en dépensant le moins possible d'énergie, ce facteur pourra réguler la capacité d'une ville à remplir sa fonction. En Europe ou en Amérique du nord, où la population urbaine reste stable, la performance a pour objectif premier de réduire la dépense et le coût de l'énergie, ainsi que la dépendance aux pays exportateurs de ressources primaires.

La population, en revanche, explose dans les pays émergents et en Afrique, où il ne s'agit plus de réduire la consommation d'énergie, ce qui n'aurait aucun sens, compte tenu de la très faible consommation par habitant dans ces pays. Par conséquent, on ne peut espérer que la contenir, tout comme les émissions de gaz à effet de serre, dont l'impact sur le réchauffement climatique de la planète est très réel, contrairement aux pays du nord.

La performance énergétique constitue un objectif majeur : comment l'ensemble des villes pourront-elles abriter, dans les cinquante ans à venir, les trois quarts de la population mondiale, avec des objectifs qui diffèrent fondamentalement au nord et au sud ?

Qui est responsable de la performance énergétique d'une ville ? Pour la France, sans dédouaner l'Etat, il faut rappeler que les citadins ou usagers ont une importance capitale, y compris dans la ville. Ils assument une part des responsabilités qui incombent aux autorités locales, lesquelles modèlent la structure urbaine et assurent la maîtrise d'ouvrage des investissements dédiés à la maintenance et à l'amélioration de la performance énergétique. Une part au moins égale revient aux acteurs économiques. J'entends par là les entreprises (construction, transports, alimentation en énergie, bureaux d'ingénierie, organismes financiers) dont les prestations innovantes concrétisent une performance constatée par les citadins et, plus largement, par ceux qui aspirent à des avancées comparables en France ou à l'étranger.

La réussite d'un îlot, d'un quartier ou d'une ville est un gage de progrès et de confort pour les habitants. Mais c'est aussi un démonstrateur de la performance technique, et un atout pour remporter des marchés à l'international, dans des domaines hautement compétitifs. Grâce aux acteurs économiques, qui savent démontrer leur capacité d'innovation et remporter des marchés à l'export dans les pays du sud, les pays du nord combinent l'essor économique avec l'emploi et un intérêt climatique et éthique. C'est par ce biais qu'on pourra agir efficacement sur au moins une tendance, pour réduire l'emballement du réchauffement climatique.

Quels sont les handicaps et les atouts de la France à l'export ? Les villes françaises accusent indéniablement un retard dans le secteur très concurrentiel de la sobriété énergétique. Elles disposent toutefois de champions industriels de rang mondial dans la construction, l'environnement et l'énergie, et d'un tissu de sociétés d'ingénierie. Ceux-ci misent aujourd'hui sur des programmes nationaux, tels que les éco-quartiers ou les éco-cités, et sur des réalisations urbaines globales initiées par les collectivités. Il suffit d'aller à Rennes, Toulouse ou Lyon pour constater le dynamisme et l'effort d'imagination et d'intelligence réalisé. Le Grand Paris nous promet à ce sujet des choses magnifiques.

Pour remporter les marchés à l'international, la réalisation de démonstrateurs mettant en avant des solutions maîtrisées constitue un gage de notoriété des technologies nationales dans un pays accueillant de très nombreux touristes.

J'en viens à quelques leviers de la performance énergétique, en essayant d'éviter d'évoquer ceux développés par les autres participants à cette table ronde.

Additionner des effets de levier n'a pas de sens tant il est vrai que tout est interdépendant dans une ville. En améliorant la performance énergétique dans les villes, on constate qu'on augmente les prix du foncier. Une telle évolution pousse un certain nombre des habitants à rejoindre un halo dans lequel la densité est trop faible pour pouvoir imaginer des transports collectifs. Par conséquent, cette population qui continue à travailler à l'intérieur de la ville réduit sensiblement les gains réalisés par une organisation intelligente. C'est un phénomène constaté dans toutes les villes du monde, en particulier les villes françaises que j'ai déjà citées.

Trois questions représentent des enjeux considérables. La première concerne la gouvernance et son autorité dans la durée. En règle générale, le territoire concerné par un problème énergétique s'étend sur plusieurs communes. Par conséquent, la gouvernance énergétique doit relever d'instances comme les communautés urbaines, lesquelles ne disposent pas toujours de l'autorité souhaitable. On se prend à envier le grand Londres, où un maire élu au suffrage universel direct, dispose de pouvoirs extrêmement étendus en matière d'organisation urbaine, d'autant que les pouvoirs des collectivités sont, en France, singulièrement réduits par rapport à ceux de collectivités de taille comparable dans d'autres pays européens.

En France, les collectivités, toutes l'affirment, doivent surmonter deux handicaps : l'impossibilité de peser réellement sur les prix du foncier et de contourner un code des marchés publics dont l'application rigoureuse constitue souvent une entrave à la réalisation des démonstrateurs.

Le deuxième levier concerne l'allocation des espaces urbains et l'organisation des flux de déplacement quotidien. Espace de rencontre, la ville tire avantage de la densification urbaine et, accessoirement, du télétravail ou des téléservices. Le modèle simple de la ville organisée autour d'un point de passage obligé des déplacements internes atteint rapidement ses limites. Si une marge de progrès demeure possible pour des villes de 100 000 habitants, ce modèle ne permettrait pas d'en héberger plusieurs millions sans imposer des déplacements quotidiens sur des distances prohibitives. Des agglomérations européennes comme Hanovre, Stockholm ou Barcelone figurent à l'avant-garde des innovations. Elles expérimentent l'assemblage de quartiers cohérents autour de gares de proximité, dont la pluri-activité est irriguée par des déplacements en mode doux, réduisant les consommations d'énergie. Les différents quartiers sont reliés entre eux par des transports rapides entre gares, objectif attendu du Grand Paris. On estime que cette réorganisation des villes réduirait à elle seule la consommation de quelque 10 %, soit la moitié de l'objectif fixé à l'horizon 2020.

Le troisième levier concerne la confection du bouquet énergétique, d'une part, à partir d'énergies en provenance de fournisseurs extérieurs et, d'autre part, d'énergies produites ou recyclées sur le territoire. Aujourd'hui, les fournitures externes se composent essentiellement de carburants, liquides ou gazeux et d'électricité, fournie par un réseau national garant des approvisionnements à tout instant. Elles peuvent inclure de la chaleur issue du refroidissement d'installations industrielles ou de centrales électriques, thermiques ou pourquoi pas nucléaires, à condition, cependant, de déployer des réseaux sur une centaine de kilomètres autour de chaque installation électrique d'importance.

Les approvisionnements venant de l'extérieur, aujourd'hui largement majoritaires en quantité, sont complétés par la production, le stockage ou le recyclage d'énergie sur le territoire, tantôt à partir d'énergie renouvelable locale : photovoltaïque, éolien, géothermique, tantôt à partir d'installations industrielles situées en ville, tantôt par le recyclage d'énergies plus ou moins dégradées. La récupération de chaleur dans les eaux usées, naturelles, fluviales, dont l'effet est accru par des pompes à chaleur, et le traitement des déchets ou des boues, se développe à bonne allure, au profit des ilots, dans les quartiers, et à plus longue échéance dans les agglomérations. Vu l'ampleur des investissements, il s'agit d'un chantier de longue haleine, qui exigerait des tests en vraie grandeur, pour mesurer son coût et son acceptabilité par la population. En revanche, pour une ville neuve, la production locale d'énergie pourrait devenir majoritaire, dès lors que plusieurs obstacles techniques importants seraient levés. Je propose que nous y réfléchissions ensemble.

Ce faisant, on peut regarder l'incidence sur la politique énergétique nationale, en lien avec la compétitivité des entreprises. A priori, les avancées de la performance énergétique permettent de revisiter la doctrine nationale en matière de production d'électricité, pour se caler sur la perspective allemande de sortie du nucléaire. Avant de répondre positivement ou négativement, il faudrait opérer un basculement, concevable en principe entre les rôles de l'approvisionnement national et local, mais qui se heurte aujourd'hui, au moins pour plusieurs décennies, à des obstacles techniques et commerciaux majeurs, sauf à ignorer les risques climatiques. Imaginez l'exemple que la France donnerait si elle décidait de s'engager dans la construction des centrales à charbon, alors qu'elle est reconnue comme un pays où l'électricité est plutôt produite sans CO2.

Il ne s'agit pas d'ignorer ou de masquer les progrès rapides du photovoltaïque, notamment dans les dispositifs en couche mince, seul secteur où la suprématie de la Chine n'est pas définitivement établie. Les avancées dans les autres énergies renouvelables, le différentiel de prix du KWh conservent aux énergies nucléaire et hydraulique une avance confortable pour l'approvisionnement externe d'une ville importante, d'autant qu'avec la chaleur, on peut améliorer le système et chauffer quasiment gratuitement tous les bâtiments des villes et le tertiaire. Sauf à imaginer des progrès spectaculaires dans le stockage de l'énergie à un coût abordable, il est probable qu'on sera tenté de confiner les énergies nouvelles, notamment en raison de leur variabilité dans la journée et de leur caractère imprévisible à plusieurs jours, dans des fonctions d'appoint.

Si des impératifs de sécurité devaient changer la donne, en précipitant un arrêt de l'exploitation des centrales nucléaires en état de fonctionnement ou un gel prolongé de nouvelles constructions, en dépit d'une demande d'électricité accrue avec la voiture électrique et les TIC, on ne pourrait éviter de se retourner vers des centrales à carburant fossile. Une telle décision adresserait un bien mauvais signal aux pays émergents, en raison des émissions de gaz à effet de serre et de leur impact sur le réchauffement climatique, et l'on sait que scénarios se prononcent pour une hausse de 6 ° des températures. Les techniques de capture et de séquestration du carbone ont suscité bien des espoirs, mais elles sont à encore trop aléatoires et trop chères pour fournir une alternative crédible.

Dans ces conditions, et par son concours à l'indépendance énergétique, le développement des énergies nouvelles est un axe porteur pour l'économie nationale et les entreprises. Dans la ville, les énergies produites localement sont appelées à jouer un rôle croissant dans le chauffage et la climatisation. En revanche, elles peuvent dès à présent jouer un rôle déterminant dans les quartiers neufs, où l'installation de réseaux de chaleurs devrait s'imposer. La production locale d'électricité est-elle susceptible de dépasser la fonction d'appoint qui lui est dévolue ?

Les travaux sur les systèmes complexes impliquant plusieurs millions de producteurs consommateurs, avec des smartgrids sophistiqués, n'incluent plus totalement une telle révolution conceptuelle, lorsque les obstacles techniques, notamment sur le stockage d'énergie seront levés. Les échéances sont difficiles à prévoir, et les coûts d'investissement bien trop élevés, sauf dans des démonstrateurs d'ilots ou de quartiers basés sur ce principe.

C'est la raison pour laquelle le bouquet énergétique qui offre les meilleures chances pour les entreprises à l'export est à l'évidence la superposition d'une offre d'électricité traditionnelle, et du potentiel de chauffage d'un réseau de chaleur diffusé à partir d'installations industrielles. Voilà une solution immédiatement crédible pour l'approvisionnement de base de villes neuves en construction, au sein desquelles les énergies nouvelles sont appelées à jouer un rôle grandissant.

Alors que le pays ne dispose plus d'avantages compétitifs dans la production d'énergie et d'électricité dans les centrales thermiques, le déploiement du bouquet nucléaire, hydraulique et énergies nouvelles, renouvelables ou pas, confère aux entreprises françaises de bonnes chances de succès à l'export. Les réseaux de chaleur ouvrent dès à présent une solution élégante, combinant performance énergétique, et contribution minimale au réchauffement de la planète. N'oublions pas qu'en France, le chauffage des bâtiments et du tertiaire représente 45 % de la consommation d'énergie, enjeu considérable s'il en est.

Un délai supplémentaire de plusieurs décennies sera sans doute nécessaire pour concrétiser, avec l'échange des rôles du local et du national dans le bouquet énergétique d'une ville, une révolution conférant aux énergies locales, nouvelles ou traditionnelles, un nouvel espace d'innovation qu'on devrait préparer sans retard.

M. Christian Bataille, député, rapporteur. - Vous vous êtes inquiété d'une évolution possible de la France vers la production d'électricité à partir de charbon. Heureusement, ce n'est pas le cas. Mais je voudrai rappeler que l'Allemagne, que certains voudraient ériger en modèle pour notre pays, produit plus de 40 % de son électricité à partir du charbon.

Cela dit, la parole est à M. Philippe Watteau, adjoint au directeur de la recherche du CEA, qui va évoquer le partenariat avec Renault dans le domaine des véhicules électriques, lequel a abouti il y a quelques jours à une commande spectaculaire à plus de 15 000 utilitaires Kangoo ZE pour les administrations et 18 entreprises rattachées au secteur public.

M. Philippe Watteau, adjoint au directeur de la recherche technologique, CEA. Je vous propose d'aborder, au travers du partenariat entre Renault et le CEA, les principaux défis posés par le véhicule électrique ainsi que les apports du CEA et de la recherche française en matière d'innovation, pour aider notre industrie nationale à se positionner comme leader sur ce marché.

Je traiterai d'abord du coeur du véhicule électrique, les batteries, puis de ses autres dimensions, ce véhicule étant une nouvelle approche de l'automobile.

Premièrement, les batteries. En la matière, il n'existe pas de batterie miracle, qui révolutionnera l'automobile pour en faire un véhicule universel. De fait, il existe différents types de batteries, tout comme il existe différents types de moteurs thermiques, diesel, à essence, avec plusieurs niveaux de cylindrés. De même, il existera différents types de véhicules électriques pour différents usages. Vous mentionnez la Kangoo ZE pour le secteur public : elle répond à certains types d'usage. Les constructeurs, notamment Renault, offrent déjà une gamme qui répond à différents besoins.

Pour ces différents usages, différents types de batteries vont se développer. C'est un point essentiel. Le partenariat entre la recherche française, via le CEA, et l'automobile, se fait au travers d'un cahier des charges technico-économique très précis, qui répond au besoin d'un constructeur français et à celui de ses clients. C'est ainsi qu'une batterie présente une certaine durée de vie, un coût, une autonomie.

Pour autant, des défis sont assez partagés au sein de la communauté automobile de recherche. Le premier défi est celui de la sécurité. Un véhicule à moteur thermique peut toujours prendre feu et comporte toujours un certain degré de dangerosité. Cela dit, pour des véhicules innovants, comme le véhicule électrique, la sécurité s'avère encore plus importante. Ainsi, les explosions dans des parkings de véhicules GPL ont cassé le marché. Il faut donc éviter à tout prix cet effet pour le véhicule électrique.

Nous avons donc un point d'attention très poussé sur la sécurité. La chimie constitue une partie de notre réponse. Le CEA dispose ainsi de brevets pionniers au plan mondial sur le fer/phosphate, solution très sûre sur le plan chimique, par opposition à d'autres, comme le cobalt, susceptible de s'enflammer facilement.

Le deuxième défi est celui de l'autonomie. Un véhicule électrique doit non seulement être sûr, mais aussi pouvoir rouler sur une certaine distance. En matière de recherche, dans les laboratoires du CNRS comme du CEA, des performances intéressantes, de 250 à 280 km d'autonomie, sont atteintes. La question est celle du passage à l'échelle industrielle : passer de la construction de batteries en laboratoire et en petite quantité à plusieurs dizaines de milliers d'exemplaires. En la matière, la filière industrielle joue un rôle essentiel. Il faut être capable de produire les matières premières, notamment les poudres, à grande échelle, pour assurer une production de batteries en grande quantité, défi qui prendra plusieurs années.

On a parlé du temps politique et du temps énergétique. Au moins trois années sont nécessaires pour passer du laboratoire au stade industriel. Le CEA est aujourd'hui en mesure de produire des batteries à plusieurs centaines d'unités. Mais avant que l'usine de Flins produise des tranches de 10 000 batteries, il faudra passer à un stade pré-industriel de 3 à 4 000 unités : c'est la prochaine étape qui se présente devant nous, les résultats en laboratoire étant intéressants.

Le troisième défi est celui de la durabilité. Quelle est la durée de vie de ces batteries ? C'est la grande question. Imaginez des batteries de 300 kilomètres d'autonomie seulement les deux premières années, autonomie suivie ensuite par une décroissance. Une telle innovation serait de peu d'intérêt, surtout dans le modèle économique de Renault, où la batterie est louée. Le client de Renault, je le rappelle, paye 80 € par mois pour un véhicule électrique. Dès que la batterie n'est plus performante, le constructeur la remplace. La transparence est assurée pour le consommateur, pas pour le constructeur. Voilà pourquoi la durabilité est un critère fondamental, une batterie devant durer dix ans. Du coup, la question du coût de la batterie est directement liée à celle de sa durée de vie.

Le dernier défi est celui du recyclage, ou plutôt de l'éco-conception. Sur ce point, il s'agit d'intégrer en amont la possibilité de recycler facilement la batterie. Aussi les cellules doivent-elles être conçues en amont, pour que les batteries soient facilement recyclables en aval. L'objectif est de mettre au point des batteries 100 % recyclables. Cela ne signifie pas pour autant qu'elles seront recyclées à 100 %. C'est la raison pour laquelle j'insiste sur l'éco-conception et l'importance de l'intégration en amont de la facilité de recyclage.

De manière transverse, nous disposons de deux leviers forts d'innovation. Le premier touche aux matériaux, domaine qui relève de la recherche amont, des sciences de la matière et des grands équipements, type Synchrotron. Il s'agit d'exacerber les propriétés de la matière pour qu'elle donne le meilleur d'elle-même afin d'assurer l'autonomie, mais aussi la sécurité, de bien comprendre l'organisation des atomes pour que la batterie soit la plus performante. C'est une première rupture de type amont, qui impliquera beaucoup le CNRS et les grands équipements.

Le deuxième levier touche aux systèmes, à la gestion intelligente de la batterie. Aussi va-t-on placer des capteurs sur cette batterie, pour savoir comment elle évolue dans le temps, puis une couche d'intelligence pour modéliser sa situation. Il s'agit de répondre à deux questions simples : quelle est la taille et le niveau de mon réservoir, de manière à fournir des informations constantes au client ? Cette intégration système interne à la batterie, permettra d'en connaître l'état mais sera aussi une interface très forte avec le véhicule électrique.

J'en viens à mon deuxième point, en soulignant d'abord qu'un véhicule électrique doit avant tout être très économe en énergie. Plus il est économe en énergie, plus la batterie autorisera une autonomie et des prestations maximales.

Trois leviers sont identifiés à cette fin. Le premier est le poids. Un véhicule classique pèse 1,4 tonne, poids peu compatible avec l'utilisation de batteries. Renault travaille donc fortement sur la réduction du poids, l'idéal étant de passer à 800 kg. L'enjeu porte alors sur la sécurité des voitures, de passer d'une voiture dotée de moyens en sécurité passive, à des moyens de sécurité active, pour éviter l'accident. Cela suppose des dispositifs de communication, de véhicule à véhicule, et de véhicule à infrastructure, pour minimiser les accidents. Par ce biais, on réduira l'arsenal de sécurité passive.

Le deuxième levier est la consommation des auxiliaires. On a parlé de chauffage et de climatisation pour le bâtiment. La problématique est la même pour un véhicule électrique. En la matière, il faut trouver des moyens de chauffage et de climatisation qui soient bien plus en rupture, pour ne pas pomper sur la batterie pour chauffer et mettre de la climatisation dans le véhicule.

Le troisième levier est de donner au véhicule des capacités à s'autocharger. Il existe ainsi différents moyens de récupération d'énergie, au freinage, notamment, les petits ruisseaux pouvant faire de grandes rivières. Aussi sommes-nous en train de développer des technologies pour que la voiture puisse se charger au maximum.

Pour conclure, le partenariat Renault/CEA a été signé en 2010. Nous nous sommes donné cinq ans pour élaborer la deuxième génération de véhicules électriques avec de nouvelles batteries. Nous sommes sur la bonne voie, avec une dynamique de brevets très importante, de l'ordre de cinquante par an, la capacité à générer de l'innovation et à la protéger étant un point essentiel dans la compétition mondiale. Nous avons également engagé un travail sur l'articulation entre le véhicule et les smartgrids, notamment au travers de bornes de recharge intelligentes, capables d'articuler au mieux des capacités de stockage des véhicules par rapport au réseau.

M. Christian Bataille, député, rapporteur. - La parole est à M. Didier Marginedes, conseiller du président du Groupe Bolloré, que je reçois avec d'autant plus de plaisir que nous avions cherché, avec Claude Birraux, à l'auditionner lors de notre réflexion sur la stratégie de recherche en énergie. Il avait alors décliné notre invitation en raison du secret industriel sur le développement en cours d'une nouvelle génération de batterie lithium/polymère. Il va nous présenter Autolib, un système de partage de véhicules électriques.

M. Didier Marginedes, conseiller du président du Groupe Bolloré. - Nous avons en effet développé une filière de batteries qui nous est propre, et je remercie l'intervenant précédant pour son cours de chimie et de nous avoir rappelé l'importance de la capacité, de la puissance de la batterie, comme de sa durabilité, son recyclage ou sa sécurité, points sur lesquels nous travaillons depuis une quinzaine d'années. C'est parce que nous sommes parvenus à un certain stade de performance que nous avons été retenus pour le projet Autolib, avec lequel la présence de véhicules dans les rues va devenir une réalité.

Ce projet a été lancé sur fonds propres voilà une vingtaine d'années. C'est la raison pour laquelle je n'avais pas répondu à votre invitation, notre président souhaitant conserver le secret sur ce sujet. Nous avons investi beaucoup d'argent sur ce projet, depuis de nombreuses années, avec l'argent du groupe et une volonté importante de Vincent Bolloré de travailler sur ce domaine.

Notre approche stratégique visait d'abord le développement de techniques de stockage d'énergie. Un véhicule électrique sans une batterie qui a des performances importantes n'existe pas. Pour mémoire, en 1899, un véhicule électrique a été mis au point, qui a dépassé les 100 km/h. Il avait pour nom la « Jamais Contente », et a lutté contre le véhicule thermique. Il ne s'est pas développé en raison d'un rendement insuffisant. En revanche, le pétrole s'est fortement développé, un kilogramme de pétrole représentant trois cents fois plus d'énergie qu'un kilogramme de batterie plomb, soit 10 kWh d'énergie contenue dans le premier, contre 30 Wh pour le second.

Aujourd'hui, nous disposons de batteries dotées de 100 à 120 Wh/kg. Dit autrement, faire un kilomètre exige un kilogramme de batterie. L'autonomie du véhicule électrique tel qu'on peut l'envisager à un horizon prévisible sera donc limitée. Mais c'est une étape importante qui a été franchie, la « Jamais Contente II », développée par Gildo Pastor, ayant dépassé les 500 km/h.

Cela dit, nous avons travaillé sur deux systèmes de stockage d'énergie, les batteries et les supercondensateurs, utilisés dans les systèmes stop/start, dont toutes les voitures seront équipées. Le système stop/start ? C'est le début de l'électrification du véhicule. C'est à dire qu'une voiture s'arrête au feu rouge, permettant ainsi d'éliminer la consommation du moteur pendant cette période.

Dans les années 1998-1999, où nos batteries avaient atteint un certain degré de performance, on n'a pas trouvé beaucoup de constructeurs automobiles intéressés par le véhicule électrique.

Notre président a donc décidé d'investir dans un véhicule électrique construit autour de la batterie, et pas de l'électrification d'un véhicule existant. Nous avons réfléchi au poids du véhicule, point critique, étant entendu qu'à des vitesses inférieures à 50 km/h, c'est essentiellement le poids qui consommera de l'énergie. Nous avons également réfléchi aux auxiliaires, qu'il faut minimiser. Dès que vous consommez un kWh, vous ne disposez plus d'un moteur thermique qui fournit de la chaleur gratuitement. Il faut payer pour toutes les énergies, ce qui suppose d'optimiser la consommation énergétique et de réfléchir à l'intérêt d'un certain nombre de fonctions de confort. Nous avons aussi travaillé sur une chaîne de traction adaptée à notre véhicule et à notre batterie, en l'absence de traction performante. Il a donc fallu intégrer toutes les lois de conduite d'un véhicule électrique.

Ce faisant, nous avons été retenus pour le projet Autolib, disposant d'une solution complète d'électro-mobilité, avec bornes de charge, de location, d'abonnement, un système de supervision complet pour optimiser la disponibilité des véhicules, et un système d'information qui permet d'assurer la facturation des services.

Quel est le paysage du véhicule électrique ? Il va du stop/start jusqu'au véhicule totalement électrique. Entre les deux, se trouve une maille d'hybrides, avec récupération d'énergie au freinage. Il s'agit là d'un gros consommateur et producteur d'énergie, ce qui suppose d'être en mesure de récupérer l'énergie à temps, la quantité d'énergie variant selon le degré du freinage, étant entendu, sécurité oblige, que vous ne différerez pas le freinage pour récupérer de l'énergie. Le « full hybrid », comme la Prius, permet d'ajouter quelques kilomètres électriques. Le « plugin hybrid », lui, commence à disposer d'une énergie stockée importante, de l'ordre de quelques kWh, ce qui permettra au véhicule de faire une dizaine de kilomètres en tout électrique. Et l'on finit par le véhicule tout électrique, disposant d'encore plus d'énergie, issue de la batterie, qui pourra faire de 200 à 300 km, suivant la capacité de la batterie et ses performances.

Il est important d'avoir ce paysage en tête. Si l'on veut réduire notre consommation et notre production de CO2, tous ces domaines doivent se développer. Disposer de millions de véhicules en stop/start permet déjà de gagner quelques grammes de CO2. Multiplier par des millions, les chiffres sont non négligeables.

Sans revenir sur l'électrochimie, je veux simplement rappeler les points importants que sont la sécurité et la performance de la batterie, et son intégration dans un pack qui a une intelligence, pour assurer l'optimisation de sa charge, de sa décharge , de sa durée de vie, et veiller en permanence à son état de santé. La batterie étant à l'extérieur, elle va subir des variations climatiques, être utilisée un jour pour faire 10 kilomètres, un autre pour en faire 100. Les états de charge seront donc complètement différents, situation qui n'est pas celle des batteries d'ordinateurs ou de téléphones portables, qui restent à température ambiante et ont des performances qui varieront en capacité. Bref, le cahier des charges est très particulier pour la batterie du véhicule électrique, très difficile à tenir.

Pour réaliser ces batteries, nous disposons de deux usines, nous permettant de construire 5 000 packs de batteries en Bretagne, et 7 500 au Canada, soit un nombre conséquent de voitures. Nous avons mis au point deux véhicules : celui que nous avons construit avec Pininfarina et un bus qui commence à rouler au Luxembourg et à Laval. C'est un petit bus de ville, avec un plancher très bas, qui permet un accès facile aux personnes à mobilité réduite ou avec poussettes. Ce bus de 8,50 mètres peut contenir 22 personnes, avec une autonomie de 120 kilomètres. Ses batteries situées sur le toit contiennent 90 kWh. Par comparaison, une voiture en contient 30. La régénération au freinage est très élevée, dans la mesure où la vitesse du bus est limitée, le freinage électrique étant bien développé dans un bus.

Le véhicule individuel pèse moins de 1 100 kg, étant entendu que du chemin reste à parcourir pour atteindre 800 kg. Sa vitesse est limitée à 110 km/h. Son accélération est conséquente, et son autonomie est de l'ordre de 250 km en cycle urbain.

Autolib est une solution intégrée et complète, d'autopartage.

Il s'agit d'un service public de location de point à point. Vous prenez un véhicule au point A, vous le rendez au point B, sans obligation de restitution du véhicule au point de départ. Les véhicules sont sans émission, sans bruit et sans odeur. 3 000 véhicules représentent une réduction estimée de 22 500 véhicules privés et plus de 150 millions de kilomètres par an parcourus par des véhicules propres.

C'est un service qui s'étend sur 46 communes : Paris et les communes limitrophes. Certaines devraient rejoindre le syndicat mixte dans les mois à venir pour compléter le panorama. Toutes ces villes sont équipées de bornes de recharge.

Trois types de bornes seront installées. Vous vous rendez à une borne d'accueil puis d'abonnement, muni de votre permis de conduire, d'une pièce d'identité et d'une carte de crédit. Puis on vous délivrera une carte RFID, qui vous permettra de vous identifier, de vous attribuer un véhicule et de vous réserver une place à l'arrivée. Une troisième borne sert à charger le véhicule. Lorsque vous prenez le véhicule qui vous a été attribué, vous le déconnectez de la borne, et la location commence. Celle-ci s'arrête lorsque vous reconnectez le véhicule au point d'arrivée.

Ce service, vous le voyez, est simple. Nous avons démarré le 2 octobre avec 66 voitures et 33 stations. Le premier jour, ce sont 1 500 personnes qui ont pu essayer les voitures, presque que des gens qui ont trouvé l'expérience positive. Ils ont préféré ce système au taxi, estiment qu'il ne pollue pas et qu'il leur permettra de remplacer une deuxième voiture. L'accueil a été favorable.

L'inauguration officielle aura lieu le 5 décembre, avec 250 stations et autant de voitures. En juin 2012, nous aurons déployé plus de 1 000 stations pour 2 000 voitures. En 2013, nous atteindrons 3 000 voitures, 1 200 stations et 6 000 places de parking. L'abonnement est de 12 euros par mois. La première demi-heure coûte 5 euros, la deuxième 4 euros, et les autres 6 euros. Un abonnement à la semaine coûte 15 euros, avec un prix de 7 euros pour la première demande, 6 euros la deuxième, et 8 euros pour les autres. Un abonnement découverte existe pour le touriste d'un jour, pour 10 euros. Il pourra utiliser sa voiture à raison de 7 euros la première demi-heure, 6 euros la deuxième et 8 euros les suivantes.

Ce dispositif fera travailler près de 1 000 personnes, dont 250 dans un centre opérationnel et 750 à 800 sur le terrain, pour répondre aux demandes des clients et rééquilibrer le parc. Nous ne savons pas encore comment les véhicules seront utilisés : l'expérience nous le dira. Quant à la charge, elle est lente, à hauteur de 3 kW, étant entendu qu'on disposera de 6 000 points de charge et qu'on optimisera en essayant de charger de nuit plutôt que de jour. Ce faisant, nous ne tirerons pas sur le réseau de façon inconsidérée. Notre véhicule sera soit en train de rouler, soit de se charger. S'il roule 20 heures par jour, d'aucuns diront qu'on n'aura pas le temps de le recharger. Mais dans un premier temps, on pense qu'il roulera de 8 à 10 heures par jour, ce qui nous laisse largement assez de temps.

Mme Florence Rodhain. - J'ai lu dans un journal scientifique que les voitures silencieuses posaient des problèmes pour les personnes aveugles, qui ne les entendaient pas.

M. Didier Marginedes. - A vitesse faible, c'est un fait qu'on n'entend pas le véhicule électrique. C'est pourquoi nous avons équipé la flotte d'un bruiteur, qui se met en marche à très faible vitesse. J'ajoute que l'absence de bruit constitue l'un des avantages du véhicule électrique.

M. Christian Bataille, député, rapporteur. - D'autres observations ? Mesdames, Messieurs, je vous remercie. Prochaines auditions, le 17 novembre, sur le bilan et les perspectives de la filière nucléaire, et le 24 novembre, sur les énergies alternatives, l'intermittence et le stockage.

M. Bruno Sido, sénateur, rapporteur. - La journée a été très instructive du début jusqu'à la fin. Ces auditions constitueront des apports importants pour notre rapport commun.