Allez au contenu, Allez à la navigation



 

II. LES INTERROGATIONS

La démarche qui a crée un nouveau paysage de la sécurité sanitaire en France à partir de la loi du 1er juillet 1998 a été validée par l'expérience. On observe à travers tous les témoignages et analyses une réelle et constante amélioration du niveau de sécurité atteint par les structures, les mécanismes, consolidant ce qui avait déjà été engagé, précédemment (Agence du médicament, comité d'experts spécialisés en matière alimentaire, réseau national de santé publique etc ...).

La remise en cause de l'architecture d'ensemble n'est donc pas à l'ordre du jour. Toutefois, les interrogations multiples illustrent la nécessité d'apprécier la portée des principes généraux sur lesquels cette réforme a été fondée et les aménagements et corrections que leur mise en oeuvre appelle. Au-delà des mécanismes de la loi de 1998, c'est l'ensemble des fondements de la sécurité sanitaire et environnementale qui sera abordé, les réalités concrètes constitueront des révélateurs efficaces des erreurs ou des insuffisances ou de développements nouveaux, source de risques.

Enfin, les éventuels réaménagements de l'ensemble des structures créées en 1998, et de leurs conditions de fonctionnement, élément obligé de la présente évaluation, seront traités pour autant que ces réaménagements paraissent nécessaires dans le développement consacré à la sécurité sanitaire des aliments pour l'AFSSA, les problèmes posés par l'architecture d'ensemble étant abordés dans la dernière partie du présent rapport (Une clarification nécessaire).

2.1. Des principes toujours globalement pertinents

Parmi les cinq principes présentés comme fondement de la nouvelle organisation de la sécurité et de la veille sanitaire, outre trois principes opératoires, deux principes généraux étaient retenus dans les termes suivants 11(*):

« 1. le risque zéro, qui ne peut être garanti, doit néanmoins être recherché par l'Etat, qui est garant de la sécurité sanitaire ;

2. Le principe de précaution doit toujours guider les autorités compétentes dans l'exercice de leur pouvoir de décision ».

On examinera successivement chacun de ces deux points.

2.1.1. La recherche du risque zéro

Le contexte historique (crise du sang contaminé et le risque de la transmission humaine de l'ESB principalement) dans lequel la nouvelle architecture de sécurité sanitaire a été conçue a naturellement renforcé les exigences dans ce domaine et partant, élevé le niveau des exigences.

Paradoxalement, les redressements sérieux qui avaient déjà été opérés à la fin de cette période, les améliorations constantes enregistrées dans des domaines moins sensibles ou moins médiatisés, ont donné l'impression que si le pire avait été frôlé, on pouvait maintenant espérer atteindre la meilleure sécurité et tangenter le risque zéro. En outre, le développement rapide des technologies très performantes semble donner la possibilité de réaliser cet objectif : la sécurité atteinte aujourd'hui en matière de produits sanguins pour la réduction du délai de latence pour la révélation d'un agent pathogène (VIH, prion pour la maladie de Creutzfeld-Jakob, hépatite C par exemple) est impressionnante.

Le recours au diagnostic génomique viral en 2001 a fait passer la probabilité du risque pour l'hépatite C de 1/800.000 à 1 pour 6 millions. Cette mesure a un coût de 21,3 millions d'euros par an. Cela montre d'ailleurs que la sécurité maximale a un coût et que la confrontation entre le prix de l'excellence et la limitation des moyens contraint les décideurs à des choix, toujours délicats.

Dans un domaine à l'inverse très peu marqué par la sophistication technologique, le drame de la canicule montre que si vraisemblablement le nombre de victimes aurait pu être limité en août 2003, il n'aurait certainement pas pu être réduit à zéro même en imaginant, hypothèse évidemment absurde, que chaque personne âgée à risque ait été reliée en permanence par un moyen électronique à un service de veille pouvant intervenir dans le délai exigé pour sa survie en cas d'hyperthermie maligne.

La tendance à croire le risque zéro accessible n'exclut d'ailleurs pas la recrudescence de comportements à risques, ce qui interpelle quelque peu les décideurs confrontés à des arbitrages délicats et devrait les conduire à consacrer plus d'énergie et de moyens aux grandes politiques de prévention.

Les perspectives tracées et les exigences fixées il y a maintenant plus de cinq ans ont permis plus qu'un simple progrès pour réaliser un saut qualitatif, mais ces ambitions légitimes ne sauraient reposer sur une prétention excessive qui peut être génératrice d'attentes illusoires.

2.1.2. Le principe de précaution

Jamais sans doute un principe de gouvernance et d'arbitrage au sein d'une société n'aura autant suscité de réflexions, discours, polémiques, que celui-là avec ce que connaît la France depuis plus de deux ans. On se limitera donc au simple rappel de son invocation dans la mesure où il a été utilisé comme principe d'orientation des décisions.

Un an après la mise en place des nouvelles agences, M. Claude Huriet 12(*) évoquait précisément ce point en relativisant ou en tout cas en recadrant son affirmation précitée :

« Dans l'évolution du contexte national, je ne peux pas ne pas évoquer l'explosion du principe de précaution. C'est un sujet d'une actualité brûlante et peut-être ne serait-il pas souhaitable d'y consacrer trop de temps. Je voudrais souligner, dès le départ, qu'il y a pour nous une certaine contradiction entre les efforts accomplis par le législateur et les responsables de l'organisation nouvelle, et une application de plus en plus large du principe de précaution.

C'est pour le moment plus une réflexion qu'une interrogation, mais à quoi bon renforcer les dispositifs de sécurité de veille sanitaire si c'est pour amener les décideurs à appliquer le principe de précaution en oubliant un des critères qui était inscrit dans la loi Barnier de 1995, à savoir la proportionnalité de la réponse par rapport au risque réel ou supposé ? ».

Cette observation, bien antérieure au débat sur la Charte de l'environnement, mérite d'autant plus d'être soulignée.

L'invocation du principe de précaution devrait au moins être explicitée et cadrée dans les règles qui s'imposent à la mise en oeuvre (incertitude scientifique réelle, proportionnalité des mesures, réversibilité etc ...). Le recours implicite pour justifier une abstention surtout inspirée par le manque de lucidité, voire de courage, constitue une dérive particulièrement « polluante » dans le débat et la décision publique. La sécurité sanitaire est bien lointaine alors qu'elle seule devrait fonder l'application de ce principe. Pour peu que cette dernière soit liée au comportement désigné en anglais par l'acronyme « Nimby » (not in my backyard ; pas de ça chez moi), on aboutit à un dévoiement du principe dont l'invocation implicite ou explicite n'a plus beaucoup de rapport avec la philosophie d'origine ; les refus systématiques d'incinérateurs de déchets ménagers, notamment dans certains pays en Europe, corrélativement avec le refus d'assumer les conséquences de ce premier refus, sont une illustration de ce type de comportement.

L'exigence du respect des règles qui régissent la mise en oeuvre du principe de précaution s'impose à tous les intervenants et d'abord au décideur public. A ce titre, lorsqu'une analyse scientifique, a fortiori plusieurs, concluent à l'inexistence d'un risque, donc excluant la situation d'incertitude, il est regrettable que pour des raisons non explicitées mais que l'on pourrait qualifier de « psycho-politiques », une nouvelle expertise soit demandée ; à cet égard, la question des antennes relais de téléphonie mobile constitue un exemple concret de cette dérive. Immédiatement après une étude réalisée pendant l'année 2002 par l'Office parlementaire d'évaluation des choix scientifiques et technologiques, l'AFSSE avant même sa mise en place effective (décembre 2002), fut saisie en novembre 2002 d'une demande d'étude par la DGS. Ses conclusions, remises en juin 2003, concordants avec celles du rapport de MM. J.L. Lorrain et D. Raoul (sénateurs) pour l'Office, ne suffirent sans doute pas puisque l'AFSSE fut à nouveau saisie en septembre 2003 sur le même thème. La dépense d'autant d'énergie pour vérifier deux fois une absence de risque montre combien certaines pressions peuvent amener à un mauvais usage de principes sans précaution.

Le rapport de l'OPECST 13(*) situait d'ailleurs clairement le problème dans ce cas en excluant précisément l'application du principe de précaution.

« Une situation paradoxale :

Les études scientifiques montrent clairement que s'il existe un risque lié à la téléphonie mobile, celui-ci est faible et a trait aux téléphones portables et non aux antennes relais. Aucune étude scientifique n'a en effet pu mettre en évidence des effets biologiques qui impliqueraient un risque sanitaire pour les populations vivant à proximité des stations de base de téléphonie mobile, compte tenu de leur faible niveau d'émission d'ondes électromagnétiques (en moyenne de l'ordre du dixième des valeurs de la recommandation européenne). Il convient de rappeler que la Tour Eiffel, avec ses émetteurs de télévision, représente une puissance analogue à celle de toutes les stations de base françaises réunies ».

Conclusion et recommandations :

Compte tenu des données scientifiques aujourd'hui disponibles à propos des effets de la téléphonie mobile sur la santé, il convient d'avoir recours à une attitude de prudence et de sagesse plutôt qu'au principe de précaution tel qu'il est notamment défini par la Commission européenne 14(*).

Ces mesures de prudence devront en tout état de cause être conformes aux principes généraux de bonne gestion des risques, c'est-à-dire :

-- proportionnées au niveau de protection recherche (et donc au niveau de risque à éviter) ;

-- cohérentes avec des mesures similaires déjà adoptées dans des domaines comparables ;

-- basées sur un examen des avantages et inconvénients de l'action ou de l'absence d'action ;

-- réexaminées périodiquement à la lumière des nouvelles données scientifiques ». (...)

Une autre conséquence éventuelle de l'invocation du principe de précaution ne doit pas être oubliée même si elle se pose plus sous l'angle de l'éthique sociale que de l'évaluation du dispositif de sécurité sanitaire : il s'agit de la mise en cause de la vaccination et naturellement de toute vaccination obligatoire. L'affaire, car il s'agit plus d'une campagne que d'une crise, du vaccin de l'hépatite B a montré comment cet acquis essentiel de santé publique pouvait être mis en cause par le moyen de doutes, certes recevables, mais qui ne justifiaient pas le dilemme dans lequel les autorités sanitaires ont alors été plongées. Qu'en sera-t-il le jour où l'on risquera dans le cadre du plan Biotox d'être en situation d'imposer à nouveau l'obligation de vaccination antivariolique, par exemple ?

Dans le domaine médical au sens large (pharmaceutique, etc) l'équation bénéfice/risque pour l'ensemble de la société reste le seul instrument de mesure et de décision, notamment lorsqu'il n'y a pas de doute scientifique quant à l'existence prouvée d'un risque. L'objectif de sécurité sanitaire collectif l'emporte sur la recherche de l'absence de risque individuel.

2.2. Des réalités qui imposent des réorientations

L'élévation constante du niveau de sécurité sanitaire dans les différents domaines abordés ici se confirme dans des proportions impressionnantes. Aux quelques exemples qui viennent d'être cités et ceux qui le seront dans les développements consacrés spécifiquement à la sécurité des aliments et à celle des produits de santé, on ajoutera ici quelques faits qui caractérisent la situation paradoxale que l'on connaît aujourd'hui : la confrontation entre un haut niveau de sécurité et une atmosphère d'inquiétude croissante.

Ce paradoxe conduit à durcir les normes. La justification de ce mouvement ne peut que susciter des interrogations dans des dispositifs où les repères quantitatifs ont une place essentielle dans les esprits. Mais leur validité sur le terrain est contestable, surtout lorsque certains d'entre eux font l'objet d'une instrumentalisation qui relève plus du fétichisme que de la réalité scientifique.

On observera d'ailleurs que la zone de progrès qui reste à couvrir en matière de sécurité sanitaire relève autant de l'usager que des instances responsables à condition que celles-ci mettent en oeuvre de véritables politiques de prévention fondées sur l'information des citoyens.

2.2.1 Un haut niveau de sécurité dans une atmosphère d'inquiétude croissante

Les progrès enregistrés d'une manière continue, mais encore plus nette depuis la réforme des structures de sécurité sanitaire, touchent tous les domaines.

 Dans celui des produits sanguins, après le rétablissement urgent du début des années quatre-vingt-dix, on a noté (cf. supra) que des marges de sécurité substantielles ont encore été gagnées en ce qui concerne la réduction de la période de latence de révélation du risque. Ici comme ailleurs, les progrès scientifiques et technologiques en sont la cause directe, mais l'excellente organisation et gestion qui caractérise aujourd'hui l'EFS (Etablissement Français du Sang) y a également sa part et les réalités françaises dans ce secteur peuvent enfin constituer une référence à côté des pays étrangers les mieux placés.

 Pour le médicament, le système français de l'AMM (autorisation de mise sur le marché) a gagné en rigueur, notamment à travers une expertise collective reconnue niveau communautaire, où l'AFSAPS et les spécialistes français travaillent directement pour l'Agence européenne du médicament et participent largement aux activités dans ce domaine. Le fait que la France n'ait pas connu du tout ou dans les mêmes proportions certains accidents enregistrés aux Etats-Unis avec un anticholestérique, la cérivastatine en 2001 et certains traitements hormonaux substitutifs après la ménopause pourrait être l'indice d'une situation satisfaisante. Mais au-delà de controverses naturelles au sein de la communauté scientifique, la prudence de l'AFSSAPS n'est jugée excessive qu'avant l'accident ...

Pour les dispositifs médicaux (expression qui recouvre de très nombreux « objets » depuis les pansements et literies d'hôpital jusqu'aux prothèses, orthèses vasculaires par exemple, lentilles optiques avec leurs produits d'entretien), les progrès ont été considérables ; les exemples qui viennent d'être cités ont tous de manière diverse et quelquefois en urgence, été l'objet de cette « matériovigilance ». La description de la situation en 1996 était particulièrement peu rassurante. La tâche pour l'AFSSAPS était d'autant plus lourde que sa compétence dans ce domaine était nouvelle et qu'elle n'héritait pas des moyens, de la structure et des pouvoirs d'une entité préexistante comme pour le médicament.

Dans le domaine de la veille sanitaire, de nombreux éléments positifs, que le drame de la canicule ne doit pas faire oublier, ont été enregistrés. On s'est habitué depuis longtemps déjà à la surveillance de la grippe et la production de vaccins ; cette réussite est le fruit d'efforts constants avec de multiples partenaires. On peut noter au passage que le recours aux médecins de ville, élément essentiel à l'efficacité du dispositif (réseau « sentinelle »), constitue un trop rare exemple de leur intégration dans les mécanismes de veille sanitaire.

Dans une toute autre problématique le risque constitué par la pneumopathie atypique dite SRAS à la fin de l'hiver 2003 a été traité dans des conditions de rigueur et d'efficacité qui traduisent une avancée indiscutable. Dans cet épisode, l'InVS a mis en ligne vingt personnes à temps plein pendant trois mois et renforcé les astreintes de nuit et de jours fériés. Il est peu probable que la précédente structure des instances compétentes aurait permis un tel fonctionnement. D'une manière évidemment moins visible, l'engagement des différentes parties prenantes au premier rang desquelles l'InVS dans le plan BIOTOX doit être souligné.

S'agissant de la sécurité sanitaire dans le domaine alimentaire, la progression est particulièrement mesurable, notamment par la survenance d'alertes successives sur le même risque comme la listeria. L'amélioration des mécanismes administratifs avec la création de l'AFSSA est évidente. L'efficacité de l'administration de tutelle chargée de la gestion du risque, la DGCCRF (Direction Générale de la Concurrence, de la Consommation et de la Répression des Fraudes) s'observe également illustrant ainsi cette réactivité, marque indiscutable d'un nouveau progrès. Ainsi, en mai 2003, cette administration, avertie de la présence sur le marché de piments colorés à l'aide d'un produit interdit B et fortement cancérogène, saisit l'AFSSA sous les 48 heures. Celle-ci rend dans le même délai un avis recommandant que les consommateurs ne soient pas exposés à ce produit. Le même jour, un plan de retrait du marché a été mis en oeuvre et le réseau d'alerte communautaire informé. La DGCCRF a également mis en place, à partir du 14 mai, un plan de contrôle de tous les lots qui avaient été vendus par ce fournisseur.

Alors qu'il s'agissait d'un produit importé de fort loin sur lequel on ne disposait pas d'éléments d'information aisément accessibles, cet exemple montre que le partage, dans le domaine alimentaire, entre l'évaluation et la gestion du risque n'interdit pas l'efficacité opérationnelle.

D'une manière générale, au-delà d'exemples tels que celui-ci, la réalité de l'élévation du niveau de la sécurité sanitaire dans le domaine alimentaire se vérifie à travers les résultats du plan de contrôle 2002 à la DGAL (direction générale de l'alimentation) sur les filières animales. Pour la viande de boucherie, en ce qui concerne les résidus chimiques (organophosphorés et PCB, organochlorés), on ne trouve qu'un cas positif sur 1684 prélèvements. Le résultat est du même ordre pour les antibiotiques et les stéroïdes. Dans la filière poulets, aucune trace de ce type de résidus n'a été trouvée. Dans le lait de vache, deux composants chimiques ont été trouvés, mais avec une occurrence très faible (entre 0,3 % et 1 %).

Les producteurs de la filière agro-alimentaire eux-mêmes, contribuent largement à cette progression en consacrant plus d'efforts encore à cet impératif de sécurité en terme d'hommes et de moyens techniques. Sur ce dernier point, la traçabilité électronique permet de retrouver et de rappeler les lots défectueux dans un délai de quelques heures, ce qui était impensable il y a encore quelques années. La distribution elle-même, comme la production, s'appuyant entre autres sur les normes HACCP (hazard analysis and critical control point) prolonge les actions menées par les administrations. La complémentarité des efforts des agents économiques rejoint et renforce la vigilance nécessaire des pouvoirs publics.

Dans le segment particulier que sont les marchés publics forains, où des lacunes notables perduraient, la mise en oeuvre de dispositions, en partie d'origine communautaire, a permis, avec l'aide des collectivités locales, d'atteindre un niveau de sécurité appréciable en un temps relativement bref.

 Au-delà d'épisodes exemplaires et de considérations factuelles sur les facteurs de sécurisation, la mesure de la sécurité alimentaire s'apprécie en priorité à travers l'évaluation des accidents, donc des intoxications alimentaires. Cet aspect statistique n'est pas toujours aisé à cerner avec exactitude. Des éléments très concrets permettant une approche rigoureuse de la situation récente et de l'apprécier par des comparaisons dans l'espace et dans le temps, viennent d'être fournis par une étude approfondie réalisée conjointement par l'InVS et l'AFSSA publiée le 10 mai 2004. En voici les extraits les plus significatifs 15(*) :

« Une analyse approfondie des données disponibles a permis à l'Institut de veille sanitaire d'estimer à plus de 200.000 (entre 238.836 et 269.085) le nombre moyen annuel de personnes atteintes de maladies d'origine alimentaire en France, au cours des années 1990. Les salmonelloses en sont la première cause (30 598 à 41 139 cas confirmés par an), suivies par les infections à campylobacter ».

« Principaux résultats de l'étude

Le nombre total annuel de cas hospitalisés pour une infection d'origine alimentaire a été estimé entre 10 188 et 17 771. Les salmonelloses en sont la première cause (5691 à 10 202 cas), suivies par les infections à campylobacter (2598 à 3516 cas) et la listériose (304 cas). La toxoplasmose apparaît comme la principale cause d'hospitalisation (426 cas) parmi les infections parasitaires étudiées.

L'estimation du nombre annuel total de décès se situe entre 228 et 691. Les infections bactériennes sont responsables de la majorité (84 % à 94 %) de ces décès avec une estimation de 191 à 652 décès annuels dont 92 à 535 liés aux salmonelloses, première cause de décès et 78 liés à la listériose, deuxième cause de décès.

La fréquence des maladies infectieuses d'origine alimentaire estimée dans notre étude apparaît très inférieure à celle estimée aux Etats-Unis (76 millions de cas) et en Grande-Bretagne (2 365 909 cas en 1995 en Angleterre et au Pays de Galles). Les effectifs estimés ne sont cependant pas strictement comparables. En effet, en Grande-Bretagne et aux Etats-Unis, les estimations portent sur les cas malades dans la population. De plus, la liste des agents pathogènes étudiés n'est pas identique et sont également incluses les gastro-entérites sans agent infectieux identifié qui ont un poids très important dans les estimations. Cependant, si les valeurs diffèrent sensiblement pour les raisons indiquées ci-dessus, les agents pathogènes responsables des plus grands nombres de cas, d'hospitalisations et de décès sont similaires, bien que les rangs soient différents ».

Il y a lieu de rappeler qu'en France, en 1950 le nombre annuel de décès dus à des intoxications alimentaires était estimé à 15.000. Il est maintenant estimé à un chiffre se situant dans une fourchette de 228 à 691 ; Aux Etats-Unis, il est actuellement évalué à 5000 par an. Ce nombre qui reste élevé 16(*) car il constitue une amélioration par rapport à la situation connue il y a 10 ans (10.000) peut s'expliquer par, en premier lieu, une grande faiblesse des contrôles et paradoxalement une recherche excessive de l'absence de bactéries, ce qui permet un développement foudroyant des bactéries pathogènes lorsqu'une faiblesse intervient. Il convient de souligner en dernier lieu, l'inadaptation des comportements des consommateurs en aval du circuit alimentaire. Il illustre le problème des comportements à risque alors que l'on exige volontiers des distributeurs et des pouvoirs publics le « risque zéro ».

2.2.2. Les comportements à risque

Les comportements à risque évoqués au sujet de l'importance du nombre d'intoxications alimentaires aux Etats-Unis sont principalement relatif au non-respect de la chaîne du froid, ce qui peut également paraître paradoxal dans un pays où le réfrigérateur est l'élément mobilier le plus important de la cuisine, dans tous les sens du terme. Mais il semble que la phase de transport depuis le supermarché soit négligée dans l'organisation et ce, dans un climat comportant de forts épisodes de chaleurs extrêmes qui exige, sur presque tout le territoire national, des précautions particulières.

L'usage du réfrigérateur lui-même doit aussi être pris en considération et sur ce point qui fait souvent l'objet d'enquêtes, le comportement des Français mérite d'être évoqué car c'est là, il faut le rappeler, un chaînon essentiel qui reste généralement oublié.

Le CREDOC (Centre de Recherche pour l'Etude et l'Observation des Conditions de vie) à travers son enquête individuelle nationale sur la consommation alimentaire (INCA) réalisée en 1998-99 a fait une étude dont l'objectif était de connaître le niveau des températures de conservation et d'identifier les facteurs influençant le niveau des températures de l'air dans les réfrigérateurs.

Les conclusions ne sont évidemment pas très rassurantes :

« Sur le comportement des utilisateurs, on constate une méconnaissance du mode de réfrigération de leur réfrigérateur (36 % n'en ont aucune idée). D'autre part, les trois quarts environ des ménages règlent le thermostat de leur réfrigérateur dans les positions qui correspondent aux positions les moins froides, peut-être par souci d'économie d'énergie ou simplement pour un confort personnel pour certains aliments (boissons pas trop froide par exemple) en oubliant de se poser la question des risques hygiéniques éventuels.

Vingt-six pour cent des réfrigérateurs présentent une température globale supérieure à 8°C. Cette température est pourtant la température maximale tolérée pour les aliments dans l'arrêté réglementant l'hygiène des aliments remis directement au consommateur. De même, seuls 11 % des réfrigérateurs présentent une température inférieure ou égale à + 4 % C, qui est la température maximale tolérée pour de nombreux aliments tels que les produits transformés non stables à base de viande, comme les plats préparés réfrigérés ».

En outre dans 18 % des cas, la température dépassait 10°C. Enfin, l'entretient est un autre point faible : seul un tiers des appareils fait l'objet d'un nettoyage au moins une fois par trimestre. Des informations récentes confirment ces résultats : seules 5,6 % des viandes et 37 % des yaourts sont conservés à une température satisfaisante.

 Le développement de certains modes peut contribuer à faire paraître ou réapparaître des risques, comme la vente en vrac.

 Dans le domaine du médicament, bien des habitudes dangereuses se sont développées avec l'abus de l'auto-médication ou la gestion très personnelle des prescriptions. On observera (cf. infra AFSAPS) que nombre d'accidents où des médicaments sont en cause constituent un vrai problème de sécurité sanitaire (ce que recouvre l'expression « risque iatrogène »). En outre, le recours à des circuits ouvertement illégaux avec l'achat de médicaments par internet illustre l'actualité et la réalité de ce risque. (cf. infra AFSSAPS « Les risques émergents »).

 Dans une perspective purement quantitative mais évidemment essentielle, on rappellera pour mémoire le choc entre le niveau de sécurité atteint pour les produits sanguins, alimentaires, pharmaceutiques, y compris en terme de coût marginal et les niveaux de risque actuellement atteints en matière d'obésité, d'alcoolisme, de toxicomanie et de tabagisme au niveau individuel et social.

2.2.3. La sécurité croissante vue à la loupe

L'amélioration considérable de la sécurité alimentaire par exemple résulte de la convergence de tous les facteurs ou acteurs évoqués : progrès scientifique et technique, producteurs et distributeurs, structures administratives, notamment d'évaluation et de contrôle, associations de consommateurs, moyens de la mesure et de la détection. Les progrès ont été considérables. Au-delà de l'alimentaire, cela se vérifie sous l'angle environnemental. Ainsi on ne recherche la présence de dioxines dans les aliments que depuis une douzaine d'années ; on en découvre naturellement des résidus alors que le risque moyen d'exposition a baissé de 50 % en quinze ans. L'efficacité et l'universalité des contrôles couplés à un fantastique progrès technologique ont donc un effet pervers dont il est temps de prendre conscience pour faire prévaloir une approche raisonnée de la sécurité sanitaire réelle. Sinon, moins il y a d'incidents et plus la loupe de la mesure sophistiquée conduit au développement de phobies en dehors de toute analyse objective de risque.

2.2.4. La sévérisation des normes : de la rigueur au fétichisme

Une norme fixant un seuil limite de présence d'une substance dangereuse ou supposée telle constitue le type d'élément concret, physique qui, s'il correspond aux résultats de travaux de recherche et d'expertise menés dans les règles de l'art, permet de fixer des règles objectives, intangibles, universelles et dont l'application est aisément contrôlable. On estime alors avoir fait tout ce qui est possible pour obtenir d'une part une législation pleinement satisfaisante au regard de la sécurité sanitaire et d'autre part une application opérationnelle.

Cette considération générale n'est pas contestable et est évidemment vérifiée quotidiennement et ce, dans tous les domaines. La connaissance qu'on a aujourd'hui de ses propres résultats d'analyses biologiques, le taux de cholestérol en étant un bon exemple, montre combien les éléments quantifiés parlent à chacun et le corps médical est lui-même confronté depuis longtemps de la part des patients à des « demandes d'analyses » fondées ou non.

Mais toute norme, comme « le » taux de cholestérol par exemple, n'est pas nécessairement suffisante et en tout cas doit être remise en perspective pour constituer la référence indiscutable d'un raisonnement scientifique valable, puis d'une action. Cette action doit elle-même être fondée par rapport à l'ensemble des objectifs fixés au-delà du but premier ; qu'il s'agisse de médecine ou d'environnement, on ne saurait se limiter au respect d'une seule norme en ignorant les « conséquences collatérales ».

Par ailleurs, et cela a déjà été évoqué, les progrès considérables des technologies de mesure ne sauraient faire perdre la raison en se fixant comme nouvel objectif la recherche de traces de traces. Le normes européenne de LMR (limite maximale de résidus) en vigueur depuis le 1er juillet 2002 pour les aliments pour jeunes enfants a été fixée à 0,01 mg/kg ; elle est d'autant plus discutée qu'elle correspond en fait à la limite technologique de détection dans 40 % à 60 % des cas. L'atteinte de cette véritable limite ultime de la métrologie en matière alimentaire est développée dans un récent rapport de l'Office parlementaire d'évaluation des choix scientifiques et technologiques (« Les nouveaux apports de la science et de la technologie à la qualité et à la sécurité des aliments » page 89).

Les dérives auxquelles on assiste depuis plusieurs années se concrétisent généralement par un mouvement de durcissement successif de normes et aussi par la « diabolisation » d'éléments qui peuvent être en soi dangereux à un taux déterminé et dans un contexte multifactoriel. Ce qu'on relève également dans tous les cas de figure, c'est que lorsque l'échange d'arguments révèle une fragilité des partisans du durcissement continu des normes, ceux-ci finissent pas invoquer le caractère symbolique de la norme, ce qui autorise à parler véritablement de fétichisme : « La norme de 50mg/l de nitrate dans l'eau est politique », on ne saurait tenter de la remettre en cause. Dans de telles démarches, le progrès scientifique et technologique est enserré dans des oeillères particulièrement contraignantes : les découvertes sur les substances faisant l'objet de normes ne sont envisagées que dans un seul sens.

Les quelques exemples qui constituent, parmi d'autres, une illustration de ces dérives portent sur les nitrates, la norme de résidus en eaux profondes, les dioxines et le plomb dans l'eau.

2.2.4.1. Les nitrates

Elément naturel dont la concentration a des effets sur l'environnement et peut comporter des risques pour l'homme, les nitrates font l'objet d'une norme en ce qui concerne l'eau destinée à la consommation humaine : la concentration maximale pour qu'une eau soit potable est fixée à 50 mg/litre par la réglementation européenne, elle-même dérivée en fait de la norme OMS-FAO. Or, cette norme a une histoire particulièrement illustrative.

La survenance d'un nombre élevé d'une cyanose, précisément la « méthémoglobinémie », au nord des Etats-Unis à partir de 1945 et pendant les années cinquante entraîne la mise en lumière d'une concentration très élevée de nitrates dans l'eau qui était alors utilisée, notamment pour la préparation des biberons. On sait que pour la consommation humaine, ce ne sont pas directement les nitrates qui comportent un danger, mais un de leur sous-produits : les nitrites. En fait, on s'aperçut ultérieurement que ces eaux (puits en zones rurales le plus souvent) étaient tout simplement aussi contaminées par des bactéries pathogènes qui ont été alors mises en cause. Mais les certitudes énoncées sur le danger d'une certaine concentration de nitrates dans l'eau entraîna la fixation par un comité d'experts conjoints OMS-FAO de la dja (dose journalière admissible à 5 mg par kilo de poids corporel, soit 350 mg pour une personne de 70 kg. Faisant entrer la quantité de nitrate issue de la consommation de légumes, on fixa le chiffre à 100 mg/litre qui fut ensuite divisé par deux pour tenir compte des risques spécifiques encourus par les femmes enceintes et les nourrissons.

Il y a lieu de noter au passage que les légumes recèlent beaucoup plus de nitrates : au moins 2000 mg/kg dans la laitue, les navets et les épinards, sans oublier les carottes qui ne font l'objet d'aucune norme ni même mise en garde ou information et dont la consommation est même vivement recommandée. L'hypothèse scientifique formulée il y a plus de quarante ans s'est donc révélée fausse et les travaux américains récents (1999) ont définitivement disculpé les nitrates des accidents qui leur étaient précédemment imputés. Leur concentration à d'autres doses plus élevées mérite d'être surveillée, y compris pour des raisons environnementales, mais la « norme fétiche » de 50 mg/litre pour l'eau potable n'a pas, du stricte point de vue de la santé humaine, le fondement qu'on lui attribue. Le comité scientifique de l'alimentation humaine avait déjà indiqué, sur les nitrates, dans un avis le 19 octobre 1990 : « Le nitrate per se a une toxicité aiguë très faible et les effets nocifs rapportés résultent de la réduction en nitrites, soit avant ingestion, soit in vivo ». Mais le Pr Marion Apfelbaum, professeur de nutrition à la faculté de médecine de Xavier-Bichat (Paris) tire de cette observation la constatation suivante 17(*):

« Les deux seuils - 5 mg par kilo de poids corporels et 50 mg par litre d'eau de boisson - semblent animés d'une vie sociale propre. Les données récentes sur l'innocuité du nitrate chez l'homme et l'animal d'expérience n'y changent rien.

Pourquoi ? Les experts constituant les comités sont à l'évidence parfaitement informés. Et ils ne conseillent pas de supprimer la dose journalière admissible et le seuil de potabilité de 50 mg qui en découle, parce qu'ils ne peuvent le faire. Imaginons que, demain, ils annoncent que « l'eau est potable quelle que soit la concentration des nitrates qu'elle contient » et encore « qu'une feuille de laitue de 25 g contient autant de nitrate qu'un litre d'eau prétendument dangereuse ». (...)

Donc il faut persévérer dans l'être et continuer à faire comme si l'eau contenant plus de 50 mg par litre était à peine potable, et celle à plus de 100 mg par litre pas potable du tout. Même si le contraire est scientifiquement démontré.

Mais, puisque tout est ainsi pour le mieux dans le meilleur des mondes possibles, pourquoi en parler ? Car le dossier des nitrates est exemplaire de ce que la prétention de la science à dire le vrai universel est de plus en plus contestée, entre autres à cause de l'évidente symbiose du scientifique et du politique et de ce qu'un fait social puisse perdurer au-delà de ses causes ».

2.2.4.2. Les résidus en eaux profondes

La norme limitant la concentration maximum de pesticides dans les eaux profondes a été fixée il y a une quinzaine d'années à 0,1 g/litre. D'après les instances compétentes, elle n'a pas de fondement scientifique sauf pour ceux des produits dont la toxicité a été démontrée, auquel cas elle risque d'être insuffisamment sévère.

Dans le rapport de l'Office parlementaire d'évaluation des choix scientifiques et technologiques sur la qualité de l'eau et de l'assainissement en France, M. Gérard Miquel, Sénateur et rapporteur de l'étude, a rappelé l'ensemble des raisons qui mettent en cause la validité de cette norme :

« La fixation d'un seuil unique de pesticides dans l'eau fait l'objet de nombreuses controverses.

- La première critique porte sur le seuil unique. Il est observé que ce choix du seuil unique est un choix européen qui n'a pratiquement aucun équivalent au monde. Pour les pesticides, l'OMS a déterminé 40 valeurs guides (VG) différentes, adaptées aux différentes molécules.

- La deuxième critique porte sur le niveau choisi, beaucoup plus strict que les valeurs internationales et que les niveaux retenus par d'autres compétiteurs, notamment américains. Le rapport entre les valeurs limites européennes et les valeurs guides internationales peut varier de 1 à 3000 (pour le bentazone, la VG est de 300 g/l). L'Agence américaine de Protection de l'Environnement a fixé le seuil de l'alachlore, de l'atrazine et de la simazine, trois herbicides, à respectivement 2 g/l, 3 g/l et 17 g/l, soit un niveau de 20 à 170 fois plus élevé que la norme européenne.

La troisième critique porte sur une certaine incohérence dans la détermination des seuils. Tandis que l'attention était focalisée sur l'eau, les limites de résidus sur les produits d'alimentation traités aux pesticides n'ont pas été modifiées. On relèvera par exemple que les limites de résidus sur les fruits peuvent être jusqu'à 100.000 fois plus importantes que les teneurs acceptées dans l'eau. Cette situation suggère une sévérité excessive sur l'eau et que les normes appliquées à l'eau n'ont pas été fondées sur des raisons sanitaires.

La dernière critique porte sur une situation de blocage. On rappellera que les seuils actuels ont été fixés initialement il y a 25 ans. Pour le professeur Hartemann de la faculté de Nancy, « on pouvait fixer une norme de 0,1 g/l, par précaution, quand les connaissances scientifiques étaient encore limitées, mais à partir du moment où l'on connaît mieux, il faudrait accepter de réviser les seuils ». Il n'en a rien été ».

2.2.4.3. Les dioxines

Le pluriel du terme doit être souligné pour un élément dont l'instrumentalisation s'est faite à partir d'un singulier : la dioxine qui produit son effet médiatique, mais n'a pas de signification scientifique. Les dioxines se répartissent en deux catégories qui regroupent plus de 200 molécules différentes. Ils appartiennent à une famille de composés aromatiques polycycliques chlorés présentant des propriétés physico-chimiques semblables. Les toxicologues évaluent à 17 le nombre de dioxines toxiques. La dioxine à laquelle il est fait référence au singulier est celle relâchée lors de l'accident industriel de Seveso 18(*)en juillet 1976 : la 2-3-7-8 TCDD (tétrachlorodibenzo-p-dioxine) classée en 1997 comme « cancérogène certain » par le Centre national de recherche contre le cancer. Les dioxines préexistaient à toute activité humaine ; des sources « naturelles » en relâchant des quantités substantielles telles les éruptions volcaniques et les incendies de forêt. Il semble également que la combustion du charbon en produise beaucoup. Un rapide calcul montre que la totalité des cigarettes fumées en France relâcherait la moitié des dioxines rejetées par les incinérateurs de déchets ménagers. Ces installations se trouvent être au coeur de contestations fondées d'une part sur des peurs entretenues dans des conditions qui n'ont rien de scientifique, en jouant, on l'a vu, sur les termes eux-mêmes et, d'autre part, en instrumentalisant des normes fortement sévérisées au niveau communautaire.

Les incidents qui ont eu lieu sur des incinérateurs hors normes ont donné lieu à des mises en cause systématiques du principe même de l'incinération des déchets ménagers dans le cadre d'une campagne agressive dont les manifestations les plus efficaces ont eu lieu dans d'autres pays européens où le blocage de la construction d'incinérateurs a logiquement entraîné des exportations frauduleuses de déchets dans des pays voisins et même lointains. Or les efforts de mise aux normes dans le cadre des législations française (1991) et européenne actuellement applicables ont apporté une réduction drastique.

Mme Roselyne Bachelot-Narquin alors Ministre de l'écologie et du développement durable, lors de son audition en juin 2003 devant la Délégation à l'aménagement du territoire de l'Assemblée nationale (rapport d'information n° 1169 « Déchets : état d'urgence », 3 novembre 2003) rappelait précisément le caractère satisfaisant des normes actuelles :

« Première priorité : minimiser les impacts des installations de traitement de déchets sur la santé et l'environnement.

C'est sans doute, quand on interroge nos citoyens, la chose à laquelle ils sont les plus sensibles. Il faut en effet qu'étant rassurés sur l'impact de ces installations sur la santé et l'environnement, ils puissent les accepter. Bien gérés et aux normes, ces incinérateurs et ces décharges sont tout à fait acceptables pour la santé et l'environnement.

Dans ce cadre, il s'agit également de lever une confusion, puisque ce sont bien les installations hors normes qui sont visées. Je suis payée pour voir, si je puis dire, puisque j'ai un incinérateur à dioxine dans ma ville, à Angers, qui a fait les titres de la presse nationale pendant les derniers congés d'été : on a parlé en effet de 18 morts par cancer aux alentours de l'incinérateur ! Tout cela ameute évidemment les populations, à juste titre, alors que les installations aux normes, bien entendu, sont sans danger ».

L'InVS avait d'ailleurs été saisi du cas de l'incinérateur d'Angers pour lequel dans son rapport annuel 2002 (page 59), il donne les résultats de son évaluation et remet en perspective l'ensemble du problème :

« Pour les dioxines, les « immissions » modélisées à Angers et imputables à l'usine d'incinération sont comparables avec les teneurs observées en environnement urbain. Avant la mise aux normes, les surexpositions moyennes attribuables à l'incinérateur sont de l'ordre du quart de l'exposition moyenne - à l'époque - de la population française générale. Le ratio de danger est inférieur à 1 ; en considérant l'absence de seuil, l'excès de risque individuel (sur 70 ans) est de 5 sur 10 000 et l'impact sanitaire (sur 25 ans) de 18 cas de cancer. Après mise aux normes, l'excès de risque individuel (sur 70 ans) est de 8 sur 10 millions et l'impact sanitaire (sur 30 ans) inférieur à 1 cas.

De nombreuses incertitudes affectent les résultats concernant le paramètre « dioxines » (peu de mesures d'émission, comportement des substances dans l'environnement, relation dose-réponse). Malgré leur plausibilité et leur cohérence (référentiels environnementaux et autres études menées autour d'incinérateur), ces résultats sont à considérer prudemment.

Les résultats de cette évaluation n'ont pas conduit à préconiser des mesures de prévention particulières. Ils montrent que la mise aux normes de l'incinérateur d'Angers a permis de beaucoup réduire les expositions. Ceci témoigne du bénéfice sanitaire de la mise aux normes des anciens incinérateurs et en particulier ceux qui, comme à Angers, sont situés dans des zones à forte densité de population ».

Malgré les niveaux satisfaisants atteints par la mise aux normes actuelles que cet exemple illustre clairement, le mouvement de « sévérisation » va se poursuivre pour atteindre la valeur fixée par la directive 2000/7G du 4 décembre 2000 : 0,1 nanogramme/m3 TE toxicity équivalents. L'actuel ministre de l'écologie et du développement durable, M. Serge Lepeltier, l'a ainsi précisé lors du débat organisé à l'Assemblée nationale le 13 avril 2004 sur « la politique de gestion durable des déchets ménagers et assimilés » :

« La gestion des déchets ne peut être durable que si les impacts de leur traitement sur l'environnement et la santé sont maîtrisés. Le cas des incinérateurs d'ordures ménagères est à cet égard instructif. Une réglementation les concernant a été définie au début des années 1990, mais a été mal appliquée - je suis d'accord sur ce point avec M. Sandrier. Sur instruction du ministère en charge de l'environnement, les préfets et les inspecteurs des installations classées se sont ensuite mobilisés pour faire cesser les situations d'infraction. Vous savez la détermination dont a fait preuve le précédent gouvernement, et en particulier Mme Bachelot, pour faire fermer les trente-six unités non-conformes qui restaient encore en fonctionnement il y a deux ans.

Alors que 300 usines, souvent de faible, voire de très faible capacité, fonctionnaient en 1998, moins de 130 sont aujourd'hui en service. Les émissions annuelles de dioxines des usines d'incinération, qui s'élevaient à plus d'un kilo en 1995, sont ainsi retombées à un peu plus de 100 grammes en 2003, soit une division par dix en quelques années. Ces deux chiffres illustrent l'évolution importante et rapide qu'a connue l'incinération en France dernièrement.

Pourtant, il faut encore poursuivre les efforts. Les autres pays européens qui, comme nous, incinèrent une part notable d'ordures ménagères, appliquent en effet depuis plusieurs années des normes de rejets plus strictes, qui seront en vigueur en France fin 2005. Cette nouvelle vague de modernisation entraînera une diminution supplémentaire des rejets de dioxines qui devraient être réduits à 20 gr par an en 2006, soit l'ordre de grandeur que l'on retrouve chez nos partenaires européens.

Les délais sont courts pour faire des travaux importants, mais dans beaucoup de sites, les choses sont bien avancées et je tiens à dire que je serai très ferme vis-à-vis des retardataires. Tout cela aura un coût élevé, j'en suis bien conscient, mais c'est en montrant que l'Etat veille au respect des règles déjà appliquées par nos voisins européens que la confiance dans ce mode de traitement pourra être restaurée ».

Il est à noter que l'argumentation de cette sévérisation, acceptée par la France au niveau communautaire, est essentiellement fondée sur l'alignement sur les pays européens voisins.

Mme Roselyne Bachelot-Narquin avait d'ailleurs eu dans l'audition précitée la même démarche :

« Je veux donc poursuivre cette mise aux normes et, en particulier, respecter l'échéance européenne de 2005 en divisant par dix les quantités de dioxine émises par une action réglementaire déterminée. Je veux surtout accompagner les opérateurs et non pas, comme cela s'est passé de 1992 à 2002, laisser les gens attendre alors qu'il faut les amener à anticiper cette échéance de 2005 ».

Les situations moyennes existantes sous l'empire des règles de 1991 visaient des émissions environ 100 fois supérieures (10 ng/m3) mais les incinérateurs à l'origine de problèmes réels dépassaient eux-mêmes ce seuil, et dans certains cas largement.

Dans le même débat, M. François-Michel Gonnot, Député, montrait par ailleurs que le principe même de l'incinération des déchets était menacé, ce qui montre que la sévérisation des normes a surtout pour but, pour certains, de rendre le plus cher et le plus difficile possible ce mode de traitement :

« Voulons-nous des incinérateurs ? On en sait le coût. Des projets existent. Va-t-on les poursuivre en cherchant à les solvabiliser ? Faut-il classer la valorisation thermique des déchets en énergie propre ? Elle contribue effectivement à diminuer l'effet de serre, et on l'a déjà fait pour le traitement de la biomasse. Alors pourquoi considérerait-on l'incinération des déchets ménagers comme une industrie polluante ? Tel serait pourtant le chemin que l'on prendrait si l'on faisait supporter aux incinérateurs une taxe sur le CO2, comme il en est question ».

Cette menace paraît maintenant écartée, mais le fait qu'une telle orientation ait été envisagée est en soi révélateur. Enfin, pour que l'évolution des traitements puisse se faire sans mouvements chaotiques désorganisant les filières, encore faut-il que ne soient pas autorisées des pratiques qui ont pour but de résoudre des situations particulières tout en prenant des libertés avec les principes d'un respect effectif de l'environnement (enfouissement de déchets ménagers dans les mines de sel comme alternative à l'incinération).

Une dernière observation doit être faite au sujet de cette directive 2000/76. Les remarques précédentes visent la norme dioxines et elle seule, le problème des émissions de métaux lourds dans l'atmosphère étant fort différent et n'ayant pas été abordé dans le même « climat politique ».

2.2.4.4. Le plomb dans l'eau

La toxicité du plomb ne saurait évidemment faire l'objet d'une quelconque controverse. En revanche, la norme dans l'eau potable a été l'objet d'un débat qui, dans l'Union européenne, a abouti à la décision de supprimer le plomb de toutes les canalisations de distribution d'eau.

Il doit être rappelé que si le plomb présente des dangers pour l'homme, c'est essentiellement à travers d'autres modes de contamination que l'eau potable. Il s'agit par exemple des résidus de peinture ingérés par des enfants dans des logements très anciens et insalubres ou, sur une échelle plus large, avec du plomb utilisé comme anti-détonnant dans l'essence. Ce plomb a été supprimé parce que sa présence était radicalement incompatible avec la technologie du pot d'échappement catalytique.

La fixation d'une norme scientifiquement fondée, à un niveau raisonnable, couplée au traitement des eaux qui permet de réduire la solubilité du plomb a été envisagée il y a une vingtaine d'années. On a préféré fixer la norme à 10 g/litre, ce qui entraîne la suppression de toutes les canalisations en plomb.

Le professeur Claude Boudene (toxicologue, membre de l'Académie de médecine), dans une publication de septembre 2001 19(*), précisait les conditions de rigueur qui devraient présider à cette catégorie de normes dans les termes suivants :

« Un intérêt toxicologique particulier a été apporté, ces dernières années, à la présence de certains contaminants minéraux dans les eaux de boisson, aboutissant à la fixation par l'OMS de valeurs-guides de concentrations qui ont été généralement reprises sous forme de normes par une directive européenne en cours de transposition en droit national.

La démarche intellectuelle qui préside à cette fixation relève de plus en plus de l'application du principe de précaution d'ailleurs désormais reconnu par la Communauté Européenne, dans le but, fort louable, d'assurer un maximum de sécurité au consommateur.

Toutefois, si cette application mérite d'être poussée à l'extrême dans le cas où le dossier toxicologique d'une substance nouvelle est notoirement insuffisant et ne permet pas une évaluation satisfaisante du risque, elle doit être pleinement raisonnée dans le cas d'un toxique ayant déjà fait l'objet de nombreux travaux publiés et reconnus par diverses instances scientifiques. Dans ce cas, la méthodologie utilisée pour cette évaluation doit être discutée de manière approfondie sur la base des données acquises et ne pas céder à des pulsions sentimentales du moment.

L'actualité récente a en effet montré, à propos des deux exemples du plomb et de l'arsenic, combien l'utilisation de modèles mathématiques linéaires, initialement préconisés par l'Agence de Protection de l'Environnement américaine (EPA) et souvent repris par l'OMS dans le cas de molécules potentiellement cancérogènes, risquaient d'aboutir à la fixation de normes dont l'extrême sévérité confinant à l'irréalisme ne vont pas forcément dans le sens d'une amélioration évidente de la santé publique. A un certain stade se pose, en effet, le problème d'une hiérarchisation des risques qui doit obligatoirement tenir compte du coût de l'application de telles mesures dont le bénéfice pour la santé publique n'aura pas été clairement démontré ».

Remettant cette décision européenne en perspective à la fois sanitaire et technologique, l'Office parlementaire d'évaluation des choix scientifiques et technologiques par le rapport de M. Gérard Miquel sur les effets des métaux lourds sur l'environnement et la santé (rapport n°261/2000-2001 Sénat et 2979 Assemblée nationale - 11ème législation - page 305), apportait les éléments de jugement suivants :

« Le but peut-il être atteint à un coût moindre ? On observera tout d'abord que la suppression des seules canalisations en plomb ne supprime pas le risque hydrique. Il existe des contaminations supérieures à 10 g/l en l'absence de plomb dans les canalisations.

93,5 % de la population n'est guère exposée aux apports de plomb d'origine hydrique. La mortalité liée au plomb est nulle. Seules quelques régions et/ou quelques populations sont à surveiller. « En France métropolitaine, 6000 unités de distribution délivrant à 3,7 millions d'habitants des eaux faiblement minéralisées (pH/6,5), susceptibles d'être en contact avec des canalisations en plomb (Vosges, Massif central ...). En Outremer, ce sont 1,1 million d'habitants pour 212 unités de distribution (Inserm - Le plomb dans l'environnement - 1999).

Une solution consistant à adopter une CMA à 25 g/l associée à une valeur guide objectif à 10 g/l aurait sans nul doute été moins coûteuse, le remplacement des anciennes canalisations s'opérant alors au rythme normal de l'usure, et les sites et populations à risques pouvant bénéficier le cas échéant d'aides ou de programmes spécifiques destinés à alléger la charge en plomb dans l'eau. Une action ciblée paraît toujours plus appropriée qu'une mesure générale.

Enfin, la dépense pouvait-elle être mieux utilisée ? La France va dépenser 70 milliards de francs pour limiter un risque faible. Tandis que dans le même temps il existe des contaminations et des expositions beaucoup plus importantes, beaucoup plus graves (l'exposition liée aux vieilles peintures, l'arsenic dans l'eau ...) qui peuvent être éradiquées pour un coût bien inférieur ».

Le même rapport, en portant l'analyse à un niveau plus général, citait les propos d'un expert recueillis lors de son audition 20(*) :

« Les zones ou produits à surveiller sont en vérité peu nombreux : les batteries, les installations industrielles des deux siècles passés, les peintures dans les habitats insalubres, les décharges sauvages, les zones géologiques acides ... les traitements uniformes sont coûteux et inopérants. Une politique ciblée, modulée serait, de loin, beaucoup plus efficace. Il ne faut pas chercher à réduire les risques partout en dépensant des moyens importants sur des zones où ils n'existent pas ».

Cette observation générale suffira comme conclusion au présent développement ; elle indique d'ailleurs que tout n'est pas réglé et qu'il reste encore beaucoup à faire (« les installations industrielles des deux siècles passés ») pour rétablir ou maintenir un environnement sain, mais par des actions ciblées et non par l'instrumentalisation des normes.

RÉSUME DE LA PREMIERE PARTIE

* Les acquis de l'organisation

Couronnant une évolution qui avait commencé près d'un siècle plus tôt (en 1902), la loi du 1er juillet 1998 a établi une architecture adaptée aux exigences qui avaient été identifiées à la suite des crises des années quatre-vingt-dix et plus particulièrement formalisées par les travaux de la mission d'information sénatoriale de 1996-97 ; ces travaux ont abouti à une proposition de loi qui est directement à l'origine des dispositions évaluées aujourd'hui.

Les principes d'organisation retenus sont clairs.

L'option d'une agence unique du type de la FDA (Food and Drug Administration) américaine ayant été exclue, ce sont des agences propres à chaque domaine qui ont été créées. Le principe de la séparation entre l'évaluation (agences ou instances spécifiques) et la gestion (administrations ministérielles) a été retenue, le cas de l'AFSSAPS constituant une exception délibérée (en effet, en charge des deux fonctions, elle dispose du pouvoir de police sanitaire).

L'Institut de Veille Sanitaire est l'instance de base de la sécurité sanitaire et constitue la tête de réseau de toutes les agences et instances spécifiques. Il a une triple mission de surveillance, d'étude et de recommandation. Le CNSS (Comité National de Sécurité Sanitaire) devait être l'élément central de coordination. La DGS (direction Générale de la Santé) recentrée autour de ses fonctions essentielles, exerce la tutelle exclusive ou partagée (AFSSA) des différentes agences.

* Les interrogations

-- Les principes sur lesquels la sécurité sanitaire est fondée restent toujours globalement pertinents, mais leur portée doit être mieux cernée pour que leur mise en oeuvre soit à la fois réaliste et efficace. Ainsi, le « risque zéro » n'a de sens que déterminé avec précision vis-à-vis d'un danger grave et précis.

-- Le principe de précaution n'a de sens et de valeur opérationnelle que s'il est encadré par ses règles d'application : incertitude scientifique réelle, proportionnalité et réversibilité des mesures; en outre l'existence de structures et de mécanismes d'évaluation des risques tels que ceux créés par la loi de 1998 doit avoir pour effet de limiter son champ d'application au fur et à mesure des progrès de la veille et de la sécurité sanitaire.

-- Des réalités qui imposent des réorientations

Après les progrès considérables qui ont été enregistrés dans le domaine de la sécurité des aliments, on observe la coexistence d'un haut niveau de sécurité sanitaire et d'une atmosphère d'inquiétude croissante ; certaines options semblent en fait calquées non sur la réalité du risque, mais sur les progrès technologiques des appareils de mesure. La sévérisation des normes peut illustrer cette dérive. Les normes relatives aux nitrates ou au plomb dans l'eau potable se sont révélées, par leur niveau, fondées sur des démarches scientifiques erronées pour l'une et arbitraire pour l'autre.

Il convient donc d'ajuster les dispositifs d'identification et de mesure des risques à leur gravité réelle, ce qui implique la réévaluation de certains d'entre eux (ultraviolets par exemple).

Enfin, le hiatus entre les niveaux élevés de sécurité atteints (domaine alimentaire) et les certitudes de désastres dus à des comportements à risque (obésité) interpellent plus que jamais sur l'orientation et la concentration de la vigilance sanitaire sur les véritables risques.

* 11 Cf. rapport Claude Huriet sur la proposition de loi - Sénat n° 413 (1996-1997).

* 12 Auditions publiques de la commission des affaires sociales du Sénat mai 2000 n° 445 (1999-2000) p.8.

* 13 OPECST Rapport n° 346 (AN XIIè Législature) n° 52 Sénat (2002-2003) du 6 novembre 2002 (pages 99 et 111).

* 14 Le principe de précaution s'applique dans des conditions particulières, ainsi que l'a rappelé la Commission européenne : COM (2000) - Communication de la commission sur le recours au principe de précaution.

« le principe de précaution (...) couvre les circonstances particulières où les données scientifiques sont insuffisantes, peu concluants ou incertaines, mais où, selon des indications découlant d'une évaluation scientifique objective et préliminaire, il y a des motifs raisonnables de s'inquiéter que les effets potentiellement dangereux sur l'environnement et la santé humaine,animale ou végétale soient incompatibles avec le niveau choisi de protection.

(...) Le recours au principe de précaution présuppose :

- l'identification d'effets potentiellement négatifs découlant d'un phénomène, d'un produit ou d'un procédé ;

- une évaluation scientifique du risque qui, en raison de l'insuffisance des données, de leur caractère non concluant ou encore de leur imprécision, ne permet pas avec une certitude suffisante d'estimer le risque en question ».

* 15 Communiqué de presse InVS-AFSSA du 10 mai 2004 « Estimation de l'importance des infections d'origine alimentaire en France ».

* 16 La situation est à peu près comparable au Royaume-Uni où les autorités ont fait de la lutte contre les salmonelloses une priorité, notamment dans le secteur de la volaille.

* 17 In La Recheche Février 2001

* 18 Ayant participé à l'enquête sur l'accident de SEVESO, le Pr. TUBIANA a précisé à ce sujet : « Je peux vous dire qu'il n'y a pas eu de catastrophe, seulement trente avortements entraînés par une panique injustifiée. Les foetus étaient normaux, et on a sacrifié trente bébés pour rien.

(cité par Pierre KOHLER, L'imposture verte - Albin Michel - septembre 2002)

* 19 La sécurité de l'alimentation - Travaux du comité scientifique de la FCD (Fédération des entreprises du commerce et de la distribution) Septembre 2001.

* 20 P-H BOURRELIER, ingénieur général des mines, coordonateur du rapport de l'Académie des Sciences sur « la contamination des sols par les éléments en trace ».