Allez au contenu, Allez à la navigation



Perturbateurs endocriniens, le temps de la précaution

12 juillet 2011 : Perturbateurs endocriniens, le temps de la précaution ( rapport de l'opecst )

C. UNE RÉVOLUTION TOXICOLOGIQUE ?

Dans le véritable puzzle que sont les effets sur la santé des perturbateurs endocriniens, on voit donc d'un côté des preuves de nocivité grave de certains produits, d'un autre côté une série de substances ayant ou susceptibles d'avoir des effets par des mécanismes extrêmement variés.

Dès lors se pose la question de savoir si ces substances et ces mécanismes sont bien pris en compte par la toxicologie « classique » qui fonde les réglementations en vigueur pour la protection des professionnels et des consommateurs ou si, au contraire, ils viennent bouleverser le champ traditionnel des savoirs et obligent à une remise en cause approfondie.

1. La toxicologie « classique »

Il y a sans doute quelques a priori à parler de « toxicologie classique », mais l'expression paraît cependant s'imposer tant elle est aujourd'hui employée à l'appui d'un important questionnement sur les mécanismes à l'oeuvre.

a) Paracelse et la linéarité

On fonde traditionnellement la toxicologie sur les travaux de Paracelse, médecin suisse du 16e siècle, dont une maxime est particulièrement connue « Rien n'est poison, tout est poison : seule la dose fait le poison ».

Selon ce principe, tout produit peut devenir nocif pour la santé s'il est consommé en excès : le soleil, l'eau, le sel, le safran... En revanche, une substance considérée comme poison peut, à une dose adaptée, se révéler inoffensive ou permettre de soigner.

Ce que la toxicologie moderne a retenu de Paracelse c'est une relation entre l'effet et la dose. La relation dose-effet conduit à une progression linéaire de l'effet selon un mécanisme logique.

Cette démarche se caractérise également par son caractère monoproduit. Chaque produit ayant son effet selon son mécanisme propre. Il n'y a guère que dans le domaine du médicament qu'une démarche multicritère se soit instaurée pour exclure les combinaisons nocives de molécules.

Ce principe de base se décline ensuite de manière très complexe pour définir les limites d'exposition et d'absorption acceptables par les professionnels et les consommateurs de l'ensemble des produits chimiques susceptibles d'avoir un effet toxique.

b) Des doses mortelles aux doses journalières admissibles

La dose non toxique d'une substance est usuellement calculée à partir de la définition de sa dose létale pour aboutir à la définition d'une dose journalière admissible ou tolérable.

Ce concept semble avoir été inventé par le toxicologue français René Truhaut au cours des années 195021(*) notamment au sein du groupe conjoint d'experts de l'OMS et de l'Organisation mondiale pour l'alimentation et l'agriculture (FAO) sur les additifs alimentaires. Devait émerger de ce groupe le principe selon lequel tous les additifs devaient faire l'objet d'une évaluation toxicologique avant leur autorisation de mise sur le marché mais également que celle-ci devait tenir compte de leur utilité. Leur combinaison conduisit, en 1961, à adopter la notion de dose journalière acceptable, issue du calcul de la dose maximale sans effet décelable. En effet, selon le principe de la relation dose-effet, ce n'est pas parce que l'impact n'est pas mesurable qu'il n'existe pas. Mais le zéro lui-même n'a pas vraiment de réalité scientifique, dès lors il convient de fixer une limite appropriée.

Parallèlement à ce groupe d'experts, l'OMS devait créer, en 1963, un comité ayant pour mission de calculer la DJA des pesticides et les limites maximales de résidus (LMR) sur les aliments.

La définition de la dose létale ressort de la « loi de Haber » du nom d'un scientifique allemand, prix Nobel en 1919 pour la synthèse de l'ammoniac et ayant notamment travaillé sur les gaz de combat et d'autres produits insecticides ou désinfectants.

La dose létale retenue pour la toxicité est la « dose létale 50 » où celle qui provoque la mort de 50 % d'un échantillon de rongeurs exposés. Cette mesure a été définie en 1927 par le scientifique anglais John W. Trevan.

Selon le même processus, on cherche alors logiquement à définir la dose à partir de laquelle aucun effet ne peut être observé sur les animaux de laboratoire (No Observed Adverse Effect Level - NOAEL).

Pour obtenir la DJA, on applique un facteur de sécurité de 100, qui est le résultat d'une double précaution : un facteur de 10 pour tenir compte des différences entre l'animal et l'homme et des éventuelles imprécisions des études disponibles ayant déterminé la NOAEL. Un second facteur de 10 est appliqué pour tenir compte de la variabilité de la sensibilité interpersonnelle chez l'homme. Il peut d'ailleurs arriver que le facteur de précaution soit plus ou moins égal à 100 en fonction de la qualité des études disponibles et des usages. Ce facteur de sécurité a, à la fois, une dimension pragmatique et arbitraire, mais il doit garantir que l'exposition chronique, dans cette limite, est sans effet pour l'homme.

En matière de pesticide, pour garantir que la DJA ne soit pas dépassée en raison de la consommation de nombreux aliments, il convient de calculer la quantité de pesticide normalement présente sur chacun et de la combiner avec des profils de consommation pour déterminer les limites maximales de résidus autorisés qui assurent la protection des citoyens quel que soit leur mode d'alimentation.

c) La critique philosophique de la toxicologie classique

Comme notre collègue Daniel Raoul l'avait noté dans son rapport sur les champs électriques et magnétiques émis par les lignes à haute et très haute tension et leurs effets sur la santé22(*), les nouvelles perceptions du risque conduisent à une véritable critique voire incompréhension de la toxicologie classique comme l'a montré M. Daniel Boy dans son ouvrage intitulé Pourquoi avons-nous peur de la technologie ?23(*).

Trois points peuvent être soulignés : la modification de la hiérarchie traditionnelle entre le savant et l'ignorant, la remise en cause de la rationalité de la perception du risque et, enfin, la contestation du paradigme de Paracelse.

Le traitement traditionnel de la question repose sur l'idée selon laquelle le public est ignorant, ce qui le conduirait à avoir des peurs irrationnelles de ce qu'il ne connaît pas. Il faudrait donc permettre aux « sachant et disant » d'exercer leur supériorité rationnelle pour prendre la décision de mettre en oeuvre un progrès technique, dont les bénéfices apparaîtront à tous comme évidents à plus long terme.

Cette supériorité classique se fonde sur le paradoxe de perception des risques, selon lequel on est plus effrayé par un risque inconnu et faible que par un risque connu mais éventuellement plus élevé (conduire, fumer...).

Mais cette approche a été remise en cause par l'école américaine de l'analyse de la perception du risque fondée dans la lignée de Chauncey Starr et de son article « Social benefit versus technological risk : what is our society willing to pay for safety » (Science, 1969). Il posait notamment la question fondamentale « How safe is safe enough ? ».

Cette école, dont le principal représentant vivant est Paul Slovic (The perception of risk, Londres, Earthscan, 2000), est issue des probabilités subjectives (années 1960), recherches qu'il mettra en application à propos des catastrophes naturelles, et, surtout, à partir des années 1970, à propos de la perception du risque industriel à la suite de la lecture de Chauncey Starr et des débats politiques relatifs aux pesticides, à l'énergie nucléaire et à la pollution industrielle. Ce sont d'ailleurs ces protestations qui conduiront le Congrès américain à financer d'importants programmes de recherche sur ce sujet.

Paul Slovic va ainsi définir un « paradigme psychométrique » composé de trois éléments :

- les équilibres perçus entre risques et bénéfices ;

- les facteurs psychologiques de perception du risque ;

- l'écart d'évaluation entre les profanes et les experts.

C'est ce dernier élément qui nous intéresse ici.

Pour l'essentiel, les études montrent que les profanes ont plutôt une bonne connaissance des risques objectifs et récurrents - risques réalisés - (la morbidité - x nombre de morts chaque année) et que les divergences avec les experts sont peu significatives.

En revanche, la différence est forte sur les risques ne provoquant quasiment aucun décès constaté mais susceptible, en cas de catastrophe, d'en causer un grand nombre, alors que les experts du domaine jugent le risque faible. Mais pour les risques de ce type les plus récents il devient difficile de distinguer entre la rationalité des experts et celle des profanes.

Il y a donc un risque « réel » et un risque « perçu » qui sont tous les deux rationnels et qui ne départagent pas experts et profanes.

Le troisième aspect est la mise en cause du paradigme de Paracelse qui est un des fondements majeurs de la démarche scientifique et administrative de la gestion du risque.

Le risque zéro en la matière n'existe pas, - il n'est d'ailleurs pas contrôlable - mais il faut définir une norme en dessous de laquelle il n'y a aucun danger, même à la suite de contacts répétés ou continus. Il y a donc une définition administrative à partir d'une base scientifique du zéro et de l'absence de poison.

Cependant, cette idée de dose limite est de plus en plus contestée par le public dont la « toxicologie intuitive » (Paul Slovic) est fondée sur le tout ou rien.

Les travaux du psychologue Paul Rozin (1998) ont montré que la perception du risque alimentaire était largement exprimée par les « lois de la contagion » : il y a transfert définitif de propriété et de souillure entre deux éléments, l'un sain, l'autre malsain et provoquant une contamination complète (exemple du cafard dans un plat).

On assiste également à une contestation plus large autour du refus des taux limites et des normes d'exposition, des faibles doses et de la pollution diffuse.

Pour certains auteurs, tel Ulrich Beck dans La société du risque, sur la voie d'une autre modernité (Paris, Aubier, 2001), les taux limites légitiment en fait la pollution de l'environnement.

Scientifiquement parlant, on fait la distinction entre les effets « déterministes », par exemple ceux liés à des rayonnements ionisants au-delà d'une certaine dose, effets certains et mesurables, et les effets dits « stochastiques », en deçà de cette dose limite, qui sont indéterminés c'est-à-dire qui ne sont pas forcément inexistants mais qu'on est incapable de mesurer et même d'en prouver la réalité.

Au final, Daniel Boy montre que c'est cette rationalité différente qui peut s'imposer à la gestion des risques, qu'ils soient chimiques ou technologiques. Elle rend difficile, voire impossible, la compréhension d'une absence de risque zéro, alors que les risques scientifiquement appréciés sont modélisés sous forme de probabilité exprimée en 10-x et sont évités par des systèmes de sécurité redondants.


* 21 M-M. Robin, ibidem, p. 238 et s.

* 22 N °506, 2010.

* 23 Presses de la FNSP, 2007.