Retour au numéro
Partager sur :
Vue 63 fois
09 octobre 2008

Evaluer les risques sanitaires dans le domaine de l'environnement

Publié par Patrice Bertail (1987), Jessica Tressou (2002), Jean-Luc Volatier (1985) | N° 34 - Les métiers de l'environnement

Nous sommes quotidiennement au contact de milliers de composés chimiques ou microbiologiques. Certains ont fait l'objet d'évaluations spécifiques, d'autres sont soumis au principe de précaution... Il y a, derrière ces décisions, une intense activité d'évaluation aux implications statistiques étonnantes.


Les risques sanitaires environnementaux sont de natures très diverses, risques chimique, radiologique, microbiologique, catastrophes naturelles. On pense le plus souvent aux composés toxiques classiques accumulés dans l’environnement pendant des décennies tels que le plomb, le cadmium ou le mercure, les polluants organiques persistants (POPs) tels que les dioxines, les PCB ou les pesticides organochlorés, même si certains d’entre eux ne sont plus ou très peu utilisés ou émis aujourd’hui. Mais il existe des milliers de composés chimiques dans les produits que nous utilisons quotidiennement tels que les emballages plastiques ou composites, les cosmétiques, les matériaux de construction, les OGM et maintenant les produits issus des nanotechnologies.
Certains d’entre eux ont fait l’objet d’une évaluation toxicologique approfondie et c’est l’objet du règlement européen REACH d’évaluer les composés prioritaires du point de vue de leur usage ou de leur toxicité. Par ailleurs le risque microbiologique est également de plus en plus étudié en lien avec l’évolution de l’environnement parce que la diffusion de certains dangers microbiologiques est liée aux changements climatiques. C’est le cas de certaines maladies vectorielles véhiculées par les insectes, comme par exemple la maladie du Nil Occidental (West Nile) qui commence à faire son apparition dans les pays tempérés.

De plus, l’exposition de l’homme aux dangers environnementaux passe par des voies multiples : principalement l’air, l’eau, l’alimentation et le contact cutané. La dimension géographique de la contamination est importante : il existe des « hot - spots » plus contaminés, liés par exemple à une présence industrielle ancienne.
Cette multiplicité des modes d’exposition combinée à la diversité des thématiques et à la dimension géographique rend le recours à la modélisation indispensable. En effet, la production systématique de données expérimentales, nécessitant des prélèvements et des mesures très coûteuses n’est pas économiquement envisageable.
Le recours à des raisonnements par scénario du pire ou « worst case » permet de répondre à un grand nombre de questions au moyen de méthodes simplifiées. Cependant, la validation de ces scénarii nécessite de recourir à des expérimentations lourdes et à des analyses statistiques approfondies.

Plusieurs disciplines scientifiques ont recours à la modélisation ou la quantification pour évaluer les risques sanitaires liés à l’environnement. On peut les caractériser selon les étapes de l’évaluation des risques auxquelles elles participent. Par ailleurs, la recherche en statistique contribue de façon continue à améliorer les méthodes utilisées.

Les quatre étapes de l’évaluation des risques

Classiquement, on distingue quatre étapes dans une évaluation de risques.

[Note éditeur: peut-être vaut-il mieux ne pas faire une liste à puce classique avec alignement en retrait: le texte associé aux puces est très long et ça ferait exploser le format]

- Dans un premier temps, il faut identifier un danger c’est à dire une molécule ou un agent infectieux qui peut avoir un impact délétère pour l’homme. Dès cette première étape, le recours à la modélisation peut s’avérer utile. L’analyse des bases de données pharmacologiques ou toxicologiques sur les relations entre structure chimique et activité des substances au moyen de méthodes quantitatives dites QSAR permet d’identifier des ensembles de substances prioritaires. La statistique appliquée à la chimie ou à la pharmacie est ici fondamentale.

- Dans un second temps, la caractérisation de la toxicité d’une substance repose sur de l’expérimentation in vitro ou in vivo sur modèle animal. Mais à partir de ces données expérimentales, il convient de prédire des effets à des doses souvent beaucoup plus faibles auxquelles nous sommes exposés.
Cette extrapolation aux faibles doses repose sur des modèles statistiques qui ne peuvent malheureusement que rarement être comparés aux résultats des études épidémiologiques qui restent trop limitées ou sujettes à discussion méthodologique. La plupart des données épidémiologiques les plus solides portent sur les travailleurs qui ont été exposés parfois à des doses plus élevées que ne le serait la population générale. Les disciplines mobilisées ici sont la toxicologie et l’épidémiologie qui recourent toutes les deux fortement à la statistique.

- Le troisième temps de l’évaluation des risques consiste à décrire les conditions d’exposition des populations c’est à dire d’identifier les groupes les plus exposés ou les plus sensibles et leurs niveaux d’exposition. Les jeunes enfants, les femmes enceintes ou en âge de procréer sont souvent des catégories d’études importantes.
La France est ainsi en train de lancer sous la coordination de l’Institut national de Veille Sanitaire (InVS) et de l’Institut National d’Etudes Démographiques (INED) avec l’aide de l’INSEE et de multiples institutions et centres de recherche partenaires l’étude ELFE (Etude Longitudinale Française depuis l’Enfance) auprès de 20 000 enfants qui comprend un volet environnemental important permettant de caractériser les expositions in utero et des nourrissons à une sélection de contaminants environnementaux.

Les agences sanitaires en charge de l’évaluation des risques et notamment l’AFSSET (Agence Française de Sécurité Sanitaire de l’Environnement et du Travail) et l’AFSSA (Agence Française de Sécurité Sanitaire des Aliments) ont développé des programmes importants visant à connaître les expositions environnementales à des niveaux de traces, notamment pour les pesticides auxquels nous sommes exposés via l’air, l’eau de consommation et l’alimentation.
Dans le domaine alimentaire, les additifs alimentaires tels que l’aspartame, les migrations d’éléments chimiques des emballages vers les aliments, les arômes naturels ou artificiels, les produits néoformés lors de la cuisson, les contaminants environnementaux font l’objet d’études d’exposition régulièrement actualisées au moyen des plans de surveillance des ministères en charge de l’agriculture et de la consommation. La surveillance de la qualité de l’air extérieur, l’Observatoire de la Qualité de l’Air Intérieur, la base de données sur la qualité sanitaire de l’eau Sise-eaux du ministère de la santé apportent de nombreuses données permettant d’estimer des expositions cumulatives.
Pourtant, malgré l’existence de ces données sur la surveillance des milieux, le recours à la modélisation reste nécessaire pour les intégrer entre elles et gérer des situations locales particulières. Une difficulté importante est qu’il convient souvent d’estimer l’exposition chronique cumulative tout au long de la vie d’un individu, ce qui n’est expérimentalement pas possible.
La statistique publique apporte ici de nombreuses données qui sont exploitées de façon secondaire comme par exemple les enquêtes budget temps qui comptabilisent le temps passé pour diverses activités (transport, travail en usine ou bureau, sommeil). Cette troisième étape de l’évaluation des risques recourt beaucoup à la statistique. On l’appelle de plus en plus souvent « expologie » pour la différencier de l’épidémiologie. Elle peut être reliée à la métrologie, science de la mesure.

- La quatrième étape de l’évaluation des risques est la caractérisation du risque en termes de nombre possible de cas de pathologies impliquées par l’exposition à des dangers environnementaux. Cette caractérisation repose sur une combinaison des données d’exposition et des relations estimées entre expositions et effets sanitaires. L’estimation des incertitudes est une part importante de la caractérisation des risques qui doit permettre au gestionnaire du risque, principalement l’Etat ou la Commission européenne, de proportionner la réponse par rapport à la probabilité de l’existence d’un impact sanitaire. Cette étape a des conséquences importantes sur la fixation des normes réglementaires qui sont discutées au niveau international. Les statisticiens et les épidémiologistes jouent un rôle crucial dans cette étape.

L'exposition au risque : une variable inobservée et censurée.

En absence de données et de caractérisation de l’incertitude, le principe de précaution conduit le plus souvent à prendre des mesures drastiques d’interdiction dont on ne peut garantir a priori la nécessité. C’est la raison pour laquelle, au delà de l’ingénierie statistique mobilisée couramment en évaluation des risques sanitaires dans le domaine environnemental, il convient également de développer la recherche en statistique afin de mieux préciser les incertitudes pour garantir un niveau élevé de sécurité sanitaire à des coûts supportables pour l’économie.

[Note éditeur : attention, il y a des objets 'formules' dans le texte ci-dessous']
La définition d’une exposition globale d’un individu à un risque environnemental et la construction d’une mesure de risque associée dépendent fortement des données disponibles et des objectifs considérés (mise en évidence d’un risque potentiel pour l’ensemble de la population, caractérisation des populations à risques etc.).
On peut dans la plupart des cas considérer l'exposition globale d'un individu à un risque (exprimée en unité relative de poids corporel ) comme la somme de niveaux d’absorption associées à P sources (par exemple, en terme de risque alimentaire, ce seront les consommations de P produits contaminés) C=(C1,…,CP) pondérées par les taux de contamination associés à chacune des sources incriminées, Q=(Q1,…,QP), rapporté au poids de l'individu ω, sur une période donnée ou de manière dynamique à des périodes différentes : D=Σp=1,…,P Qp Cp / ω
Dans la plupart des cas, il s'agit donc d'une variable construite et non d'une variable observée. Il est aussi intéressant de noter que les sources peuvent être elle-même être indexées par des sites géographiques (par exemple dans le cas de « hot spots ») qui rendent les techniques de statistique spatiale ou de champs aléatoires indispensables à l’analyse des risques.
Le caractère fortement multidimensionnel de cette quantité rend l'analyse statistique plus difficile qu'il n'y paraît, voire impossible par des techniques paramétriques, les variables considérées étant fortement dépendantes les unes des autres. Pour évaluer le risque global d'exposition d'une population, on peut dans un premier temps s'intéresser à l'estimation de la probabilité que l'exposition globale dépasse un certain seuil de toxicité d ou à l'estimation de cette quantité conditionnellement à certaines covariables. Notons que la dose est déterminée dans la seconde étape de l’analyse de risque décrite précédemment.

Calcul de Monte-Carlo et valeurs extrêmes

Lorsque les risques étudiés sont grands (i.e. Pr(D>d) « grand ») et que l'on s'intéresse dans un premier temps à une évaluation statique du risque (i.e. sur une période donnée), l'estimateur empirique de cette quantité peut s'interpréter comme une U-statistique généralisée, dont le comportement asymptotique est bien connu des statisticiens.
Malheureusement, cette quantité ne peut être calculée explicitement car il faudrait construire toutes les expositions possibles a partir des données de consommation et contamination disponibles. Elle est donc approchée par des tirages aléatoires, i.e. une méthode de type Monte-Carlo, l’incertitude étant quant elle évaluée par Bootstrap. Ces techniques de simulation sont proposées par de nombreux logiciels pour le calcul empirique de risque d'exposition (voir par exemple le projet européen Monte Carlo, http://www.tchpc.tcd.ie/montecarlo) et le recours aux U-statistiques permet de justifier de leur validité asymptotique, sauf en présence d’une trop forte dépendance entre variables…
Inversement dès que l'on cherche à évaluer des risques faibles (mais graves) pour lesquels les queues de distributions et les phénomènes extrêmes sont fondamentaux, le problème se trouve déplacé : ce sont les observations éloignées de la tendance centrale, qui deviennent les plus intéressantes.
Les méthodes statistiques adaptées à ce type de problèmes relèvent essentiellement de la théorie des valeurs extrêmes, théorie bien connue des statisticiens ou économètres de la finance et de l'assurance, mais qui nécessitent un certain nombre d'adaptations dans le cadre de l'exposition alimentaire. On peut alors également s'interroger sur les caractéristiques de des populations les plus touchées, que nous appellerons population à risque, notamment lorsqu'on dispose d'informations socio-économiques sur les individus concernés.
Ces modèles peuvent s’avérer intéressants également pour les économistes qui souhaitent réguler l’exposition à certains produits par des techniques de taxation. Le rôle du statisticien est alors fondamental pour valider les méthodes considérés tant au niveau des instituts de recherche qu’au niveau des instances de décision.

Vers des modèles spatiaux dynamiques.

L’approche statique décrite précédemment n’est pertinente que dans les cas où la vitesse d'élimination du contaminant est "grande" par rapport à la durée moyenne entre expositions telles que celles liées aux prises alimentaires, c'est le cas d’une toxine présente dans les aliments mal conservés l'Ochratoxine A par exemple.
Dans les cas de composés chimiques "à cinétique lente" par contre, tels que le méthyle-mercure ou les dioxines, le contaminant s'accumule au sein de l'organisme du fait des prises alimentaires successives. Il convient alors de décrire l'évolution de la quantité de contaminant alimentaire présent dans l'organisme au cours du temps, i.e. par un processus stochastique X=(X(t))t0. Ainsi, le processus X évolue par "sauts" au moment des prises alimentaires, les sauts correspondants à la quantité de contaminant ingérée lors des prises, et selon l'équation toxicocinétique décrivant l'élimination progressive du contaminant entre les prises.
Une analyse probabiliste précise de ce type de processus permet de déterminer s’il se stabilise à un certain niveau dit stationnaire ou s’il explose. De nouveau, le recours à la simulation est indispensable pour proposer différentes mesures de risques (temps moyen au delà d’un seuil, moyenne à l’état stationnaire) et évaluer l’incertitude associée. Ici, la théorie des processus, les modèles markoviens, les modèles de diffusion (éventuellement spatiaux) sont autant d’outils qui devraient permettre d'avoir une meilleure compréhension des phénomènes d’exposition aux risques environnementaux. Leur mise en œuvre nécessite une implication forte de la communauté statistique.

Les analyses risque-bénéfice : une nécessité accrue.

Curieusement si les dangers biologiques, physico-chimiques de certains contaminants sont bien identifiés, il n'existe que très peu de travaux statistiques convaincants sur l'évaluation globale des risques d'exposition des individus en univers contraint.
Il est en effet important de mettre en balance les expositions possibles avec d’autres critères, qu’ils soient économiques, nutritionnels etc., si l’on souhaite construire des politiques de gestion fiables et raisonnables. Par exemple, les céréales contiennent des nutriments et des fibres bénéfiques nutritionnellement mais également des pesticides et/ou des parasites de type champignons néfastes pour la santé.
Les analyses bénéfices/risques pour la santé sont pour l'instant à l'état embryonnaire et nécessitent des compétences qui relèvent à la fois de l’économie, de la statistique, et de la biologie, voire de la nutrition pour le cas de l’alimentation. Faut-il interdire tel produit, empêcher les importations de tel autre, à quel coût? Comment établir une norme de toxicité pour un produit donné? Comment évaluer et gérer les multiples sources de pollution environnementales ?
Telles sont quelques unes des multiples questions auxquelles se doit de répondre un secteur de recherche actuellement en plein développement.

Autrice

Patrice Bertail (1987), Jessica Tressou (2002), Jean-Luc Volatier (1985)

Articles liés par des tags

Commentaires

Aucun commentaire

Vous devez être connecté pour laisser un commentaire. Connectez-vous.