Les experts face au principe de précaution
Professeur d’économie à l’Université de Toulouse 1
Membre junior de l’Institut Universitaire de France
Paradoxalement, l’évolution de notre société semble révéler un nombre grandissant de faiblesses liées aux incertitudes scientifiques. Les anomalies climatiques observées relancent toujours le débat sur les mesures à prendre au niveau mondial pour limiter les émissions de gaz à effet de serre, alors que les scientifiques hésitent encore sur l’intensité du phénomène dans le long terme. La crise de la vache folle et l’introduction d’organismes génétiquement modifiés, pour ne citer que deux autres exemples, posent un problème similaire, où il s’agit d’agir avant de connaître l’intensité réelle du risque. La décision récente prise par la France de maintenir l’embargo sur la viande bovine britannique a été prise “ faute de garantie suffisante ” au regard de la santé publique et “ en application du principe de précaution ”. Il ne fait pas de doute que l’existence d’une épidémie d’EBS dans le cheptel bovin européen depuis une dizaine d’années a créé une incertitude sanitaire. Comme dans toute situation nouvelle, un temps d’expérimentation et de recherche est nécessaire pour appréhender les risques. Le temps a apporté, apporte, et apportera sa moisson de résultats qui conduisent à une réévaluation permanente du risque. Force est de constater qu’en dix ans, aucune épidémie humaine liée à la vache folle ne s’est déclarée, et aucune certitude scientifique quant à un risque de transmission de la maladie de la vache folle n’a été révélée. Ceci ne nous donne bien sûr pas de garantie concernant l’inexistence d’un danger. Tout au plus peut-on dire que le risque s’estompe avec le temps, par retour sur expérience. Le problème sanitaire auquel nous faisons face est dès lors de savoir à partir de quel moment il est opportun de considérer ce risque comme “ acceptable ”, en tenant compte, comme l’indique l’Agence française de sécurité sanitaire des aliments (Afssa), de “ l’évolution rapide de nos connaissances scientifiques ”. Face aux importants enjeux sanitaires, mais aussi économiques, du sujet, la question est de savoir s’il est possible d’organiser une règle commune raisonnable pour gérer ce type de crise, pour le bien de tous ?
Les approches économiques du principe de précaution
Le principe de précaution repris dans le Traité de Maastricht et dans la loi française indique que l’absence de preuve de l’existence d’un risque ne nous autorise pas à considérer ce risque comme inexistant. Il s’agit du bon sens même. Néanmoins, le principe de précaution ne nous dit pas comment prendre en compte cette incertitude scientifique dans le processus de prise de décision. Contrairement à une idée reçue, ce principe n’est pas un principe de risque zéro, qui est lui-même un concept utopique. Au contraire, il énonce que tout doit être mis en œuvre pour prévenir ce risque, à un coût économique acceptable. Mais la notion de coût acceptable est laissée à l’appréciation des experts, ou des juges. Ce principe reste donc du domaine du concept, et pas de la technique opérationnelle. C’est tout son drame. Comment faut-il agir face à la “ persistance d’éléments de risques plausibles, même s’ils sont non quantifiables ” ? Tous les risques plausibles et non quantifiables ne sont pas inacceptables. Après tout, nous acceptons tous de prendre des risques. Si nous tolérons ces risques, c’est que le bénéfice que nous en tirons excède leur coût. Beaucoup de risques ont des coûts quantifiables et bien identifiés, comme investir en bourse ou rouler en voiture. Les banquiers et les assureurs nous proposent d’ailleurs de prendre ces risques à leur charge contre une rémunération qui indique la valeur économique de ces risques. Chacun peut ainsi prendre sa décision en arbitrant entre bénéfices et coûts des risques. L’Etat offre d’ailleurs certaines incitations à la prise de risque, comme par la création des plans d’épargne en actions. Mais, les consommateurs sont aussi amenés à gérer des risques aux contours plus flous. Ainsi en est-il des risques liés aux téléphones cellulaires, aux radiographies, à l’exposition aux radons ou aux ondes électromagnétiques. Dans ces cas, chacun sait qu’une incertitude scientifique persiste sur l’existence d’un risque sanitaire non quantifiable. Et pourtant, beaucoup d’entre nous prenons ces risques, loin d’une application restrictive du principe de précaution. C’est à nouveau que nous considérons que les bénéfices l’emportent sur les coûts. Il ne viendrait à personne l’idée d’interdire aujourd’hui les téléphones cellulaires ou les appareils radiographiques sur base de l’existence actuelle d’une incertitude scientifique. L’interdiction systématique de la prise de risque, sans prise en compte des bénéfices potentiels de cette prise de risque, aurait des conséquences très dommageables au bien-être de la population. Surtout quand la réalité du risque n’est que “ plausible ”. La construction d’une technique opérationnelle liée au principe de précaution est indispensable. Elle doit s’inspirer du calcul coût-bénéfice que les consommateurs réalisent, au moins implicitement. Un accord international sur un mode opérationnel de gestion du principe de précaution permettrait d’éviter des crises à répétition telles que celle que nous vivons actuellement sur les dossiers de la vache folle et des OGM. Les économistes ont développé depuis longtemps des outils d’aide à la décision permettant d’évaluer l’impact des risques supportés par les consommateurs : valeur d’option des choix qui laissent plus de flexibilité pour l’avenir, valeur de l’information, prime de risque, optimisation dynamique des risques, aversion à l’ambiguité,… Dans la suite de cette section, nous développons quelques uns de ces éléments.
Assurabilité et prise en compte des générations futures
Suivant des travaux de Arrow et Lind dans les années 70, la société dans son ensemble devrait se comporter face au risque comme si ses membres étaient neutres face au risque, si celui-ci est partagé efficacement par un mécanisme d’assurance ou de solidarité. Dans de nombreux cas, cette hypothèse est irréaliste. Il y a des raisons évidentes pour lesquelles certains risques sont inassurables par des marchés d’assurance concurrentiels. De nombreux risques catastrophiques appartiennent à cette catégorie. Ils sont parfois partagés au niveau d’un pays (la France par exemple), alors qu’ils devraient l’être à un niveau beaucoup plus large pour bien faire fonctionner la loi des grands nombres. Lorsque les risques sont imparfaitement diversifiés, chaque consommateur supporte un risque auquel il faut imputer une prime de risque pour tenir compte de l’aversion au risque. On voit donc que l’acceptabilité du risque par la société est indissociablement liée à la manière dont il est partagé. Pour de nombreux “ nouveaux ” risques, comme le changement climatique, les OGM, les déchets nucléaires et la biodiversité, les dommages, s’ils se réalisent, concerneront des générations parfois très éloignées de nous. La méthode habituelle pour prendre en compte ces dommages dans l’analyse coût bénéfice consiste à actualiser ceux-ci à un taux proche du taux d’intérêt de long terme observé sur les marchés financiers. La conséquence de l’actualisation est que ces dommages, s’ils se réalisent au-delà de 100 ans, ont très peu d’effet sur la valeur des coûts actualisés du risque. Ainsi, un dommage de un million € dans un siècle ne vaut pas plus que 455 € aujourd’hui, si le taux d’actualisation est 8 %. Dans des travaux récents, j’ai pu montrer à la fois que ce taux était intrinsèquement trop élevé par rapport à nos anticipations de croissance économiques pour les décennies à venir, et qu’il existe des arguments économiques solides pour recommander de choisir un taux d’actualisation d’autant plus faible que l’horizon temporel est éloigné.
Probabilités subjectives et aversion à l’ambiguïté
De nombreux risques sont entachés d’une incertitude scientifique qui rendent les probabilités quelques peu subjectives. De façon indépendante et simultanée en 1921, Keynes et Knight distinguaient déjà le concept de probabilité du concept de fiabilité. Le degré de fiabilité d’une probabilité dépend de la quantité d’informations permettant d’établir cette probabilité. Keynes pose alors la question suivante : “ Si deux probabilités sont égales, devrions-nous préférer celle qui est basée sur la plus grande quantité de connaissance ” ? En fait, Keynes s’interroge sur la neutralité face à l’incertitude. Knight eut une position radicale, puisqu’il pensait que l’incertitude, au sens d’un risque ambigu, ne pouvait être quantifiable de quelque façon que ce soit, même s’il existe des éléments Bayesiens dans ses écrits. Pour répondre à la question de Keynes, Ellsberg montra par l’expérimentation que l’hypothèse de neutralité de Savage ne tenait pas pour un certain nombre de participants à cette expérimentation. Dans le problème dit “ des deux couleurs ” de Keynes-Ellsberg, il y a deux urnes contenant cent balles rouges et noires. On sait que l’urne 1 contient exactement 50 balles de chaque couleur. Par contre, la proportion de chaque couleur dans l’urne 2 est totalement inconnue. Dans le jeu 1, une balle est tirée de l’urne 1 et le joueur reçoit 100 f ou rien selon la couleur de la balle tirée. Le jeu 2 est identique, sauf que l’on tire la balle de l’urne 2. On observe que lorsque le joueur est confronté à l’urne 2, il est indifférent entre parier sur la couleur rouge ou la couleur noire. C’est donc qu’il accorde une probabilité subjective de 0,5 au tirage de chaque couleur. Dit autrement, le joueur pense que la probabilité de tirer la couleur rouge est la même dans les deux jeux, mais que cette probabilité est nettement plus fiable dans le jeu 1 que dans le jeu 2. Selon Savage, il devrait donc être indifférent entre les deux jeux. Pourtant, lorsque l’on offre aux joueurs la possibilité de choisir entre les deux jeux, la plupart préfèrent le jeu 1. Les individus sont donc adverses à l’ambiguïté. C’est le paradoxe d’Ellsberg. Parier sur l’urne 2, c’est comme faire face à une incertitude scientifique. Supposons qu’il existe 101 possibles “ théories ” à propos du nombre de balles de couleur rouge dans l’urne 2, avec la théorie numéro i prédisant exactement i balles rouges dans cette urne, i=0, 1,…, 100. Si ces théories sont équiprobables, la probabilité a priori de tirer une balle rouge de l’urne 2 est effectivement égale à 0,5. Le paradoxe d’Ellsberg nous dit que l’opinion publique, même si elle accepte l’idée que les 101 théories sont équiprobables, ne se comportera pas comme si l’urne 2 contenait exactement 50 balles rouges. La Commission Européenne, dans un rapport sorti en janvier 2000 sur la toile à propos du PP, ne dit rien d’autre en observant que “ les décideurs doivent tenir compte du degré d’incertitude attachée aux informations scientifiques ”. Gilboa et Schmeidler proposent un critère de comportement face à l’incertain qui constitue une alternative au principe de neutralité de Savage. Dans le critère de Gilboa-Schmeidler, les individus réalisent une séquence de deux types d’opérations. D’abord, pour chaque théorie possible, ils calculent l’espérance d’utilité en faisant comme si cette théorie était vraie. Ensuite, ils font comme si la vraie théorie était celle qui leur donne l’espérance d’utilité la plus faible. Ils se comportent alors de manière à maximiser cette espérance d’utilité minimale. C’est donc un critère de type “ maximum ”. Notons que ce critère dispense le décideur de mesurer la vraisemblance de chaque théorie possible. Ce critère génère bien un comportement d’aversion à l’ambiguïté qui s’apparente à un pessimisme (ou une précaution) extrême.
Quelle gestion dynamique des risques ?
La nature intrinsèque de l’incertitude scientifique est de se réduire dans le temps suite aux progrès de nos connaissances. Dans ce sens, le principe de précaution est très clair en établissant que l’incertitude scientifique ne peut être invoquer pour reporter des efforts de prévention à plus tard, implicitement lorsque nos connaissances du risque se seront améliorées. Avec une résolution temporelle de l’incertitude, les décideurs devraient suivre une approche prospective pour adapter leurs actions à la lumière des nouvelles données scientifiques qu’ils peuvent anticiper. Un concept central de toute gestion dynamique des risques est la flexibilité. Quand nos connaissances du risque sont susceptibles de changer à travers le temps, notre capacité à s’adapter à ces nouvelles situations peut avoir une valeur importante. En conséquence, toute action immédiate qui réduit cette capacité d’adaptation future doit être pénalisée. C’est l’objectif de la valeur d’option, qui a été développée par Claude au début des années 70. Calculer des valeurs d’option peut s’avérer être une tâche difficile. Cela requiert l’établissement de scénarios dynamiques probabilisés qui tiennent compte de la vitesse d’apprentissage et de progrès techniques. Les progrès considérables de nos capacités à gérer des programmes informatiques de grandes dimensions rendent possible l’analyse d’un environnement incertain complexe. D’autres éléments sont à prendre en compte pour déterminer le timing optimal d’un effort de prévention. Ainsi, le désir de lissage de cet effort dans le temps, que l’on observe dans d’autres domaines que l’environnement, doit nous inciter à limiter des politiques trop sensibles aux mauvaises ou aux bonnes nouvelles. Enfin, la prise en compte de la prudence, un trait des préférences correspondant à la convexité de l’utilité marginale, semble jouer un rôle important dans ce domaine. La création de l’Afssa, ainsi que d’autres agences, a pour objectif de constituer un comité d’experts évaluant les risques. La compétence incontestable de ces derniers les met dans la meilleure position possible pour évaluer les risques et leur évolution dans le temps. Sont-ils en bonne position pour bien évaluer les coûts et les bénéfices de la prise de risque ? On est en droit d’en douter. Les experts et, plus généralement, les décideurs publics peuvent faire deux types d’erreur. La première consiste à recommander une prise de risque “ inacceptable ”, comme dans le cas du sang contaminé. C’est le cas lorsque, au jour de la prise de décision, le coût du risque excède son bénéfice. On l’a vu, l’opinion publique et les juges se montrent d’une sévérité exemplaire en France pour punir ce type d’erreur. Mais il existe aussi un autre type d’erreur, dont les conséquences peuvent être tout aussi économiquement indésirables pour la population. Il s’agit d’interdire la prise d’un risque “ acceptable ”, c’est-à-dire un risque dont les bénéfices dépassent le coût. Serons-nous aussi sévère pour condamner ces experts responsables / coupables de ce deuxième type d’erreur ? C’est peu probable, surtout quand cette décision permet de protéger le marché national et ses lobbys de l’invasion de produits étrangers.
Conclusion
Les experts sont donc beaucoup plus incités à réduire le risque d’erreur du premier type. Cela se fera inévitablement au prix d’une augmentation des erreurs du second type. On peut dès lors s’attendre à ce que ces agences remettent des avis majoritairement défavorables à la prise de risque, comme c’est le cas par exemple pour l’importation de bœuf britannique. L’avis étant biaisé, il n’est pas crédible. Notre pays gagnerait en crédibilité s’il imposait à ses comités d’experts sanitaires un outil d’aide à la décision de gestion des risques transparent et respectueux des coûts et des bénéfices réels de la prise de risque pour les populations concernées. Le rapport Kourilsky- Viney va d’ailleurs tout-à-fait dans ce sens. Mais ce rapport ne semble pas conduire à une révision de nos normes. Une sélection des compétences des experts sur base de leur production scientifique internationalement reconnue est aussi désirable pour échapper à la tendance de nommer des experts en fonction des besoins de résultats des politiques. Finalement, un système d’incitations financières des experts semble indispensable, dans un monde où la tentation des lobbies de tous horizons est forte.
Aucun commentaire
Vous devez être connecté pour laisser un commentaire. Connectez-vous.