Innovation dans l'expertise
  • News
  • Le projet
    • The project
  • Governing by Prediction Conference
    • Program
  • Colloques de restitution
    • Modèles, prévisions et scénarios dans les politiques de l'énergie et de l'agriculture - 9 juin 2017
    • Produire la prédiction: le travail de modélisation pour l'évaluation des risques - 19 juin 2017
    • Sécurité et justice: le défi des algorithmes - 27 juin 2017
  • Séminaire & ateliers
    • Séminaire du projet 2015 -2017
    • Modélisation, simulation et prédiction dans l’action publique - 02/2015
    • Modeling, simulation, scenarization and algorithms in public policy and debate - 07/2015
Picture

Le 19 juin 2017, le Laboratoire Interdisciplinaire Sciences Innovation Société (LISIS) organisait un colloque d’une journée sur l’usage des modèles dans l’évaluation des risques des produits chimiques. Comment les modèles théoriques d’exposition, les modèles structure-activité ou encore les modèles mathématiques de type PBPK refaçonnent-ils la connaissance des produits chimiques, et la manière de gérer leurs risques ? Le colloque, organisé dans le cadre du projet ANR INNOX, était l’occasion de présenter les résultats de recherche sociologique sur ces questions, devant une assistance composée de sociologues, historiens, modélisateurs et experts des agences sanitaires.

Modèle et morale
La modélisation de l’exposition aux pesticides

La journée débuta par la présentation des modèles de caractérisation de l’exposition aux pesticides des travailleurs agricoles, objet des recherches de Jean-Noël Jouzel, sociologue au Centre de Sociologie des Organisations.
Dans le cadre de l’évaluation réglementaire des risques des pesticides, l’exposition des populations est estimée par les firmes demandeuses d’une autorisation de mise sur le marché (AMM). Cette estimation est encadrée par des documents-guides de la European Food Safety Authority. L’AMM est ensuite délivrée par les autorités nationales si les niveaux attendus d’exposition sont inférieurs à la dose jugée acceptable.

L’évaluation de l’exposition des travailleurs de l’agriculture – qui constituent, de loin, la population humaine la plus en contact avec les produits phytopharmaceutiques – suit un schéma standard, qui distingue les operators qui manipulent les produits, les farmworkers qui font des travaux sur les champs préalablement traités, les bystanders qui travaillent sur des parcelles proches de celles qui sont en cours de traitement, et les residents qui vivent à proximité des parcelles. Pour chacune de ces situations, l’estimation de l’exposition repose sur une série de paramètres.. Pour les operators : quantité de produit utilisé, mode de pulvérisation, port éventuel d’équipements de protection (gants, combinaisons, masques…) ; pour les farmworkers : quantité de résidus susceptibles d’être « délogés » du feuillage des végétaux, quantité de ces résidus susceptibles d’entrer en contact avec le corps du travailleur… Des modèles agencent ces déterminants de l’exposition, qui permettent de prédire ex ante la quantité de produit susceptible de pénétrer dans l’organisme des travailleurs exposés. Ils sont alimentés par des bases de données constituées, pour l’essentiel, par des recherches financées par les industriels du secteur., et encadrées par des lignes directrices de l’OCDE.

Ces modèles, et la façon dont ils sélectionnent et quantifient les déterminants de l’exposition des travailleurs agricoles aux pesticides, sont le fruit d’un long processus historique, qui a vu le jour aux Etats-Unis dans les années 1950. Face à la montée des contestations visant le recours massif aux pesticides – notamment organochlorés et organophosphorés – dans les fermes américaines, les firmes du secteur comme les autorités agricoles en charge du contrôle des produits ont alors financé des opérations de mesure de l’exposition des travailleurs agricoles aux pesticides. Les données produites ont non seulement permis de quantifier les niveaux d’exposition, mais également de repérer que la peau constitue la voie principale de pénétration des produits, et de proposer un ensemble de mesures destinées à ramener les niveaux d’exposition en dessous des seuils acceptables. En segmentant les parties du corps exposées, au moyen de patchs, et les populations exposées, les entomologistes et les toxicologues qui ont conduit ces mesures expérimentales de l’exposition ont notamment pu promouvoir un ensemble de techniques de réduction de ces niveaux d’exposition.

Ces modèles d’exposition ont puissamment cadré la manière d'aborder les problèmes de santé au travail induits par l’usage agricole des pesticides. Les modalités de mesure ont de fait défini ce qu’être empoisonné par un pesticide au travail veut dire. Les choix méthodologiques sur lesquels les modèles reposent excluent, par exemple, la plupart des incidents survenant en cours de traitement et susceptibles de majorer les doses d’exposition. Le paramétrage de la réduction d’exposition cutanée permise par le port de combinaisons ou de gants, postule que les travailleurs agiront en conformité avec les recommandations, et porteront systématiquement des équipements de protection non abîmés et non souillés. Les modèles incorporent ainsi une vision éminemment prescriptives des tâches impliquant des contacts avec les pesticides, et perpétue une vision selon laquelle les mauvaises pratiques des travailleurs agricoles sont les causes des intoxications - et non les produits.

La présentation de Jean-Noel Jouzel pose la question de savoir pourquoi d’autres modèles plus réalistes ne sont pas pris en compte dans l’autorisation d’utilisation des pesticides ? Amélie Crépet, de la direction de l’évaluation des risques de l’ANSES, précise que la modélisation de ce qui se passe dans les champs est un exercice séparé, pour laquelle l’ANSES récolte des données supplémentaires, qui enrichiront à terme ces modèles dits a priori. Pour Bob Diderich, directeur de la division environnement, santé et sécurité à l’OCDE, on a traditionnellement cherché à modéliser le « pire cas réaliste », mais pas à analyser la situation d’ensemble, et le retour du terrain vers les modèles théoriques/génériques utilisées dans l’AMM a toujours été limité. La situation, note Jean-Paul Gaudillière, historien des sciences et de la médecine, directeur du CERMES3, dénote la marginalisation des connaissances épidémiologiques dans ces processus de réglementation des pesticides. Marginalisation qui s’explique par la difficulté historique des études épidémiologiques à produire des corrélations considérées comme fiables à l’échelle d’un produit spécifique – qui est l’objet de l’AMM. Sylvaine Rongat-Pezeret, médecin toxicologue au sein du service des études médicales d'EDF, souligne, en conclusion, que l’usage des modèles est de permettre d’évaluer différentes substances sur une échelle uniforme, bien plus que de connaitre, ou même de protéger. Le contenu de ce qui est cherché à travers ces modèles semble en effet limité, sinon pauvre, par rapport à ce que l’on sait déjà, par exemple, des limites de l’efficacité des  équipements de protection individuels.

La modélisation QSAR : gouverner la multitude chimique

Brice Laurent du Centre de Sociologie de l’Innovation de l’Ecole des Mines de Paris et François Thoreau du centre de recherche Spiral de l’université de Liège, entamaient alors la session dédiée aux outils de prédiction de la toxicité des produits chimiques fondés sur la modélisation des structures moléculaires – la modélisation dite « QSAR » (Quantitative Structure Activity Relationships). Les modèles QSAR sont des modèles mathématiques de la relation entre des propriétés d’un groupe de substance et l’émergence d’un certain type de toxicité. Dans la mesure où ils permettent de calculer la probabilité d’apparition d’un type donnée de toxicité pour une substance présentant des propriétés proches de celles qui ont été inclues dans le modèle initial ils permettent d’éviter le détour par une expérimentation individuelle de la nouvelle substance évaluée.
Laurent et Thoreau situent l’intérêt des modèles computationnels à deux niveaux: ils réduisent le recours aux tests expérimentaux considérés comme couteux et non éthiques, et permettent de traiter des substances qui rentrent mal dans les catégories existantes.

Les deux sociologues partent de l’observation que toutefois, il existe une prudence très forte concernant la validité des modèles, et donc dans l’utilisation des modèles pour prendre des décisions. Il n’y a pas de procédure formelle de validation des modèles, à la manière des tests in vivo. Les règles définissant un bon modèle sont relativement souples, et se limitent à six principes énoncés par un groupe de travail de l’OCDE il y a une dizaine d’années, selon lesquels un modèle QSAR doit comporter un endpoint défini, un algorithme non ambigu, un domaine d’applicabilité défini, offrir une mesure de sa spécificité, robustesse et prédictivité, et être accompagné, si possible, d’une interprétation mécanistique (biologique) de la relation entre molécule et effet.

Les modèles QSAR ne sont donc pas et ne seront jamais des boites noires standardisées, tournant mécaniquement sans interrogation systématique sur ce qu’ils contiennent et les prédictions qu’ils produisent. Dans les faits, chaque modèle fait l’objet d’une décision au cas par cas, dans l’espace discret de la discussion autour d’une substance particulière. Leur intérêt réside bien plutôt dans leur flexibilité et leur manipulation, pour trouver les similarités entre substances, et les regrouper. La modélisation QSAR passe par l’identification d’effets statistiques communs à des groupes de substance. Le développement d’un modèle est donc l’opportunité chaque fois renouvelée d’en apprendre plus sur de nouvelles familles de substances chimiques, et savoir si oui ou non elles doivent constituer un objet d’action réglementaire. Cette utilisation de la modélisation comme outil flexible est une originalité, notent Laurent et Thoreau. Elle contredit l’idée selon laquelle l’action réglementaire dépend de l’application de règles pré-établies, qui garantirait son objectivité, comme dans le modèle de l’objectivité réglementaire.

Lors de la discussion, Jean-Paul Gaudillière engage une comparaison avec la situation du médicament. On y retrouve cette multiplication des catégories de médicament à mesure que de nouveaux produits sont soumis par les industriels, que l’on réglemente en les comparant aux produits que l’on connait déjà. Benoit Vergriette de l’ANSES note que dix ans après le lancement de REACH, l’ambition de limiter le nombre d’animaux sacrifiés ne semble pas avoir été atteint, puisqu’il n’y a pas d’utilisation généralisée des modèles computationnels. Pour que les modèles computationnels en viennent à être usités davantage, il faudrait qu’ils apportent un réel avantage par rapport aux tests animaux – ce qui n’est pas encore évident — et qu’ils soient la source d’économies pour les industriels – ce qui n’est pas prouvé non plus – mais aussi que les outils informatiques soient pleinement accessibles, avec un haut niveau de transparence et de compréhension sur ce qui est fait avec et par ces modèles.

Prédire les risques grâce aux modèles computationnels dans REACH: La mise à l’épreuve d’une promesse

La présentation suivante, par Henri Boullier et David Demortain, remit cette question de la promesse de la modélisation computationnelle et de la prédiction sur la table. A travers une enquête auprès des toxicologues d’entreprises chimiques, de consultants et de développeurs d’outils logiciels pour la prédiction, les deux chercheurs dégagent une trajectoire inattendue: celle du déclin de la modélisation computationnelle, au profit de formes de prédiction fondées sur des raisonnements par analogie.
Au tournant des années 2000, au moment où se dessine le programme REACH, de grands espoirs sont exprimés de pouvoir prédire les effets des produits chimiques à partir de modèles computationnelles de type QSAR, et ainsi de limiter le cout, le temps et le nombre d’animaux sacrifiés pour tester les substances en laboratoire, une par une. Environ quinze ans après, en pratique, la modélisation QSAR est très peu utilisée. On continue de prédire – on cherche à cerner les dangers des produits chimiques sans les tester expérimentalement ou attendre de pouvoir les observer — mais on le fait en raisonnant, avec l’appui des ordinateurs mais en dehors d’eux tout aussi souvent, à partir des données que l’on possède sur un groupe de substances chimiques, en faisant l’hypothèse que la nouvelle molécule que l’on considère fait partie de ce même groupe. Ce raisonnement de « read-across » ou « lecture croisée » est plus praticable, moins couteux, plus transparent aussi que l’utilisation de modèles statistiques computationnels. Comme le montre le succès de l’outil logiciel de lecture croisée de l’OCDE, contre-intuitivement appelé « la QSAR toolbox », c’est le mode de prédiction le plus utilisé pour l’évaluation réglementaire des produits chimiques.

A partir d’un historique des outils logiciels servant à réaliser ces prédictions, Boullier et Demortain montrent que la promesse QSAR valait tant que tenait la réputation d’outils logiciels statistiques, développés le plus souvent par des chercheurs en chimie à destination de l’industrie pharmaceutique (TopKat, Multi-Case...). Le read-across est monté en puissance à mesure que la validité de ces premiers outils a été testée, comparée, leur practicabilité éprouvée, grâce à l’émergence d’un réseau d’experts travaillant pour les autorités réglementaires ou environnementales. Développant des outils permettant de faire du screening autant que de la prédiction ciblée sur une substance, connectant les diverses bases de données de résultats expérimentaux développées à travers l’Europe, facilitant le développement d’outils informatiques simples d’accès pour interroger ces résultats, ce réseau d’experts a contribuer à mettre en évidence la capacité de prédiction toute relative, à tout le moins variable, des modèles commerciaux. Il a permis la montée en puissance d’un mode de prédiction intuitif et facile à mettre en œuvre, notamment à travers la toolbox de l’OCDE.

L’émergence de ce réseau d’experts et la mise en commun des ressources existantes (les bases de données notamment) résulte des investissements des agences sanitaires dans le développement d’outils gratuits, accessibles, ouverts. Il y a donc une économie de la prédiction à prendre en compte, pour expliquer quelle manière de prédire, in fine, s’institutionnalise. En l’occurrence, la montée en puissance d’un mode de prédiction simple, la lecture croisée, est advenue parallèlement à l’émergence d’une économie publique des méthodes computationnelles.

Au cours de la discussion, Nathalie Printemps de l’ANSES, puis Bob Diderich de l’OCDE confirment l’importance qu’ont eu les impératifs de transparence, d’accessibilité,  de gratuité, dans le choix de l’OCDE et des autorités européennes de développer une toolbox et la méthodologie du read-across. Les autorités réglementaires ne pouvaient pas prescrire d’utiliser l’un ou l’autre des outils de modélisation statistique privés, et n’avaient finalement que comme choix de développer un outil entièrement gratuit, dès lors qu’elles souhaitaient que la prédiction soit davantage utilisée dans l’évaluation des produits. L’historique décrit, pour Alexandre Hocquet et Jean-Paul Gaudillière, correspond d’assez près à ce qu’on observe avec l’échec commercial des suites logiciel dans les années 1990, et l’échec, en médecine, de remplacement de l’expert humain par des logiciels d’aide au diagnostic clinique. Brice Laurent ajoute, dans la continuité de cette remarque, que le cas de la prédiction dans REACH montre comment l’objectivité incarnée par l’expert humain, résiste au cœur même d’un domaine qui valorise l’objectivité mécanique des logiciels.

La modélisation pharmacocinétique : la valeur disputée des modèles pour évaluer les risques et s’en protéger

La dernière forme de modélisation débattue au cours de cette journée était la modélisation de la trajectoire des produits chimiques dans l’organisme humain, dite modélisation pharmacocinétique, ou PBPK (Physiologically-Based Pharmaco-Kinetics). David Demortain lui a consacré une enquête dans le cadre du projet ANR INNOX, pour comprendre son succès paradoxal – méthode générique très fréquemment citée, mais dont les applications sont en réalité très étroitement évaluées, et in fine souvent limitées.
Le PBPK repose sur la modélisation mathématique des flux dont dépendent la circulation et la concentration des substances chimiques dans l’organisme. Un modèle PBPK sert à faire de la dosimétrie : mesurer la présence d’une substance dans le corps dans différentes conditions, sans avoir à tester expérimentalement chacune de ces situations. L’évaluation des risques des substances chimiques repose sur des expérimentations sur quelques doses élevées, que la modélisation PBPK permet d’extrapoler, sans appliquer les facteurs d’incertitude de 10 ou 100 conçus pour couvrir les différences entre animaux (sur lesquels les tests sont faits) et l’humain.

En quelques décennies, la méthode a acquis de plus en plus de crédibilité. Les modèles développés apparaissent de plus en plus fiables, plus rapides à développer, et couvrent un plus grand nombre de substances chimiques. Pourtant, longtemps après les premiers cas d’application de la méthode aux contaminants environnementaux à la fin des années 1980, on compte peu de cas de décisions influencées par ce type de calcul.

David Demortain a mené l’enquête auprès des promoteurs scientifiques, praticiens actuels et agences utilisant ce type de modélisation aux Etats-Unis et en Europe. L’enquête montre que la modélisation PBPK est un domaine segmenté, organisé autour des relations entre les agences et les auteurs des modèles, le plus souvent concentrées sur une substance ou une famille de substances. La méthode est surtout employée sur des cas dits “higher-tier”, des substances sur lesquelles on dispose de beaucoup de données, à la toxicité élevée, et menacées d’interdiction ou de restriction. Ce sont des substances pour lesquelles la validité des modèles, pour justifier de supprimer les facteurs d’incertitude, sera étroitement vérifiée. La prise en compte du modèle est alors un processus lent, itératif, de recodage du modèle par l’autorité sanitaire sur ses propres ordinateurs, puis simulations multiples, interrogation des incertitudes afférentes, et réajustement, correction ou re-développement du modèle pour inclure de nouveaux jeux de données, etc. Le processus passe par de multiples échanges, souvent frustrants, étalés sur plusieurs années, avec l’auteur du modèle, et n’aboutissent à la prise en compte du modèle que si les incertitudes sont levées.

Au niveau international et académique, toutefois, le champ de la modélisation PBPK est très unifié. Il s’est développé autour de quelques leaders intellectuels, notamment Melvin Andersen, un biochimiste américain. Andersen a formé la quasi-totalité des praticiens du PBPK aujourd’hui, a convaincu chacun de l’intérêt de cet exercice computationnel pour combler les incertitudes de l’expérimentation sur animaux, favorisé la diffusion de cette expertise au sein même des agences sanitaires, aidé à la production de plus en plus de modèles sur une plus grande série de substances, et permis de fait la formation d’une communauté transnationale de pratique. La progression d’ensemble des usages du PBPK dépend de la capacité de la communauté transnationale à répondre aux critiques faites, dans la pratique et au cas par cas, aux modèles et aux incertitudes qu’ils contiennent. La méthode progresse tant que l’incertitude et les limites des autres méthodes, et notamment celle des tests animaux et des facteurs de sécurité, est soulignée. En d’autres termes, le succès de la modélisation se comprend mieux dans une écologie des savoirs, et dans les relations qu’elle entretient avec d’autres sciences, et la hiérarchie qui se forme entre eux.

Paul Quindroit, doctorant à l’INERIS employant des modèles PBPK, et Laurent Bodin, membres de l’ANSES et modélisateur PBPK, confirment l’importance de Melvin Andersen dans la construction du champ du PBPK. Laurent Bodin insiste sur le fait que dans son expérience, les modèles PBPK ne sont pas pris en compte tel quel dans les évaluations de risque des agences. Ils sont systématiquement reproduits sur les ordinateurs et logiciels de l’agence, et sont simulés de multiples fois. Les agences gardent un œil critique sur ces modèles, aidées en cela par une ligne directrice de l’OMS. Si bien que la valeur ne peut être comprise que par rapport aux autres connaissances disponibles pour évaluer les risques. Ils représentent un apport scientifique de connaissances net sur le métabolisme, la physiologie, les mécanismes biologiques, dans un exercice habituellement fondé sur des résultats de tests animaux et l’application de facteurs d’incertitude, mis au point il y a plus de cinquante ans et sans fondement scientifique. C’est par rapport à cette pratique conventionnelle que le PBPK peut être compris, et c’est aussi par rapport aux risques calculés avec des facteurs d’incertitude que le PBPK pose problème, et peut être questionné : l’application d’un modèle PBPK a dans un seul cas, conduit  à relever les doses considérées comme admissibles chez l’homme.


Argumentaire du colloque

Faire tourner un modèle pour obtenir une estimation de la toxicité d'un produit prend quelques secondes seulement. De nombreux outils logiciels aujourd'hui permettent en effet de trouver une estimation de la toxicité à partir d'un modèle de ‘Quantitative Structure-Activity Relationship’, tel le logiciel EPIWIN de l’agence environnementale américaine. Des outils sont disponibles aujourd'hui pour composer et faire tourner en quelques heures un modèle générique de ‘Physiologically-Based Pharmaco-Kinetics’, pour estimer une dose interne au corps humain d'un produit chimique donné, en remplacement des données expérimentales animales et de facteurs de sécurité. On peut simuler une population humaine exposée à un produit chimique donné, comme le proposent les plateformes Merlin-expo, ou le programme PopGen (virtual population generator).

Pour autant, produire une prédiction crédible implique un travail aussi fastidieux que répétitif. Modéliser c'est: théoriser le fonctionnement d'un système, puis produire, rassembler, nettoyer les données nécessaires pour le simuler, mais aussi choisir, concevoir et régler les outils logiciels permettant de faire ces simulations, paramétrer, calibrer, confirmer, évaluer le modèle, très souvent également travailler à l’harmonisation des données, outils et paramètres — puis recommencer en fonction des résultats et des demandes. Ce travail n’est pas autonome : il est fait de manière collaborative, parfois concurrentielle sur divers modèles par différents groupes de modélisateurs.

En somme, un modèle est le produit d'un travail particulièrement long de crédibilisation. Le contexte de l’action publique, l’utilisation de modèles pour produire des évaluations de danger ou de risque, ne fait d’ailleurs que donner plus de poids et d’ampleur à ce travail, parce que la visée de la décision publique renforce les épreuves de crédibilité auxquelles sont soumis les modèles. Les techniques de modélisation mobilisées dans l'action publique sont même probablement soumis à plus de demandes de vérification, d'évaluation, de confirmation, à des impératifs plus forts encore de transparence, de minimisation des incertitudes, ainsi que de ‘user-friendliness’.

Cette journée d'études se focalise sur une série de techniques de modélisation de la toxicité des produits chimiques aujourd’hui utilisés dans l’action publique. Elle questionne la manière dont l'action publique, ses institutions, ses processus de décision, ses réseaux d'acteurs, ses controverses, fonctionnent comme autant d'épreuves de la valeur des données et des modèles, et la manière dont on parvient à produire une prédiction crédible dans cet espace.



Programme

9h30 - Introduction à la journée d’étude — David Demortain (LISIS)

10h-10h45 - Modèles d’exposition et évaluation des pesticides — Jean-Noël Jouzel (CSO)

10h45-11h30 - Discussion sur les modèles d’exposition — avec Amélie Crepet (ANSES), Sylvain Parasie (LISIS), François Dedieu (LISIS)

11h45-12h45 - Modélisation QSAR et régulation flexible des produits chimiques — Brice Laurent (CSI) et François Thoreau (SPIRALE)

14h-14h45 - Economie de la prédiction : les outils logiciels pour QSAR et read-across — Henri Boullier (CERMES) et David Demortain (LISIS)

14h45-15h30 - Discussion sur la modélisation QSAR — avec François Busquet (CAAT), Bob Diderich (OCDE), Nathalie Printemps (ANSES)

15h45-16h30 - Modèles pharmacocinétiques et évaluation des risques — David Demortain

16h30-17h15 - Discussion sur les modèles pharmacocinétiques — avec Paul Quindroit (INERIS-METO) et Laurent Bodin (ANSES)

17h15-17h45 - Discussion finale et conclusion de la journée d’étude


Powered by Create your own unique website with customizable templates.