Savoirs de l’anticipation et action publique :
Modèles, prévisions et scénarios dans les politiques de l’énergie et de l’agriculture
Salon d'honneur, Centre National des Arts et Métiers, 9 juin 2017
Le 9 juin 2017 s'est tenu un colloque sur la conception et l’usage de modèles énergétiques et agricoles dans les politiques internationales.
Qui modélise, qui prédit, et in fine qui parvient à influencer l’action publique par les modèles ? Pourquoi un modèle ou un type de modèle s’impose-t-il à un moment donné, et devient dominant dans un domaine de l’action publique ? Les modèles ouvrent-ils ou au contraire contraignent-ils les discussions et les débats sur les politiques énergétiques et alimentaires internationales ? Qu’est-ce qui est rendu visible ou au contraire invisible, selon les ontologies et échelles de chacun des modèles ? Telles étaient les questions posées dans le cadre de ce colloque organisé dans le cadre du projet ANR INNOX, conçu pour réunir et faire dialoguer des sociologues étudiant la modélisation, des modélisateurs, et des utilisateurs des modèles. |
Le programme du colloque
Concurrence dans la modélisation:
Le champ de la modélisation agronomique globale
Les modèles mathématiques conçus par les économistes ou les ingénieurs servent depuis longtemps maintenant à faire des projections chiffrées, pour orienter diverses politiques publiques, au niveau national ou international, par exemple en matière de politique énergétique, agricole, ou de gestion du changement climatique. Les discussions sur le rôle politique des modèles ont toutefois rarement tenu compte du fait qu’il existait une diversité de modèles et de ‘cultures’ de modélisation – d’économiste ou d’ingénieur, d’équilibre partiel ou général, hybrides ou intégrés, qui se complètent ou se concurrencent.
Pour Lise Cornilleau, sociologue au Centre de Sociologie des Organisations et au Laboratoire Interdisciplinaire Sciences Innovations Sociétés, on peut bien discerner un champ de la modélisation de la sécurité alimentaire globale, comptant une cinquantaine de modèles, avec des modèles dominants, profitant de relations très étroites et anciennes avec les institutions et les gouvernements, souvent de la famille des modèles économiques partiels. Face à ceux-ci, des nouveaux entrants, fréquemment des modèles économiques spatialisés, portés par la disponibilité de nouvelles données géographiques sur les cultures, et la volonté d’intégrer dans les modélisations le changement climatique. Les uns et les autres luttent pour une validation tant scientifique que politique, et pour la définition des règles de ce qu’est un « bon » modèle – lutte s’intensifiant lorsque ces modèles sont comparés les uns aux autres par les institutions qui les utilisent, comme dans le cadre du projet Agmip. Pour conserver une position dominante, les modélisateurs intègrent de nouveaux aspects à leur modèle. Ces modèles forts choisissent aussi fréquemment d’adapter leurs paramètres pour converger avec les autres modèles, et apparaitre plus générique – c’est la stratégie de conservation suivie par l’IFPRI, qui ajuste les élasticités incorporées dans le modèle pour accroitre sa pertinence. Les modèles à capitaux faibles changent eux rarement: ils cherchent plutôt à affirmer leur crédibilité scientifique dans la modélisation d’aspects négligés par les modèles dominants, tels les impacts de la production de biocarburants. Au final, et paradoxalement, la recherche d’un plus grand pluralisme dans la modélisation contribue à renforcer les modèles dominants, et à une division du travail entre des modèles génériques globaux, et des modèles spécifiques. C’est également l’avis de Bertrand Schmitt, économiste à l’INRA, qui confirme, exemples historiques à l’appui, que les modélisateurs peuvent soit développer des modèles dominants, couvrant un maximum de paramètres, ou développer des modèles spécifiques, et moins centraux dans le champ, par exemple centrés – ce fut le choix de l’INRA. La discussion mit aussi en évidence que la validation « politique » et de facto des modèles – leur utilisation par une institution pour développer un programme d’action – tend à être autant, sinon plus importante qu’une validation académique par l’intermédiaire des publications scientifiques. Utiliser les modèles, les faire tourner pour produire des scénarios – demande des porteurs des modèles forts – a en effet pris le pas, dans le cadre d’AgMIP, sur la poursuite de l’inter-comparaison et de l’affinage des modèles, dans l’esprit de ce qu’aurait pu être un GIEC des modèles agricoles. |
S’imposer au Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC):
L’émergence de la « modélisation intégrée »
Les formes de modélisation dominantes au GIEC sont précisément l’objet du travail de Christophe Cassen, Béatrice Cointe et Alain Naidai du CIRED, notamment de leur histoire de l’émergence d’une communauté d’expert sur le climat, celle des spécialistes du Integrated Assessment Modelling (IAM). Comment cette communauté s’est-elle structurée ? Comment est-elle parvenue à forger un lien avec les politiques climatiques, à concevoir et imposer un type de modélisation dans les rapports du GIEC ?
|
Les modèles globaux catégorisés comme IAM sont devenus dans les années passées un instrument irremplaçable pour définir des scénarios d’émission de CO2 pour le GIEC. Ces modèles sont pluri-disciplinaires, intègrent les connaissances physiques, économiques, les recherches sur les impacts environnementaux. Ils sont également très divers dans leur base théorique : certains sont sophistiqués du point de vue des modèles techniques de production d'énergie, là où d’autres travaillent le versant économique, d’autres encore sont orientés vers la modélisation de l’usage des sols, sur des bases de science environnementales et agronomiques.
La force de la « communauté » des IAM a précisément été de créer les conditions du dialogue et du couplage entre des courants de modélisation qui travaillaient auparavant de manière séparée, seulement mis en dialogue par le GIEC. Le Integrated Assessment Modelling Consortium, de manière cruciale, a instauré un processus d'inter-comparaison de modèles en amont du GIEC. Il a construit une base de données de scénarios, remplit la fonction d’harmonisateur des modèles, travaillé à la diffusion des scénarios vers le public et les institutions, œuvré aussi à la crédibilisation des modèles en facilitant la publication dans des revues académiques. L’ensemble de ce travail a fortifié la position des « IAM », et les a rendus indispensable au travail du GIEC. L’étude historique de la communauté des IAM montre que la volonté des promoteurs de cette modélisation de répondre très directement aux demandes de la Commission Européenne, et de s’aligner sur l’agenda politique des négociations, a été très claire. Pour Michel Colombier, directeur scientifique de l’Institut du Développement Durable et des Relations Internationales (IDDRI), la validation des IAM est faite de manière très contrôlée, en interne, entre des pairs. Ce contrôle sur la validation est crucial : c’est précisément ce qui permet à ces modèles de gagner en crédibilité, et d’être mobilisé par des institutions qui cherchent des modèles permettant de démontrer leur sérieux sur des options politiques prédéfinies. Le monopole des IAM est indissociable d’une commande politique, ou de l’anticipation d’une commande par un groupe de modélisateurs, qui œuvre à rendre cette modélisation crédible, et l’infrastructure pour la produire disponible. Amy Dahan et Hélène Guillemot, chercheuses CNRS au Centre Alexandre Koyré, tour à tour rebondissent sur le pouvoir d’un groupe qui est devenu central au sein du groupe 3 du GIEC, et les effets sur les négociations climatiques. L’endogamie est fonctionnelle pour produire des modèles à la fois crédibles et utilisables par les institutions, mais l’apparition d’objectifs de réchauffement limité à 1,5°C, comme à la COP21 à Paris, suppose un pluralisme et une imagination collective, que l’organisation sociale de la modélisation ne permet pas. Si bien qu’avec l’accord de Paris, et l’évolution de l’agenda des négociations, par exemple vers la mise en œuvre du « Bio-energy with carbon capture and storage » (BECCS) pourrait signer l’échec des IAM, et l’émergence de modélisations alternatives. |
L'influence des modèles sur les politiques énergétiques nationales
Les deux dernières recherches présentées lors du séminaire ont fait la part belle à cette question de la modélisation alternative. Stefan Aykut propose une histoire des politiques énergétiques en Allemagne et en France, et examine comment et dans quelle mesure les modèles, notamment les modèles alternatifs fondés sur des hypothèses de développement des énergies renouvelables, les ont influencé.
|
Les politiques énergétiques et la modélisation ont évolué en parallèle dans un pays comme dans l’autre. Dans les années 1970, les politiques énergétiques devaient se réinventer face au choc pétrolier et la contestation croissante de l’énergie nucléaire. Ce nouveau contexte mit en évidence que l’on ne savait pas bien calculer, encore moins anticiper, les évolutions de la demande énergétique. On vit alors dans le monde des modèles, en Allemagne comme en France un passage de la domination de modèles macro-économiques (représentant de manière plus ou moins fine des secteurs de l'économie, une demande énergétique agrégée, pour optimiser l'offre énergétique et satisfaire cette demande), à des modèles « bottom-up » d'ingénieur ou de physiciens, mettant au centre les questions de demande énergétique. C’est, en France, le modèle MEDEE (Modèle d’Evolution de la Demande d’Energie), issu de l’Institut Economique et Juridique de l’Energie de l’Université de Grenoble, ou en Allemagne, le scénario Energiewende – tournant énergétique – élaboré par l’Öko-Institut, un institut indépendant proche du mouvement antinucléaire. Le parallélisme entre la France et l’Allemagne s’arrête là, toutefois. En France, la politique énergétique est organisée par l’Etat et les entreprises monopolistes. La prospective et les modèles qui dominent cet espace sont ceux produits par le Plan et EDF. Ce que ces modélisateurs modélisent d’abord, ce sont les conditions macroéconomiques permettant d’optimiser des plans d’investissement, notamment nucléaire. L’ensemble est contrôlé par les calculs de Marcel Boiteux, longtemps PDG d'EDF, lui-même économiste et de ses équipes. Dans ce contexte, le modèle MEDEE devint un modèle alternatif, plus tard repris et porté par l'ADEME. En Allemagne, le scénario Energiewende sert au mouvement écologiste et anti-nucléaire. Il aide le parti SPD et les Verts à se mettre d’accord sur un nouveau modèle de production énergétique, un mixte charbon/solaire, dans le cadre d'une modernisation écologique. L’histoire des politiques énergétiques françaises et allemandes ainsi retracées montre que les modèles s’institutionnalisent en même temps que se développe une nouvelle manière de concevoir l’énergie. Les modèles, même alternatifs, peuvent être performatifs à moyen ou long terme : ils se réalisent dans la politique énergétique, si ce qu’ils contiennent reflète et renforce un monde social changeant, et les évolutions qu’il porte au sein du monde qui contrôle la politique énergétique. La présentation ouvra à une discussion sur les liens entre la modélisation et le politique. Selon Bernard Laponche, ancien membre du CEA et de l'Agence Française pour la Maitrise de l'Energie, les modèles des économistes n’ont longtemps servi qu’à chiffrer les choix faits à l’avance par EDF ou le gouvernement : quelle capacité de production kw/h donnerait, dans deux ou trois décennies, tel niveau d’investissement dans les centrales nucléaires? La modélisation n’est que rarement un outil d’exploration et de réflexion sur différentes options, différents choix proposés en contexte d’avenir incertain. Les scénarios alternatifs étaient, eux, souvent considérés comme fantaisistes. Ne restaient sur la table que des modèles de projection linéaire, incapables de penser la rupture, d’envisager des bifurcations brutales, mais dont l’avantage était de contenir les débats sur les politiques énergétiques, que permet, au contraire, la prospective et la construction de scénarios anticipateurs souvent extrêmement variés, comme le rappelèrent Céline Granjou (IRSTEA) et Sébastien Treyer (IDDRI). |
Imaginer et tester un autre monde avec les modèles: l'expérience Agribiom
La dernière présentation du workshop fut celle de Pierre-Benoit Joly (INRA, Laboratoire Interdisciplinaire Sciences Innovations Sociétés) sur les bases d’une recherche conduite avec Bruno Dorin du CIRAD, sur la modélisation agricole.
|
Joly et Dorin appréhendent les modèles comme des technologies de gouvernement qui rendent visibles des problèmes et des options politiques, et en invisibilisent d’autres. Ils servent à représenter les évolutions possibles du futur, des séquences hypothétiques d’événements, soit dans un registre prédictif (« que se passera-t-il ? ») ; exploratoire (« que peut-il se passer dans différentes conditions) ou normatif (« quel monde veut-on ? »).
Dans cet espace, le modèle Agribiom, dont Dorin est un des auteurs, a une place particulière. Issu d’Agrimonde, une initiative conjointe de l’INRA et du CIRAD en 2006, Agribiom est au fondement de deux scénarios: un scénario prédictif, tendanciel, et un scénario normatif de transformation vers un monde souhaitable. Au cœur de ce modèle, la recherche d’un équilibre physique offre/demande de biomasse à fin alimentaire. Le modèle ne fonctionne pas à partir d’une hypothèse d’équilibre des prix, mais d’équilibre offre/demande de glucides et de protéines. Un des points important de ce modèle dit « agile » est sa capacité à faire exister un scénario alternatif en prenant en compte des ruptures, en cours ou souhaitées, dans les modes de consommation, notamment la baisse tendancielle de la consommation de viande. L’expérience Agribiom montre l’importance de disposer de modèles moins prédictifs, moins focalisés sur des grandeurs statistiquement mesurables et validées, mais permettant d’explorer des hypothèses, dans l’écosystème des modèles. Agribiom permet de montrer que les modèles peuvent être mobilisés non seulement pour prédire, mais aussi pour mettre en question des évolutions non débattues, en tous s’ils intègrent des connaissances hétérogènes (pas seulement statistiques), s’ils admettent qu’existent des trajectoires alternatives, et s’ils sont conçus non comme des boites noires, mais comme ce que Joly et Dorin appellent des « boites ouvertes ». En somme, des modèles simples, génériques, transparents, qui cherchent moins à prédire avec précision, dans une quête parfois vaine de certitude, qu’à permettre de confronter des visions des futurs des politiques internationales. Pour Sébastien Treyer, de l’IDDRI, le développement d’Agribiom a en effet permis de jeter une lumière nouvelle sur les modèles existants, et leur incapacité à représenter deux grands phénomènes : l’évolution du contenu de la demande alimentaire, mais également la tendance historique à la céréalisation de l'élevage. Les modèles existants n’explicitent pas ces phénomènes, et contribuent donc en un sens à les entériner. On est alors face à un phénomène d’invisibilisation ou, pour Treyer, d’implicitation : une fabrique des futurs par la non-explicitation de certaines évolutions. L’impératif, répété à l’envi, du doublement de la production alimentaire mondiale d’ici à 2050 fait bien partie de ces hypothèses devenues réalité, par simple oubli du fait que l’on peut modéliser, et représenter d’autres trajectoires tout aussi plausibles. Les modèles contribuent à perpétuer des storylines sur l'évolution de la planète qui n’ont presque pas changé depuis 20 ans. La nature agile et utile d’Agribiom pose question, sur ce qui définit un bon modèle ? Pour Bernard Laponche, Agribiom est un modèle comptable, modèle de bilan, dont on comprend la mécanique très facilement. Selon Bertrand Schmitt, la mécanique du modèle est effectivement simple, et entraine rapidement son utilisateur dans des simulations et la production de sorties de modèle. Le modèle est, de fait, affectionné par les agronomes, par rapport à un modèle vu comme complexe et contraignant, tel le modèle IMPACT de l’IFPRI. Mais qui définit les normes de validité des modèles ? Pourquoi, demande Stefan Aykut, un modèle devrait-il être plutôt complexe ou simple? En fonction de quel besoin ou usage? La discussion pointa alors vers le problème de la validation des modèles, et de son organisation sociale. Yves Marignac relève qu’il n’y a pas, à ce jour, de mode de validation satisfaisant. La validation académique, par les pairs et la publication, tend à reproduire et valoriser les modèles intégrateurs, complexes, qui deviennent alors dominants. L’autre moyen est la mise en discussion publique des différents modèles et scénarios, pour resserrer la compréhension par tous de ce que produit chaque modèle – mais au prix d’une distance avec l’objectif et l’espoir de produire une modélisation du monde définitive, faisant autorité pour tous et en tout. |
Prospection et préparation des futurs:
Au-delà des modèles de prédiction
Pourquoi la modélisation, et sa promesse de produire des prédictions presque certaines, semble-t-elle avoir remplacé la prospective, et cette pratique qui consiste à explorer des scénarios futurs ? Pourquoi les communautés de modélisateurs, et les rapports entre ceux-ci et les politiques, paraissent-ils fermés ? Est-on face à un contrôle strict à la frontière, une forme de gate-keeping par les modélisateurs eux-mêmes – contribuant à la réduction des imaginaires politiques ? Ou la modélisation peut-elle fonctionner comme un langage qui rend possible l’intégration d’acteurs plus diversifiés, avec des imaginaires pluriels ?
Céline Granjou(Irstea), Bernard Laponche (Global Chance), Yves Marignac (Wise Paris) et Bertrand Schmitt (Inra-DEPE) reprirent ces questions de front lors de la table-ronde finale. |
|
|
|
|
Bernard Laponche rappelle que, historiquement, en matière énergétique en France et ailleurs, les décisions politiques ont rarement été influencées par les modélisateurs. Si les calculs sont constamment utilisés par les politiques pour justifier leurs décisions, ce n’est souvent qu’en habillage. De fait, des modèles simples, ouverts, transparents, permettant la mise en discussion d’options politiques ou de scénarios, seraient autrement plus influent que les modèles de calculs aujourd’hui utilisés.
Pour Céline Granjou, cela implique de reconnaitre que les modèles ne sont pas pure connaissance du futur, mais un moyen d’imaginer et de se préparer à ces futurs. Ce sont donc des options pour l’action, dont il faut débattre comme tel, sans limiter la discussion aux aspects sur lesquels on dispose de données. Yves Marignac, réagissant à partir de l’expérience du développement du modèle énergétique de NégaWatt, montre que son attractivité vient précisément du fait qu’il s’assume comme un scénario normatif et pratique, applicable dans un monde aux ressources limitées, qui cherche des voies de transition vers le développement durable. Bertrand Schmitt abonde dans le même sens, appelant à la production de davantage de modèles simples, facilement discutables, plus facilement validables que les modèles intégrés complexes – d’ailleurs rarement publiés, donc non validés – et permettant la comparaison d’options pour le futur. Il faut, en somme, faire retour à la discipline de la prospective, et choisir des modèles qui permettent la délibération sur les futurs et sur les politiques à mener, plutôt que ceux qui chiffrent des options arrêtées dans les réseaux politiques et administratifs de la prise de décision. En somme, reconnecter modélisation et démocratie, à rebours d’une évolution qui a vu les modèles de calcul économique coloniser, et peut-être réduire, la diversité des rapports au futur. |