Innovation dans l'expertise
  • News
  • Le projet
    • The project
  • Governing by Prediction Conference
    • Program
  • Colloques de restitution
    • Modèles, prévisions et scénarios dans les politiques de l'énergie et de l'agriculture - 9 juin 2017
    • Produire la prédiction: le travail de modélisation pour l'évaluation des risques - 19 juin 2017
    • Sécurité et justice: le défi des algorithmes - 27 juin 2017
  • Séminaire & ateliers
    • Séminaire du projet 2015 -2017
    • Modélisation, simulation et prédiction dans l’action publique - 02/2015
    • Modeling, simulation, scenarization and algorithms in public policy and debate - 07/2015

Tools for predicting crime as tools for regulating police activity

7/15/2019

1 Comment

 
Bilel Benbouzid's latest paper in Big Data and Society offers a detailed examination of the content of predictive policing applications. Crime prediction machines are used by governments to shape the moral behavior of police. They serve not only to predict when and where crime is likely to occur, but also to regulate police work. They calculate equivalence ratios, distributing security across the territory based on multiple cost and social justice criteria. Tracing the origins of predictive policing in the Compstat system, the paper studies the shift from machines to explore intuitions (where police officers still have control over the machine) to applications removing the reflexive dimension of proactivity, thus turning prediction into the medium for “dosage” metrics of police work quantities. Finally, the article discusses how, driven by a critical movement denouncing the discriminatory biases of predictive machines, developers seek to develop techniques to audit training dataset and ways to calculate the reasonable amount of stop and frisk over the population.
Picture
1 Comment

Comment l'agence environnementale américaine anticipe les risques des produits chimiques

4/11/2019

0 Comments

 
Aujour'd'hui, aux Etats-Unis comme en Europe, mais aussi à l'OCDE, on promeut les méthodes prédictives pour évaluer les risques des produits chimiques. Les méthodes prédictives sont des formes de computation intensives des données expérimentales, pour dégager, par anticipation, des signaux de la toxicité possible de produits. Dans un article paru ce mois-ci, Henri Boullier, David Demortain et Maurice Zeeman écrivent l'histoire de ces méthodes prédictives, et expliquent pourquoi et comment l'agence environnementale américaine en est à l'origine.

L'article se focalise sur les méthodes QSAR, d'analyse statistique des relations structure-activité. En 1976, pour l'adoption de la loi américaine sur les produits toxiques (Toxic Substances Control Act), l'industrie chimique américaine était parvenue à largement minimiser les obligations de tester ses produits a priori. L'agence devait évaluer des produits presque sans données. Elle tira de... l'industrie pharmaceutique l'idée de modéliser les données existantes, pour pouvoir évaluer la dangerosité des nouvelles substances sans données expérimentales. L'expertise mobilisée et les savoirs bureaucratiques de l'agence sont essentiels pour comprendre pourquoi elle a su construire cette pratique prédictive pour la régulation des produits.

L'article est publié en "Online first" sur le site de Science and Technology Studies, ici: https://sciencetechnologystudies.journal.fi/forthcoming/view/index

boullier_demortain_zeeman_-_2019_-_inventing_prediction_for_regulation_qsar_at_the_epa.pdf
File Size: 151 kb
File Type: pdf
Download File

Picture
0 Comments

Gérer, autant que prédire. Ce que font les algorithmes de police prédictive au travail et à l'organisation policière

2/15/2019

0 Comments

 
Bilel Benbouzid a publié à la fin de l'année dernière, dans le numéro spécial de Réseaux sur les machines prédictives (voir plus bas), un nouvel article issu de ses recherches sur la police prédictive aux Etats-Unis. Il y montre que "les machines prédictives sont des technologies morales de gouvernement. Elles servent non seulement à prédire où et quand les crimes sont susceptibles d’avoir lieu, mais aussi à réguler le travail de la police. Elles calculent des rapports d’équivalence, en distribuant de la sécurité sur le territoire, selon de multiples critères de coûts et de justice sociale. En retraçant les origines de la police prédictive dans le système du Compstat, on peut observer le passage de machines à explorer des intuitions (le policier garde la main sur la machine) à des applications qui font disparaître la dimension réflexive de la proactivité, faisant de la prédiction le support de métriques de « dosage » de la quantité du travail de la police. Sous l’effet d’un mouvement critique dénonçant les biais discriminatoires des machines prédictives, les développeurs imaginent les techniques d’audit des données des bases d’apprentissage et les calculs de la quantité raisonnable de contrôle policier dans la population.
0 Comments

Do forecasts matter in policy paradigm change? Stefan Aykut on competing predictive assemblages in energy policy in France and Germany

2/15/2019

0 Comments

 
In April 2019, the special issue on to foreknowledge in public policy that was developed by Stefan Aykut, Bilel Benbouzid and David Demortain in the framework of INNOX will be published by Science & Technology Studies. In the meantime, the first paper to appear in this special issue has been published online. In "Reassembling Energy Policy", Stefan Aykut shows that visions of policy futures are emerging from what he calls predictive assemblages. The term designates the fact that in a policy environment such as the energy policy sector, coalitions of actors are equipped with their own models and forecasts, which cohere, in turn, with a normative discourse about future developments in energy systems. Actors, models and discourses form the assemblage.

This original persective is particularly helpful to reveal the politics behind modeling and anticipation for policy: there are competing assemblages at any given time and country. Stefan compares the changing predictive policy assemblages in France and Germany from the 1960s to the present.
At the end of the day, Stefan teaches us how and to what extent models and predictions enable policy change, but also shows how to go beyong conventional accounts of the performativity of models in policy. As he says, "further research should not only focus on the effects of foreknowledge on expectations and beliefs (discursive performativity), but also take into account how new models equip political, administrative and market actors (material performativity), and how forecasting practices recompose and shape wider policy worlds (social performativity)."

The paper may be downloaded below.

aykut_-_2019_-_reassembling_energy_policy.pdf
File Size: 248 kb
File Type: pdf
Download File

0 Comments

The true 'in silico toxicology' revolution and the role of regulators in toxicity testing innovations

2/15/2019

0 Comments

 
In an insightful article about computer-based, in silico toxicity testing method, Jim Kling argues that "where there is sufficient data that is properly analyzed, in silico methods can likely reduce and replace animal testing. And even when the data is sparse, it can at least help guide the way." Kling must be commended for updating us on the latest developments in QSAR modelling or organ-on-a-chip technology, but perhaps more importantly, for going beyond the technological promisses of in silico testing and showing us empirically, instead, what in silico testing actually achieves in terms of prediction. As the research conducted in INNOX shows — several papers are forthcoming about QSAR, PBPK and other modelling techniques — in silico testing assembles with other information and knowledge. It does not replace experiment, but is mostly helpful to frame further experiments and exploits their results as much as possible.

One comment, though. The view that regulatory agencies are “slow to adopt these approaches” and need to be further “convinced to trust them” misrepresents the reality of innovation in toxicity testing. This is a common view indeed: regulatory agencies would be reluctant to take on board new kinds of data and studies, and prefer sticking to the conventional methods established in laws and guidelines. They are conservative, and make decisions only based on what animal experiments, still the gold standard, show. But this is only a part of the actual history of regulatory science, however, as far as the historical development of computational toxicology methods goes. It is difficult to under-estimate the role of the Office of Toxic Substances of the Environmental Protection Agency (EPA) in the initial realization, back at the end of the 1970s, that structure-based predictions could help in reviewing chemicals at a fast rate, and its responsibility in the development of a large database of ecotoxicological data on 600 chemicals to produce validated statistical models, or in the patient creation of a dedicated software to help chemical firms replicate structure-activity methods. Similarly, while ToxCast is a program of the Office of Research and Development of the EPA, the initial impulse of the head of pesticides and toxics office, realizing the need for faster chemicals screening methods, was instrumental in its launch.

Regulatory science, as its name indicates, is an intriguing mix of ideas and technologies emerging from academia, industry and regulatory agencies. In this ecosystem, regulators play an essential part, pointing to potential developments, asserting the criteria of validity of new methods, funding technological developments. In silico toxicology would not be where it is now without them.

0 Comments

"Machines à prédire", un numéro spécial de Réseaux par Bilel Benbouzid et Dominique Cardon pour comprendre le renouveau actuel de l'intelligence artificielle

2/15/2019

0 Comments

 
Machine learning, deep learning, réseaux de neurones... ces technologies de calcul prédictif n'ont rien de nouvelles, mais les formes que ce type de calcul prend aujourd'hui lui confèrent un caractère inédit. C'est ce que proposent de démontrer Bilel Benbouzid et Dominique Cardon à travers une sélection d'articles publiés dans la revue Réseaux à la fin de l'année dernière, et consacrés à ce qu'ils appellent les "machines prédictives": "des dispositifs calculatoires rationalisent le futur en le rendant disponible à des formes d’action préventives". Une des choses qui explique le renouveau de l'intelligence artificielle est l'existence de controverses sur ses formes passées, controverse qui ont conduit les concepteurs d'algorithmes à repenser leur utilité, et de là le type de prédictions produites. Comme Benbouzid et Cardon le résument, ce qui distingue cette intelligence artificielle est son encastrement dans les mondes sociaux et mondes organisés. Dans le régime d'anticipation actuel, "le résultat d’un calcul est satisfaisant s’il permet de faire fonctionner des machines utiles, davantage tournées vers l’action que vers l’explication des phénomènes". Chacun des articles de ce riche numéro spécial l'illustre. En ligne ici: https://www.cairn.info/revue-reseaux-2018-5.htm
0 Comments

Prédire les crimes: un documentaire de Arte, avec Bilel Benbouzid

10/17/2018

1 Comment

 
Ce mois d'octobre 2018, Arte diffuse à plusieurs reprises un documentaire de deux réalisateurs allemands, Monika Hielscher et Matthias Heederici sur la police prédictive. Le documentaire interroge la tension entre efficacité de la lutte contre le crime et respect des libertés individuelles, particulièrement prégnante dans le choix de recourir aux outils logiciels de cette nouvelle expertise policière. Le documentaire met à l'honneur Bilel Benbouzid dans ses enquètes sur la généalogie de l'outil aujourd'hui dominant de police prédictive, PredPol.
1 Comment

Conflicting or complementing data? The soft institutionalization of community-based air monitoring in California

5/23/2018

1 Comment

 
François Dedieu et Sylvain Parasie seront à la réunion de la Society for the Social Studies of Science cet été à Sidney, pour présenter les résultats des recherches qu'ils ont conduits dans le cadre du projet INNOX. Les deux chercheurs sont allés enquêter sur les pratiques de collecte et de modélisation des données sur la pollution de l'air d'associations, pour comprendre comment et en quoi ces pratiques permettait de gagner une influence sur l'action publique. La surprise de cette recherche est que la collecte de données n'est pas tant réalisée dans une perspective de critique des institutions, et de contestations des données officielles. Les données sont, de fait, calibrées sur les données officielles, particulièrement celles que produit l'agence environnementale californienne, pour les compléter, les spécifier sur des territoires particuliers, et construire des ressources de contestation des pouvoirs... locaux. Les données sont le moyen de construire une nouvelle et improbable coalition. Le programme de la 4S est disponible ici: http://4sonline.org/files/4SSydneyPreliminaryProgram080418.pdf
1 Comment

Les jeux politiques du calcul: appel à contributions pour un numéro spécial de la Revue d'Anthropologie des Connaissances

3/20/2018

1 Comment

 
"Les jeux politiques du calcul: computation et mobilisation dans l’action publique": Le projet ANR INNOX nous a inspirés l'idée de rassembler des articles qui démontrent comment le calcul fonctionne comme un répertoire d'action collective, et un mode d'influence sur l'action publique; comment les techniques de computation ouvrent, potentiellement à tout le moins, les jeux politiques à des acteurs auparavant sans influence dans la gouvernance. L'appel est ouvert jusqu'à début mai, date à laquelle des résumés de 500 mots sont attendus. Ils sont à envoyer à demortain@inra-ifris.org. Le texte complet de l'appel est disponible ici en ligne, et ci-dessous.
Picture
demortain_-_2017_-_appel_les_jeux_politiques_du_calcul.pdf
File Size: 110 kb
File Type: pdf
Download File

1 Comment

Not invented here: la police prédictive ou l'importation de la physique des séismes dans la police américaine

3/20/2018

2 Comments

 
Bilel Benbouzid vient de faire paraitre un nouvel article issu du projet dans la revue Réseaux. L'article est intitulé "Des crimes et des séismes", et explore les origines des techniques prédictives utilisées dans la police américaine, et particulièrement les techniques appliquées par la société qui domine ce marché, PredPol. L'article montre comment PredPol a assemblé dans sa machine prédictive des éléments - notamment des équations - importées de la physique des séismes. L'article est disponible sur le site CAIRN, qui publie la revue Réseaux: https://www.cairn.info/revue-reseaux-2017-6-p-95.htm
Picture
2 Comments

    Archives

    July 2019
    April 2019
    February 2019
    October 2018
    May 2018
    March 2018

    Categories

    All

    RSS Feed

Powered by Create your own unique website with customizable templates.