Bilel Benbouzid's latest paper in Big Data and Society offers a detailed examination of the content of predictive policing applications. Crime prediction machines are used by governments to shape the moral behavior of police. They serve not only to predict when and where crime is likely to occur, but also to regulate police work. They calculate equivalence ratios, distributing security across the territory based on multiple cost and social justice criteria. Tracing the origins of predictive policing in the Compstat system, the paper studies the shift from machines to explore intuitions (where police officers still have control over the machine) to applications removing the reflexive dimension of proactivity, thus turning prediction into the medium for “dosage” metrics of police work quantities. Finally, the article discusses how, driven by a critical movement denouncing the discriminatory biases of predictive machines, developers seek to develop techniques to audit training dataset and ways to calculate the reasonable amount of stop and frisk over the population.
Aujour'd'hui, aux Etats-Unis comme en Europe, mais aussi à l'OCDE, on promeut les méthodes prédictives pour évaluer les risques des produits chimiques. Les méthodes prédictives sont des formes de computation intensives des données expérimentales, pour dégager, par anticipation, des signaux de la toxicité possible de produits. Dans un article paru ce mois-ci, Henri Boullier, David Demortain et Maurice Zeeman écrivent l'histoire de ces méthodes prédictives, et expliquent pourquoi et comment l'agence environnementale américaine en est à l'origine. L'article se focalise sur les méthodes QSAR, d'analyse statistique des relations structure-activité. En 1976, pour l'adoption de la loi américaine sur les produits toxiques (Toxic Substances Control Act), l'industrie chimique américaine était parvenue à largement minimiser les obligations de tester ses produits a priori. L'agence devait évaluer des produits presque sans données. Elle tira de... l'industrie pharmaceutique l'idée de modéliser les données existantes, pour pouvoir évaluer la dangerosité des nouvelles substances sans données expérimentales. L'expertise mobilisée et les savoirs bureaucratiques de l'agence sont essentiels pour comprendre pourquoi elle a su construire cette pratique prédictive pour la régulation des produits. L'article est publié en "Online first" sur le site de Science and Technology Studies, ici: https://sciencetechnologystudies.journal.fi/forthcoming/view/index ![]()
Bilel Benbouzid a publié à la fin de l'année dernière, dans le numéro spécial de Réseaux sur les machines prédictives (voir plus bas), un nouvel article issu de ses recherches sur la police prédictive aux Etats-Unis. Il y montre que "les machines prédictives sont des technologies morales de gouvernement. Elles servent non seulement à prédire où et quand les crimes sont susceptibles d’avoir lieu, mais aussi à réguler le travail de la police. Elles calculent des rapports d’équivalence, en distribuant de la sécurité sur le territoire, selon de multiples critères de coûts et de justice sociale. En retraçant les origines de la police prédictive dans le système du Compstat, on peut observer le passage de machines à explorer des intuitions (le policier garde la main sur la machine) à des applications qui font disparaître la dimension réflexive de la proactivité, faisant de la prédiction le support de métriques de « dosage » de la quantité du travail de la police. Sous l’effet d’un mouvement critique dénonçant les biais discriminatoires des machines prédictives, les développeurs imaginent les techniques d’audit des données des bases d’apprentissage et les calculs de la quantité raisonnable de contrôle policier dans la population.
In April 2019, the special issue on to foreknowledge in public policy that was developed by Stefan Aykut, Bilel Benbouzid and David Demortain in the framework of INNOX will be published by Science & Technology Studies. In the meantime, the first paper to appear in this special issue has been published online. In "Reassembling Energy Policy", Stefan Aykut shows that visions of policy futures are emerging from what he calls predictive assemblages. The term designates the fact that in a policy environment such as the energy policy sector, coalitions of actors are equipped with their own models and forecasts, which cohere, in turn, with a normative discourse about future developments in energy systems. Actors, models and discourses form the assemblage. This original persective is particularly helpful to reveal the politics behind modeling and anticipation for policy: there are competing assemblages at any given time and country. Stefan compares the changing predictive policy assemblages in France and Germany from the 1960s to the present. At the end of the day, Stefan teaches us how and to what extent models and predictions enable policy change, but also shows how to go beyong conventional accounts of the performativity of models in policy. As he says, "further research should not only focus on the effects of foreknowledge on expectations and beliefs (discursive performativity), but also take into account how new models equip political, administrative and market actors (material performativity), and how forecasting practices recompose and shape wider policy worlds (social performativity)." The paper may be downloaded below. ![]()
In an insightful article about computer-based, in silico toxicity testing method, Jim Kling argues that "where there is sufficient data that is properly analyzed, in silico methods can likely reduce and replace animal testing. And even when the data is sparse, it can at least help guide the way." Kling must be commended for updating us on the latest developments in QSAR modelling or organ-on-a-chip technology, but perhaps more importantly, for going beyond the technological promisses of in silico testing and showing us empirically, instead, what in silico testing actually achieves in terms of prediction. As the research conducted in INNOX shows — several papers are forthcoming about QSAR, PBPK and other modelling techniques — in silico testing assembles with other information and knowledge. It does not replace experiment, but is mostly helpful to frame further experiments and exploits their results as much as possible.
One comment, though. The view that regulatory agencies are “slow to adopt these approaches” and need to be further “convinced to trust them” misrepresents the reality of innovation in toxicity testing. This is a common view indeed: regulatory agencies would be reluctant to take on board new kinds of data and studies, and prefer sticking to the conventional methods established in laws and guidelines. They are conservative, and make decisions only based on what animal experiments, still the gold standard, show. But this is only a part of the actual history of regulatory science, however, as far as the historical development of computational toxicology methods goes. It is difficult to under-estimate the role of the Office of Toxic Substances of the Environmental Protection Agency (EPA) in the initial realization, back at the end of the 1970s, that structure-based predictions could help in reviewing chemicals at a fast rate, and its responsibility in the development of a large database of ecotoxicological data on 600 chemicals to produce validated statistical models, or in the patient creation of a dedicated software to help chemical firms replicate structure-activity methods. Similarly, while ToxCast is a program of the Office of Research and Development of the EPA, the initial impulse of the head of pesticides and toxics office, realizing the need for faster chemicals screening methods, was instrumental in its launch. Regulatory science, as its name indicates, is an intriguing mix of ideas and technologies emerging from academia, industry and regulatory agencies. In this ecosystem, regulators play an essential part, pointing to potential developments, asserting the criteria of validity of new methods, funding technological developments. In silico toxicology would not be where it is now without them. Machine learning, deep learning, réseaux de neurones... ces technologies de calcul prédictif n'ont rien de nouvelles, mais les formes que ce type de calcul prend aujourd'hui lui confèrent un caractère inédit. C'est ce que proposent de démontrer Bilel Benbouzid et Dominique Cardon à travers une sélection d'articles publiés dans la revue Réseaux à la fin de l'année dernière, et consacrés à ce qu'ils appellent les "machines prédictives": "des dispositifs calculatoires rationalisent le futur en le rendant disponible à des formes d’action préventives". Une des choses qui explique le renouveau de l'intelligence artificielle est l'existence de controverses sur ses formes passées, controverse qui ont conduit les concepteurs d'algorithmes à repenser leur utilité, et de là le type de prédictions produites. Comme Benbouzid et Cardon le résument, ce qui distingue cette intelligence artificielle est son encastrement dans les mondes sociaux et mondes organisés. Dans le régime d'anticipation actuel, "le résultat d’un calcul est satisfaisant s’il permet de faire fonctionner des machines utiles, davantage tournées vers l’action que vers l’explication des phénomènes". Chacun des articles de ce riche numéro spécial l'illustre. En ligne ici: https://www.cairn.info/revue-reseaux-2018-5.htm
Ce mois d'octobre 2018, Arte diffuse à plusieurs reprises un documentaire de deux réalisateurs allemands, Monika Hielscher et Matthias Heederici sur la police prédictive. Le documentaire interroge la tension entre efficacité de la lutte contre le crime et respect des libertés individuelles, particulièrement prégnante dans le choix de recourir aux outils logiciels de cette nouvelle expertise policière. Le documentaire met à l'honneur Bilel Benbouzid dans ses enquètes sur la généalogie de l'outil aujourd'hui dominant de police prédictive, PredPol. François Dedieu et Sylvain Parasie seront à la réunion de la Society for the Social Studies of Science cet été à Sidney, pour présenter les résultats des recherches qu'ils ont conduits dans le cadre du projet INNOX. Les deux chercheurs sont allés enquêter sur les pratiques de collecte et de modélisation des données sur la pollution de l'air d'associations, pour comprendre comment et en quoi ces pratiques permettait de gagner une influence sur l'action publique. La surprise de cette recherche est que la collecte de données n'est pas tant réalisée dans une perspective de critique des institutions, et de contestations des données officielles. Les données sont, de fait, calibrées sur les données officielles, particulièrement celles que produit l'agence environnementale californienne, pour les compléter, les spécifier sur des territoires particuliers, et construire des ressources de contestation des pouvoirs... locaux. Les données sont le moyen de construire une nouvelle et improbable coalition. Le programme de la 4S est disponible ici: http://4sonline.org/files/4SSydneyPreliminaryProgram080418.pdf
![]()
Bilel Benbouzid vient de faire paraitre un nouvel article issu du projet dans la revue Réseaux. L'article est intitulé "Des crimes et des séismes", et explore les origines des techniques prédictives utilisées dans la police américaine, et particulièrement les techniques appliquées par la société qui domine ce marché, PredPol. L'article montre comment PredPol a assemblé dans sa machine prédictive des éléments - notamment des équations - importées de la physique des séismes. L'article est disponible sur le site CAIRN, qui publie la revue Réseaux: https://www.cairn.info/revue-reseaux-2017-6-p-95.htm
|
Archives
July 2019
Categories |