Physical Address

304 North Cardinal St.
Dorchester Center, MA 02124

Du bon usage des modèles en science et en politique

Avec la pandémie, la notion de « modèle scientifique » était partout. Ces modèles devaient simultanément dire le vrai sur ce qui était, démontrer ce qui allait être et, par conséquent, nous instruire à agir de la meilleure manière. Vérité scientifique, principe politique et règle morale, le « modèle scientifique » passait pour un savoir universel chargé d'expliquer les dangers, de prévenir les risques et de réunifier l'humanité dans la guerre contre le mal. Nous avons donc voulu nous entretenir avec une spécialiste des modèles scientifiques sur les usages et mésusages des modèles en sciences et en politique.

Entretien avec Juliette Rouchier (directrice de Recherche au CNRS en économie et environnement et responsable du groupe de recherche Policy Analytics au LAMSADE, Université de Paris Dauphine)

La diffusion de la Covid-19

TS : Juliette Rouchier, vous avez publié en octobre 2020, aux Éditions Matériologiques un ouvrage avec Victorien Barbet intitulé La diffusion de la Covid-19 : Que peuvent les modèles ? Et, vous avez depuis la parution de l’ouvrage publié bon nombre d’articles sur la question et le rôle de la modélisation et, plus généralement, de la science dans le contexte de la pandémie du Covid-19. La « science » et les « modèles » épidémiologiques et mathématiques ont joué un rôle fondamental dans les discours politiques et médiatiques. Bien évidemment, ces discours sous-entendaient les significations de ces notions comme étant évidentes, universellement partagées et invariables. Commençons peut-être par ces évidences et partons du plus simple, si je puis dire : qu’est-ce qu’un modèle en sciences sociales ?

Juliette Rouchier : La question est très générale, et il est donc un peu difficile d’y répondre : il existe, en effet, un grand nombre de modèles et d’usages de ces modèles.

On peut dire que toute théorie scientifique est un modèle – au sens d’une abstraction qui établit une « ontologie du monde ». Pour le dire plus simplement, cela signifie que chaque champ de recherche décide de « ce qui devrait expliquer les phénomènes observés de façon satisfaisante », en ne choisissant que quelques éléments dans le monde. On identifie des objets pertinents pour décrire le monde (la cellule, l’individu, la société, l’énergie…) et des relations entre ces objets qui permettent de comprendre ou d’anticiper des événements. Dans la partie de la science qui est empirique – fondée sur les faits – la théorie va permettre de savoir ce que l’on doit observer et mesurer. Par exemple, dans certaines sciences sociales en ce moment, on considère que les réseaux de relations sont très importants pour expliquer l’évolution des croyances et des représentations des humains : on va donc interroger des individus sur leurs relations sociales, en nombre et en intensité, afin de comprendre comment les opinions de cette personne sont construites. Le modèle, c’est la théorie des réseaux et on l’applique en connaissant les interactions d’un individu et en essayant d’expliquer un certain nombre de phénomènes à travers elles.

Par exemple, j’ai travaillé sur les changements dans l’alimentation, et les relations sociales se révèlent un facteur d’explication très important de ces changements. Mais… il existe aussi d’autres explications. On peut aussi démontrer, si l’on a une théorie plus individualiste de l’humain et en interrogeant les individus uniquement sur leur histoire personnelle, que le fait d’avoir eu des problèmes médicaux est aussi une explication au changement d’habitudes alimentaires. Avec plusieurs théories, on peut trouver plusieurs explications. C’est le principe du réductionnisme en science : on réduit l’observation et l’explication à peu d’éléments, pour que les liens puissent se vérifier dans un grand nombre de cas, que l’on puisse observer de nombreuses situations. Pour cela, on doit beaucoup simplifier.

TS : Cela fait penser à la question classique de la sous-détermination des théories par les « faits », c’est-à-dire que les mêmes faits peuvent, à l’occasion, être expliqués de manière satisfaisante par des théories différentes. Le même problème se retrouve donc sur le plan de la construction du modèle à partir d’une théorie ?

Juliette Rouchier : Il en est de même avec des modèles, qui sont des théories écrites en équation ou en calcul informatique. Un modèle est une des façons d’écrire une théorie, en quelque sorte. Pendant la pandémie du Covid, on a pu voir des modèles de diffusion fondés sur des modèles avec des agents – chaque modèle raconte une histoire construite par simplification. Par exemple, dans les modèles utilisés par les politiques durant la crise, les auteurs ont utilisé une probabilité d’être infecté par une personne malade qui est la même pour chaque interaction. Pourtant il est évident que rester deux heures assis côte à côte dans un train ne va pas engendrer le même risque d’infection que croiser le caissier au supermarché durant deux minutes. Il faut faire des choix, donc on simplifie certaines représentations du modèle. La difficulté est de déterminer si cette simplification est elle-même « dangereuse » au sens où l’on a l’illusion de comprendre bien la dynamique à venir en regardant le modèle, alors que l’on se trompe, car la durée de l’interaction devrait être le plus important critère, bien plus encore que le nombre de personnes rencontrées dans la journée. C’est un exemple parmi d’autres, mais il sert à signaler que chaque modèle est partiel, et donc que l’on n’a jamais la garantie qu’il est juste, et qu’on est certain qu’il n’est pas « vrai ». Il ne pourra parler que d’une partie du monde, il pourra être vrai en même temps qu’un modèle qui a l’air contradictoire. Ce qui est intéressant, ce n’est pas sa vérité intrinsèque, mais plutôt s’il est plus ou moins validé, c’est-à-dire que l’on peut dire que, dans le passé, il a servi utilement à comprendre des choses. En général, on doit changer de modèle si on a un phénomène qui est impossible à expliquer. Cela ne veut pas dire que celui que l’on abandonne est faux, mais qu’il ne peut pas tout expliquer et que l’on est sorti de son domaine de validité.

La qualité d’un modélisateur est de savoir quand on peut utiliser un type de modèle ou un autre, quels sont les risques, ou les paramètres qui vont être difficiles à choisir empiriquement, tout en ayant une grande influence sur le résultat. C’est ce qui permet de comprendre les limites dans l’interprétation des résultats que le modèle va produire, et donc ne pas le faire « parler » du monde de façon inappropriée. C’est la pratique, en sus de la rigueur, qui permet de découvrir les réussites ou aberrations produites avec les modèles qu’on manipule.

Celui qui confond le modèle avec la réalité, ou ne connaît qu’une façon de modéliser le monde, n’est pas vraiment ce que j’appelle un modélisateur, qui nécessite des connaissances multiples. Comment décider que mon modèle est bon dans une situation donnée si je n’en connais aucun autre, qui pourrait être plus riche ?

De façon intéressante, en sciences sociales, les modèles sont très pertinents pour faire la construction théorique, ils sont en général assez mauvais pour « prédire » – ce qui veut dire prévoir des événements en extrapolant depuis des observations passées vers le futur. En effet, les marges d’erreur sont immenses pour les modèles sociaux car les formes d’actions individuelles et collectives des humains sont connues en moyenne, mais sont aussi très multiples et souvent surprenantes. Le pire étant qu’à partir du moment où un modèle et une prédiction sont rendues publiques, les humains vont s’adapter en changeant leur comportement en fonction de cette information. La réflexivité (individuelle et collective) étant très mal modélisées (pour l’instant ou pour toujours, selon l’optimisme des chercheurs), on ne peut donc pas anticiper ce qui se passera vraiment.

Pour autant, l’attente sociale face aux modèles est justement qu’ils prédisent le comportement général. Depuis vingt ans, on doit rédiger toutes les demandes de financement en promettant que le modèle va aider à connaître le futur et décider de la qualité des décisions publiques : cet exercice nous a forcé à un jeu rhétorique souvent stéréotypé, mais qui a convaincu beaucoup de collègues qui, de nos jours, croient que le modèle est suffisant pour prédire le futur. C’est assez ennuyeux. Un bon livre de Pablo Jenssen, qui est physicien, montre bien sa déception face aux modèles sociaux : il se lamente du fait qu’aucun des modèles qu’il étudie ne puisse amener à des conclusions fermes – et c’est vrai que les modèles sociaux sont tellement simplifiés par rapport à ceux de la physique, que si un modèle prédit avec justesse, c’est a priori un hasard.

Mais ce n’est pas pour autant qu’ils sont inutiles ! Au contraire, même, ils sont des outils de clarification, de cadrage ou de discussion magnifiques. Bien sûr, se dire « je prédis » confère une puissance symbolique plus attirante que « je m’explique » en première apparence, mais si les prédictions tombent à l’eau (comme c’est arrivé en permanence pendant la crise Covid), ce n’est pas forcément bien à moyen ou long terme.

TS : Comment savoir dès lors si le modèle choisi est pertinent ou « vrai » ?

Juliette Rouchier : Souvent, un modèle semble « vrai » car il est très utilisé, mais si l’on fréquente le monde des modèles, on sait que c’est par habitude et assez peu par vérité intrinsèque. Parce que ce qu’il faut, c’est qu’on puisse discuter le modèle : plus on est nombreux à utiliser les mêmes habitudes, plus on peut le faire lire à d’autres, plus il est partagé – mais ça n’ajoute pas à sa vérité. Il peut être considéré comme « ressemblant » uniquement parce que les gens l’ont déjà appris à l’université et continuent à l’utiliser – la « loi du marché » qui dit que le prix varie de façon inverse à l’offre ou dans le même sens que la demande : c’est une loi qui n’est pas vraie pour tous les segments de marché (le marché du luxe est un contre-exemple souvent cité), et qui nécessite des hypothèses fortes en circulation d’informations, mobilité du bien vendu, mais elle continue d’être considérée comme « vraie », c’est-à-dire applicable partout, pour beaucoup. Par habitude …

TS : Revenons sur le rapport au monde, aux phénomènes à expliquer. Les théories, les modèles doivent permettre d’expliquer les phénomènes de « manière satisfaisante ». Elles doivent donc être évaluées par rapport à cette fonction ?

Juliette Rouchier : La théorie devient un équivalent du monde, que l’on peut manipuler avec des outils (mesures, méthodes d’agrégation, inférences), et l’on en tire des conclusions dans la théorie. Comme j’ai dit, beaucoup oublient alors que théorie n’est pas réalité, et que les observations sont une réduction du monde qui peut avoir « raté » des facteurs explicatifs essentiels. Mais, si l’on se concentre sur l’usage habituel du mot « modèle », il s’agit des modèles mathématisés ou computationnels, qui sont ceux que j’utilise. Il est alors plus facile, d’un certain point de vue, de faire la différence entre la perception quotidienne de la réalité et le modèle, puisqu’il y a une traduction dans un langage radicalement différent.

L’usage de modèle pour tirer des conclusions sur le système que l’on souhaite étudier n’est donc pas direct, mais passe d’abord par la compréhension du modèle lui-même en tant que tel – sa sensibilité, sa stabilité, sa supériorité par rapport à d’autres modèles, l’identification du facteur le plus important. Par exemple, on peut chercher s’il existe des variables de paramètres qui rendent une équation optimale, on peut chercher si des analyses statistiques sont significatives (c’est-à-dire qu’il est très peu probable que les événements observés soient uniquement dus au hasard), on peut identifier si certains paramètres sont plus importants que d’autres pour expliquer une dynamique : en fonction du type de modèle, on va trouver des résultats qui seront d’une forme différente. La vraie difficulté est alors de savoir ce qu’il faut déduire du modèle, et sur cet aspect, il y a beaucoup d’écarts d’interprétation.

TS : Vous avez parlé de théories qui permettent de représenter le monde, disons de le comprendre et de l’expliquer, au moyen de certains outils comme l’observation, la mesure, l’établissement de données, l’agrégation de ces données, la construction d’une connaissance qui peut être mise à l’épreuve. Et, vous avez mentionné les modèles comme des outils particuliers, des outils pratiques qui permettent d’articuler la perception et le langage quotidiens à l’explication. Comment distinguer alors théorie et modèle ? Est-ce que toute théorie recourt nécessairement à des modèles ? Et, inversement, peut-il y avoir des modèles sans théorie ?

Juliette Rouchier : A priori un modèle sans théorie n’existe pas. Le modèle inclut une théorie puisqu’il choisit les objets importants qui vont expliquer les phénomènes. Mais parfois, elle ne sera pas explicite, et les utilisateurs des modèles ne savent pas toujours qu’il y a une théorie derrière – ils en sont inconscients parce que dans leur environnement personne n’a formulé les choses comme cela. A l’inverse, le modèle présente l’intérêt d’être une lingua franca – il est mathématique ou informatique, et décrit une structure entre des objets, mais on peut parfois interpréter des objets différemment, et donc faire référence à des théories différentes, ce qui donnera des interprétations très différentes alors que le « modèle » est identique en termes mathématiques. Il en va un peu de même des modèles de diffusion. Prenons l’exemple d’un modèle de diffusion de comportement qui fait l’hypothèse que l’on est influencé par l’individu avec qui l’on interagit (j’achète bio parce qu’un ami consomme du bio et j’ai été convaincue). Finalement, il est exactement le même dans la structure qu’un modèle de diffusion d’épidémie, où on est infecté par le virus à travers l’interaction. Ce sont les mêmes modèles, techniquement, ils reposent sur des hypothèses proches (l’interaction explique le phénomène), mais ils sont tout de même issus de théories différentes, qui ne considèrent pas les mêmes objets – l’humain comme décideur dans un cas et l’humain comme corps dans l’autre.

TS : Le modèle inclut une théorie explicite ou implicite, dites-vous. J’aimerais presque reformuler : tout modèle repose sur une théorie implicite ou explicite. Du phénomène à la théorie, de même que de la théorie au modèle, il y aurait donc tout un processus de sélection, d’interprétation préliminaire, si j’ose dire, de mesures, soit de traduction et de construction. Comment passer d’une théorie au modèle ?

Juliette Rouchier : Pour les théories, il en existe de nombreuses qui ne sont pas faciles à mettre en modèle. Mais plusieurs types de questions peuvent se poser.

Tout d’abord, il y a le problème de la complétude du système étudié. Par exemple, je ne crois pas qu’il existe de modèle d’une immunité « complète » à l’heure actuelle. Ça pourrait être un modèle de type agents, où de nombreuses cellules interagissent en s’envoyant des messages, créent des boucles de rétroaction en produisant des éléments qui ont un effet sur elle-même ou d’autres cellules… (l’idée de représenter ainsi le système immunitaire comme un système complexe a été développée par Francisco Varela en particulier). Mais, deux sous-questions se posent alors : le modèle ne risque-t-il pas de devenir si compliqué qu’il ne sera pas plus facile à manipuler que la réalité elle-même (donc on ne gagne rien à avoir ce modèle) ? Connaît-on bien finalement tous les phénomènes à mettre dans le modèle ? Ou est-ce que la théorie n’est pas tout à fait complète, et donc on ne va pas pouvoir représenter « tout » et on peut oublier l’essentiel, sans même le savoir ? Auquel cas, si on a confiance dans le modèle pour raconter des choses justes, on peut se fourvoyer – ce qui n’est pas grave si on est dans un processus de recherche (où l’erreur permettra de s’améliorer dans sa compréhension du monde) mais beaucoup plus si le modèle est utilisé pour l’expertise (où l’erreur peut impliquer la mort d’un individu ou la ruine d’un pays).

TS : Qu’en est-il alors des modèles en sciences sociales ?

Juliette Rouchier : En sciences sociales, le deuxième problème se pose fréquemment : la modélisation est très compliquée, car on n’a pas de modèle de la décision humaine qui puisse être utilisé de façon générale. On peut dire « l’humain est influencé par les individus avec qui il interagit » mais cela n’est pas suffisant pour construire un modèle ? Pour cela il faut une expression mathématique (quantitative ou qualitative, comme des booléens, des propriétés qui s’expriment comme « vérifiée » ou « non vérifiée » dans un système de codification binaire) mais on ne sait pas ce que veut dire « être influencé par ». En particulier, les différents modèles testés donnent des résultats qui peuvent simplement varier à cause de la représentation mathématique que l’on choisit pour la notion d’opinion. Récemment, un doctorant m’a envoyé un travail où il montre que le codage d’une valeur entre 0 et 1 ou entre -1 et 1 a une réelle influence dans un modèle – ce qui n’est pas facile à anticiper sans faire des simulations et est même compliqué à expliquer. Par conséquent, la même théorie, très incomplète, peut donner deux modèles totalement différents qui amèneront à des conclusions différentes. Même si on est sans cesse émerveillés que les mathématiques puissent nous aider à rendre compte de nombreux phénomènes, on sait depuis des centaines d’années maintenant qu’il n’y a pas d’équivalence simple entre le monde sensible et le monde mathématique, et que créer des liens nécessite un travail intense.

TS : Oui, sur ce plan, les choses se compliquent en sciences sociales. Comment s’en sortir ?

Juliette Rouchier : Tout ceci n’est un souci que si l’on comprend « modèle » comme dans (une partie de) la physique, où on peut faire des anticipations plutôt justes sur des événements très simples. Si, à l’inverse, le modèle sert à réfléchir à un problème et proposer à d’autres une vision très précise de ce que l’on veut dire, alors c’est un outil acceptable de simplification. En effet, le modèle est très utile, car il est une sanction à lui tout seul : la théorie s’exprime avec des mots, les mots sont vagues – la traduction en mathématique ou informatique force à réduire l’ambiguïté des mots en les traduisant en relations mathématiques ; le modèle impose des règles de rigueur et de complétude qui font qu’on se rend bien compte de ce que l’on a oublié de spécifier – on sait donc mieux ce que l’on oublie, que l’on ne sait pas, et l’on peut repartir chercher ces éléments.

L’erreur de base est simplement de croire que la ressemblance entre modèle et réalité est directe, alors qu’elle traverse l’interprétation des résultats de façon progressive. La science n’est pas une découverte de la vérité, mais la découverte d’éléments un peu plus convaincants pour expliquer, étape par étape, le monde. Si un modèle permet d’expliquer un petit peu mieux qu’un autre, il devient intéressant.

Mais, à l’heure actuelle, c’est compliqué d’être modélisateur : il y a tant de modèles partout ! Et qui servent à affirmer « la vérité », ce qui n’a à peu près aucun sens. On voit l’incompréhension fondamentale, dans le monde profane, de la discussion sur la valeur des modèles si on lit une longue « explication » des checknews de Libération (3 juin 2020), qui prend comme souvent la forme d’une discussion mondaine entre non-praticiens, voire amateurs absolus. Cela brouille beaucoup le message scientifique.

TS : Essayons d’appliquer vos réflexions à une situation concrète. Le 16 mars 2020, une équipe de chercheurs de l’Imperial College de Londres sous la direction de l’épidémiologiste Neil Ferguson de Londres publiait une étude, qui proposait un modèle épidémiologique de l’évolution probable de la pandémie du Covid-19, à défaut de vaccins. Les chercheurs faisaient l’hypothèse, dès le départ, que seul un vaccin allait pouvoir mettre fin à la pandémie, ce qui suppose une théorie préliminaire très affirmative, et qui semble pour le moins hasardeuse. Et, les chercheurs pensaient pouvoir montrer que sans confinement, sans isolement, sans fermeture des écoles et des universités, quelque 500,000 personnes allaient mourir en Grande-Bretagne et 2,2 millions aux États-Unis. Ce fut le modèle qui eut le plus grand et le plus rapide impact dans l’histoire des modèles. Or, en même temps, il semblait d’emblée problématique sur plus d’un plan. Quels sont les problèmes, à votre avis, avec cette manière de procéder ?

Juliette Rouchier : Le problème n’est pas dans le modèle – qui est assez « normal » même si peu intéressant ou pertinent –, mais dans son usage.

Ce modèle présentait un grand nombre de simplifications dont on sait qu’elles ont un impact immense sur l’évolution des diffusions. Le point le plus frappant a été d’ailleurs également mis en avant par un collègue sociologue, Gianluca Manzo (en France, nous sommes principalement deux à avoir critiqué les modèles de la période, de façon publique – ce n’est pas beaucoup) : la question de l’homogénéité des réseaux. Dans ces modèles, tout le monde avait le même nombre de liens à d’autres agents et la représentation des confinements était faite par une réduction homogène du nombre de liens. La majorité des modèles reposent sur des moyennes de nombre de rencontres quotidiennes, ce qui est très simple pour calculer, mais n’a aucun sens pour regarder le monde réel – fondamentalement hétérogène – et c’est encore plus grave pour les modèles d’épidémie, qui sont très sensibles à la centralité de certains individus en particulier. On a souvent parlé des superspreaders : c’est un phénomène intéressant qui se retrouve autant dans la réalité que dans ces modèles. Le fait que certains individus peuvent créer des « chocs » dans la dynamique, car ils infectent soudainement beaucoup de personnes. C’est très sensible en début d’épidémie, en particulier. Il semblait assez cocasse de travailler exclusivement sur l’évitement des rencontres pour résoudre un problème, en ne sachant rien de la situation « normale », finalement.

Une estimation sur la première épidémie a montré que 40% des infectés en Angleterre l’ont été lors d’un passage à l’hôpital, c’est-à-dire dans une surface du territoire minuscule et concernant un nombre de personnes très petit. Or, dans le modèle de Ferguson, on pouvait se rencontrer : à la maison, à l’école, au travail et dans « la communauté », mais ni dans les transports en commun, ni à l’hôpital.

Par conséquent, un modèle qui suppose les rencontres infectantes comme homogènes dans la population est très loin d’une représentation crédible, et a même toutes les chances de décrire des dynamiques qui n’auront jamais lieu. D’ailleurs, le modèle annonçait 81% de gens touchés par l’épidémie si on n’en faisait rien ; et lors de la première épidémie (jusqu’à fin mai en Europe) je ne pense pas qu’un pays ait annoncé une estimation d’infectés au-delà de 10% (plutôt entre 5 et 7% estimés). En sus, la « courbe » réelle ne marquait pas du tout un aplanissement, qualitativement, du type de celles des modèles en cas de confinement. Face à tous ces éléments, il fallait vraiment « croire » (au sens religieux) à ces modèles pour imaginer qu’ils avaient une capacité prédictive (et donc qu’on pouvait conclure un « effet du confinement » en comparant à leurs prédictions apocalyptiques).

TS : Il y avait aussi ce présupposé, peut-être cette micro-théorie implicite, ce biais cognitif ou même cette conviction politique qu’il n’y avait probablement pas de traitement possible et que seul le confinement et la vaccination allaient permettre de sortir de la pandémie …

Juliette Rouchier : Sur l’hypothèse qu’il n’y avait aucun traitement, comme avec un collègue nous étions plus convaincus par les discours des médecins et des prix nobel que par les journalistes, nous avons fait un modèle où un soin précoce était accessible, réduisant la durée d’infectivité (une hypothèse qui passe très bien « à l’échelle » et permet effectivement de réduire l’impact au niveau de la population, en nombre de personnes touchées, sur un temps donné – c’est tout à fait logique mais nous avons pu vérifier qu’il n’y a pas d’effet contre-intuitifs qui émerge des simulations). Nous avons testé l’auto-confinement en cas de maladie, qu’on a vu comme le modèle de la Suède. Dans ce cas précis, avec la façon que nous avons eue de modéliser, les résultats sont plus mitigés, car tout dépend de la durée d’incubation de la maladie : si on peut infecter pendant un bon moment avant de savoir qu’on est malade, l’épidémie n’est pas beaucoup réduite. En filigrane, vous pouvez voir ce qui me semble ici un bon usage des modèles : nous avons fait les modèles et montré quelles sont les hypothèses qui ont le plus d’impact sur la dynamique, mais aussi ce qui serait bon de savoir plus précisément pour réellement pouvoir les utiliser de façon pertinente – comme le temps d’incubation. Sans cette information, on sait qu’on reste dans l’approximation, et que le modèle reste un jeu pour penser, pas un outil d’anticipation crédible.

TS : Quelle était alors, à votre avis, l’erreur principale du modèle de l’Imperial College ?

L’erreur la plus nette était l’oubli qu’il s’agit justement d’une dynamique – et c’est paradoxal parce que le modèle était dynamique dans sa forme. En effet, le principal résultat que les collègues ont analysé ou communiqué, c’est le nombre total de morts en fin d’épidémie (c’était le thème-choc). Or, pour connaître cela, on n’a pas besoin d’un modèle aussi compliqué. On peut faire ce modèle complexe (mais principalement homogène, l’erreur grave dont on a parlé) on pouvait faire une simple règle de proportionnalité en utilisant « taille de la population par tranche d’âge X IFR par tranche d’âge » (IFR : le pourcentage de risque de mourir une fois infecté). Inutile de se donner des airs de sophistication en réalisant un modèle que personne ne peut aller vérifier (il n’était pas en ligne au début), et qui gomme les immenses difficultés en donnant excessivement peu de détails par rapport au travail énorme qui semble sous-jacent (par exemple : fabriquer une population synthétique y est évoquée comme une simple répartition d’agents en fonction d’informations de recensement, alors que c’est une technologie très complexe à mettre en place sur des bases statistiques, et en pleine discussion scientifique à l’heure actuelle).

Un élément qui réduit la crédibilité en termes de temporalité, c’était l’ignorance de la question de la diffusion d’une région à l’autre. Finalement, d’un modèle qui donne des résultats pour 100 000 agents, ils ont déduit des prédictions pour toute la population – alors qu’on n’a pas le droit dans ce genre de modèle. Justement le fait qu’il y ait des « clusters » (des paquets d’agents proches, chaque paquet étant un peu séparé des autres) est essentiel, et un ressort énorme, déjà, aurait pu être la réduction des voyages longue distance. Il y avait une illusion d’un monde densément inter-relié, comme si nous étions tous dans la même métropole. On semble voir les biais portés par les chercheurs – riches, voyageant sans cesse – qui projettent les mœurs de leur classe sociale sur tout le monde. On pouvait lire également l’incompréhension fondamentale des dynamiques de diffusion dans «  la vague » : la vague est une illusion analogique liée à la représentation statique de la dynamique, où la bosse est constituée par la forme de la courbe qui lie le nombre de personnes touchées à un instant, le temps étant en abscisse. Ce qui est une analogie pertinente parmi tous les phénomènes physiques du quotidien, pour la diffusion, c’est le feu : en effet l’objet touché par le feu est transformé et transmet à son voisinage ce qui l’a transformé. Dans le cas de la vague, il s’agit plutôt d’une onde, l’unité de matière monte et descend, et retrouve plus ou moins sa place (c’est bien sûr un peu plus compliqué mais c’est une expérience qu’on peut faire en ne bougeant pas au milieu de vagues calmes).

Je ne sais pas si c’est un peu trop abstrait, mais pour moi l’erreur qui consiste à prendre comme analogie verbale pour décrire un phénomène la représentation mathématique ex-post de ce même phénomène, est un signe que le processus décrit est finalement mal compris. C’est un point important signalé dans le livre « How the laws of physics lie1 », et qui permet surtout d’identifier rapidement les personnes qui comprennent fondamentalement les modèles ou pas. Mais j’avoue que je me suis fait un peu « avoir » par l’évolution culturelle et il m’arrive de parler maintenant de « vagues », alors que j’étais horrifiée par cet usage au début de la crise.

Cela dit, on peut critiquer ce modèle, mais s’il avait été utilisé pour discuter réellement des options politiques imaginables, il aurait été plus intéressant – par exemple la question « comment penser un confinement partiel, quelle population viser ? » aurait pu être posée avec un tel modèle, ou « peut-on estimer le nombre maximum d’agents qui peuvent circuler d’une région à l’autre sans propager l’épidémie ? ». Là, tout est quantitatif et on ne discute pas du modèle. C’est une étrange conception de l’aide à la décision et du rôle social de la science.

Car finalement, bien travailler serait travailler avec une diversité de modèles pour raconter la même théorie, mais en variant suffisamment les hypothèses pour savoir ce qui est commun et ce qui est un artefact d’un choix précis de modélisation, ce qui permet de discuter de façon très ouverte de toutes les options possibles. C’est la posture qui a été conçue par la science post-normale, qui s’est développée dans des contextes appliqués, interdisciplinaires, rassemblant des experts aux intérêts variés. Faire des modèles grossiers qu’on prétend prédictifs sert à évacuer toutes les discussions sur les choix politiques alternatifs : réduction des circulations, gestion des travailleurs d’Ehpad, livraison à la maison pour les personnes à risque…

Parce qu’il faut se souvenir que les épidémiologues qui ont tout décidé n’ont aucune connaissance de l’économie ou de la psychologie, et qu’ils ont considéré qu’il n’y avait pas de risque à tout fermer. On a vu les résultats, ou plutôt, on voit si mal les résultats qu’on est incapables de savoir vraiment qualifier tous les impacts à ce jour. Très tôt, Robert Boyer a signalé dans un livre qu’on on sait arrêter l’économie, mais il n’y a rien qui indique qu’on sache la relancer.

De ce fait, en tant que spécialiste, il était un peu enrageant de voir la piètre qualité de ce travail par rapport à la force des affirmations qui en étaient tirées. Et il était impossible de faire des critiques en séminaire de recherche à cause de la situation morale inédite qui obligeait de censurer les pensées qui allaient à rebours du gouvernement ou des organes officiellement mis en avant – la peur de mal penser a permis de mal modéliser, en quelque sorte. Mais le modèle est tellement puissant dans l’imaginaire actuel, qu’il est devenu un totem très puissant. Dès lors, on n’a pas besoin qu’il soit raisonnable de l’utiliser, il suffit que la juste place lui soit faite dans l’espace public et il devient convaincant.

Juliette Rouchier et Victorien Barbet. 2020. La diffusion de la Covid-19. Que peuvent les modèles ? Editions matériologiques.

Notes

  1. Nancy Cartwright. 1983. How the Laws of Physics Lie. Oxford : New York: Oxford University Press. ↩︎
Thierry Simonelli
Thierry Simonelli
Publications: 14

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *