Inégalités et modèles macroéconomiques

par Stéphane Auray et Aurélien Eyquem

« Tous les modèles sont faux mais certains sont utiles ». Cette citation de Georges Box a souvent été utilisée pour justifier les hypothèses réductrices faites dans les modèles macroéconomiques. L’une d’elles a longtemps été critiquée : le fait que le comportement des ménages, bien que différents (hétérogènes) dans leurs caractéristiques individuelles (âge, profession, genre, revenu, patrimoine, état de santé, statut sur le marché du travail), puisse être approximé au niveau macroéconomique par celui d’un agent dit « représentatif ». Faire l’hypothèse d’un agent représentatif revient à considérer que l’hétérogénéité des agents et les inégalités qui en résultent importent peu pour les fluctuations agrégées.



Les économistes ne sont pas aveugles et savent bien que les ménages, les firmes ou les banques ne sont pas tous identiques. De nombreux travaux se sont intéressés aux effets de l’hétérogénéité des ménages sur l’épargne agrégée et par suite, sur les fluctuations macroéconomiques[1]. D’une autre façon, certains travaux proposent des modèles dits « à générations imbriquées » dans lesquels l’âge joue un rôle important[2].

Le plus souvent, dans ces modèles, les ménages transitent d’un état à l’autre (de l’emploi vers le chômage, d’un niveau de compétence et donc de revenu vers un autre, d’un âge vers un autre) et connaissent les probabilités de transition. En l’absence de mécanismes d’assurance (chômage, redistribution, santé), ces risques anticipés de transition produisent un risque anticipé de revenu ou de santé qui pousse les agents à épargner pour s’assurer. De surcroît, les différences de comportements d’épargne et de consommation sont susceptibles d’induire également des comportements différenciés en termes d’offre de travail. Enfin, les changements dans l’environnement macroéconomique (variation du taux de chômage, des taux d’intérêt, des salaires, des impôts et cotisations, des dépenses publiques, des dispositifs d’assurance existants) affectent potentiellement ces probabilités individuelles et les comportements microéconomiques qui en résultent. Les risques agrégés affectent donc chaque ménage de manière différente selon ses caractéristiques, ce qui génère des effets d’équilibre général et des effets redistributifs. Pourtant ces travaux relativement anciens se sont heurtés à deux obstacles.

Le premier est d’ordre technique : suivre dans le temps l’évolution de distributions d’agents est une tâche mathématiquement complexe. Bien sûr il est possible de réduire l’ampleur de l’hétérogénéité en se limitant à deux agents (ou deux types d’agents) : ceux ayant accès aux marchés financiers et ceux étant contraints de consommer leur revenu à chaque période[3], les actifs et les retraités, etc. Mais si ces modèles simplifiés permettent de comprendre et valider les grandes intuitions, ils demeurent limités notamment d’un point de vue empirique. Ils ne permettent pas, par exemple, d’étudier l’évolution des inégalités sur l’ensemble de la distribution des revenus ou des patrimoines de manière réaliste.

Le second est plus profond : plusieurs de ces travaux concluaient que les modèles à agents hétérogènes, bien que beaucoup plus complexes à manipuler, n’avaient pas de performances nettement supérieures aux modèles à agents représentatifs en termes de validation macroéconomique agrégée (Krusell et Smith, 1998). Certes, leur projet n’était pas d’étudier l’évolution des inégalités ou leurs effets macroéconomiques, mais plutôt la contribution de l’hétérogénéité des agents à la dynamique agrégée. De fait, le sujet des inégalités a longtemps été considéré comme étant orthogonal ou presque à l’analyse macroéconomique (du moins celle s’intéressant aux fluctuations) et comme relevant plutôt de l’économie du travail, de la microéconomie ou de la théorie des choix collectifs. Ainsi, les modèles à agents hétérogènes ont souffert pendant longtemps de cette image d’objet inutilement complexe dans l’analyse macroéconomique des fluctuations.

Ces dernières années, ces modèles connaissent un renouveau exceptionnel au point qu’ils semblent devenir le standard de l’analyse macroéconomique. Le premier obstacle a été levé par l’augmentation exponentielle de la puissance de calcul utilisée pour résoudre et simuler ces modèles, combinée au développement d’outils mathématiques puissants permettant de résoudre ces modèles plus facilement (Achdou et al. 2022). Le second obstacle a été levé par un triple mouvement que nous détaillons ci-dessous : la montée en puissance des travaux (notamment empiriques) montrant l’importance des inégalités de revenus et de patrimoines pour les questions relevant typiquement de la macroéconomie – au-delà de leur intérêt intrinsèque –; le développement d’outils de mesure des inégalités permettant un rapprochement avec l’analyse macroéconomique et le raffinement des hypothèses considérées dans les modèles à agents hétérogènes.

Tout d’abord, de nombreux travaux empiriques montrent que l’épargne de précaution joue un rôle majeur dans les fluctuations macroéconomiques (Gourinchas et Parker, 2001). Mais cette épargne de précaution et la sensibilité de l’épargne (et des dépenses des ménages) aux revenus ne sont pas identiques pour tous les ménages. En effet, les travaux empiriques suggèrent que la propension marginale à consommer (PMC) agrégée se situe entre 15% et 25% (Jappelli et Pistaferri, 2010), et que la PMC d’une grande partie de la population est supérieure à la PMC obtenue dans les modèles à agents représentatifs. Dans les modèles à agents représentatifs et en haut de la distribution des patrimoines, celle-ci est approximativement égale au taux d’intérêt réel, et donc très inférieure aux estimations empiriques (voir Kaplan et Violante, 2022). Comprendre à travers de solides fondements microéconomiques l’origine d’une PMC agrégée élevée est donc critique, notamment si l’on souhaite étudier de manière réaliste les effets des politiques macroéconomiques (monétaire, budgétaire, etc.) qui reposent sur des effets multiplicateurs liées à la distribution des PMC.

Ensuite, ces dernières années, une littérature abondante et de plus en plus étoffée empiriquement s’est développée sur les questions liées aux inégalités de revenus. Á la suite de l’article fondateur d’Atkinson (1970) puis de développements plus récents[4], nous disposons désormais de séries longues mesurant les inégalités de revenu avant et après impôts, les inégalités de patrimoine, sur l’ensemble de la distribution des ménages pour un grand nombre de pays. Ce que l’on appelle les comptes nationaux distributionnels (Distributional National Accounts) permet enfin de confronter de manière très fine les prédictions de modèles macroéconomiques à agents hétérogènes aux données microéconomiques ayant une cohérence totale avec le cadre de l’analyse macroéconomique.

Enfin, les modèles à agents hétérogènes eux-mêmes ont évolué. En effet, les modèles de « première génération » considéraient généralement un seul actif (le capital physique, autrement dit les actions des entreprises) et empêchaient les agents de s’endetter, ce qui les conduisait à épargner pour un motif de précaution. Ces hypothèses ne permettaient pas de comprendre pourquoi les PMC étaient élevées. Elles ne parvenaient pas à répliquer correctement la distribution observée des revenus et surtout des patrimoines. En réalité, les ménages ont accès à plusieurs actifs (épargne liquide, logement, actions) et la composition de leur richesse est très différente selon le niveau de patrimoine : les ménages commencent généralement à épargner sous forme liquide, puis investissent leur épargne dans l’immobilier en contractant des prêts bancaires, et enfin diversifient leur épargne (seulement pour les plus gros patrimoines, au-delà du 60e percentile de la distribution des patrimoines) en achetant des actions (Auray, Eyquem, Goupille-Lebret et Garbinti, 2023). Ce faisant, une grande partie de la population se retrouve endettée pour constituer un patrimoine immobilier, donc peu liquide. Bien qu’ayant des revenus importants, de nombreux ménages consomment donc presque tout leur revenu, ce qui réduit leur capacité d’auto-assurance via l’épargne. Cela accroît leur PMC (et donc la PMC agrégée) conformément aux observations empiriques (Kaplan, Violante et Weidner, 2014).

Ainsi, les macroéconomistes peuvent aujourd’hui intégrer pleinement l’analyse des inégalités de revenu, de patrimoine, de santé, au sein de modèles fondés sur des comportements microéconomiques plus réalistes. Ils peuvent réinterroger les consensus obtenus concernant la conduite des politiques monétaires[5] ou budgétaires[6] et en interroger les effets redistributifs. Ils sont également en mesure de quantifier les effets agrégés et redistributifs de politiques commerciales ou environnementales, qui sont/seront au cœur de leur acceptabilité politique. De nouveaux horizons pour des modèles moins faux et plus utiles.


[1] Voir notamment Bewley (1977), Campbell et Mankiw (1991), Aiyagari (1994), Krusell et Smith (1998), Castaneda, Diaz-Gimenez et Rios-Rull (1998).

[2] Voir les travaux d’Allais (1947) et de Samuelson (1958) puis entre autres de De Nardi (2004).

[3] Voir Campbell et Mankiw (1989) ; Bilbiie et Straub (2004) ; Gali, Lopez-Salido et Valles (2007).

[4] Voir Piketty (2001, 2003), Piketty et Saez (2003, 2006), Atkinson, Piketty et Saez (2011), Piketty, Saez et Zucman (2018) et Alvaredo et al. (2020).

[5] Kaplan, Moll et Violante (2018) ; Auclert (2019) ; Le Grand, Martin-Baillon et Ragot (2023).

[6] Heathcote (2005) ; Le Grand et Ragot (2022) ; Bayer, Born et Luetticke (2020)              .




Le débat revendiqué de théorie et de politique économiques : l’itinéraire scientifique et intellectuel d’un homme de conviction, Jean-Paul Fitoussi par Jean-Luc Gaffard

Jean-Paul Fitoussi, dont les très grandes qualités scientifiques, pédagogiques et humaines sont unanimement louées, avait, à la place qui était la sienne dans l’académie et dans la société, le souci permanent des souffrances sociales liées au chômage et à la pauvreté, la volonté de contribuer à les combattre en faisant usage de l’arme de la théorie et de la politique économiques, la conviction que la démocratie était seule la forme politique à même d’assurer les régulations nécessaires. L’objet de ce qui suit, témoignage de cinquante-quatre ans de complicité et d’amitié, est, sur la base d’une lecture chronologique, de souligner l’unité et la continuité de la démarche scientifique adoptée et défendue par celui qui, en un demi-siècle de carrière, s’est voulu un lutteur intellectuel ancré dans son époque, informé des affaires du monde et surtout de l’Europe, conformément à l’image qu’il avait de Keynes dont il voulait conserver et développer le message.



(i)

Il est une mise en garde qui parcourt toute l’œuvre de Jean-Paul Fitoussi, celle à l’encontre des effets inévitablement néfastes du chômage comme de l’inflation qui pèsent sur les plus fragiles, renforce les inégalités et menace la soutenabilité de la croissance. Ce discours de dimension sociale et politique s’appuie sur une analyse économique rigoureuse qui s’inscrit dans les pas des plus grands économistes, notamment dans ceux de Keynes.

Le jugement porté par Jean-Paul Fitoussi sur le capitalisme est précisément le même que celui de Keynes : il y voit un système instable mais possiblement viable pourvu que soit reconnue l’importance d’une régulation extérieure au marché, produit du débat et des choix démocratiques. Sa vision renouvelée de ce qui fait l’essence de la pensée de Keynes irrigue la compréhension qu’il a des événements du dernier demi-siècle. Elle explique son attachement à la construction européenne en même temps que sa critique de la manière dont elle est conduite.

S’en tenir à voir dans ses réflexions et analyses la marque d’observations perspicaces de la réalité pouvant servir de repères au théoricien et à l’économètre serait à n’en pas douter ignorer la profondeur de sa démarche proprement théorique. Que celle-ci n’emprunte pas les sentiers convenus de la théorie économique « moderne » ne la disqualifie nullement, bien au contraire. Sa caractéristique première est d’identifier les problèmes avant de définir la méthode appropriée pour en traiter, ce qu’il appellera placer le lampadaire au bon endroit pour voir les nouveautés plutôt que de s’engager dans une course à l’élaboration d’une théorie pure (Fitoussi 2013). Comme on le verra, mettre l’accent sur les déséquilibres propres à l’évolution des économies de marché ne pouvait que conduire Jean-Paul Fitoussi à s’écarter de la méthode de l’équilibre. La difficulté à laquelle il se heurtera est l’interdit opposé à tout débat à la fois théorique et politique qui remettrait en cause cette méthode (Fitoussi 1995, 2013).

Deux fils conducteurs ont toujours structuré son raisonnement analytique. Les phénomènes globaux sont le reflet de l’hétérogénéité persistante ou accrue des marchés, des revenus et des pays. Ces phénomènes rendent compte d’une étroite interdépendance entre ce qu’il est convenu d’appeler le secteur « réel » de l’économie et le secteur monétaire et financier.

À ceux qui doutent de la dimension d’abord théorique des travaux de Jean-Paul Fitoussi, il faut rappeler que ce qui est à l’origine de sa démarche est une compréhension fine de la théorie de l’équilibre général qu’il tire de ses relations avec Kenneth Arrow, Nicholas Georgescu-Roegen et Axel Leijonhufvud. Elle le conduit à rappeler les conditions fortement restrictives qui président à l’existence d’un tel équilibre, conditions qu’ignore la théorie macroéconomique « moderne », une théorie qui s’en tient à faire de la flexibilité des prix et des salaires l’outil essentiel de la réalisation d’un optimum social, une théorie suivant laquelle le chômage est volontaire, l’inflation rationnellement anticipée, et les marchés financiers absents, et une théorie qui recommande la neutralité de la monnaie et du budget.

Fort cette connaissance du modèle de référence, Jean-Paul Fitoussi va, au fil de ses recherches, contester la pertinence de la macroéconomie dite de la nouvelle école classique comme d’ailleurs de la nouvelle école keynésienne pour mettre l’accent sur les problèmes de coordination qui naissent d’une incertitude radicale, que ne peut résoudre à lui seul le système des prix et qu’il s’agit avant toute chose d’identifier. Il emprunte à Clower (1965) et Leijonhufvud (1968) leur lecture de Keynes impliquant d’étudier les canaux de prix et de quantités au moyen desquels circule une information nécessairement imparfaite et incomplète entre des agents multiples. Non seulement la monnaie n’est pas absente de ces canaux, mais elle ne peut pas être neutre. Il n’existe pas d’économie du déséquilibre ou hors de l’équilibre qui ne soit pas une économie monétaire et même suivant l’expression de Keynes que reprend Fitoussi une économie monétaire de production. Si débat interdit il y a, c’est bien d’un débat théorique dont il s’agit (Fitoussi 1995).

(ii)

La toute première contribution de Jean-Paul Fitoussi – sa thèse de doctorat d’État de sciences économiques, Inflation, équilibre et chômage, soutenue en 1971 à l’Université Louis Pasteur de Strasbourg et publiée en 1973 – suit déjà les principes de cette démarche. Elle porte sur les relations entre inflation et chômage et donne une explication de phénomène de stagflation radicalement opposée à celle proposée par les monétaristes. Elle fait valoir l’existence et l’importance de fondements microéconomiques de la macroéconomie. L’idée empruntée à différentes contributions d’un ouvrage collectif édité par Edmund Phelps (1970) est qu’en présence de déséquilibres de marché, entre demande et offre, les prix et les salaires sont plus flexibles à la hausse qu’à la baisse (et donc les quantités y compris l’emploi sont plus flexibles à la baisse qu’à la hausse) de telle sorte qu’une dispersion accrue des demandes excédentaires nettes entraîne une hausse conjointe du taux d’inflation et du taux de chômage, autrement dit une stagflation. Cette explication concorde avec les faits observés dans les années 1970 au cours desquelles des chocs de nature diverse sur les prix des matières premières ont affecté la structure sectorielle de l’économie. Elle n’a nul besoin de se rapporter à l’existence d’un taux de chômage naturel et se sépare de toute idée de dichotomie entre secteur réel et secteur monétaire de l’économie. Elle est formulée un peu plus tard dans des termes voisins par Tobin (1972, 1995). Bien que généralement ignorée, elle est, aujourd’hui, d’une singulière actualité dans des économies confrontées à des chocs sanitaires, technologiques et géopolitiques qui ont engendré une forte hausse des prix des matières premières dont la diffusion en aval devrait entraîner des bouleversements dans la structure des économies.

La pertinence de la théorie ainsi formulée tient au caractère récurrent de situations de marché contrastées qu’explique le fait que le capitalisme est en perpétuel état de mouvement, un flux permanent de nouveautés venant rompre les équilibres existants conformément à l’analyse de Schumpeter. En l’occurrence l’asymétrie des variations de prix (à laquelle s’ajoute l’asymétrie entre accumulation de décumulation du capital) peut avoir pour corollaire un affaiblissement du taux de croissance (Fitoussi et Georgescu-Roegen 1980). En fait, il est possible d’imaginer une économie au sein de laquelle persistent des déséquilibres sectoriels sans qu’il y ait aggravation de ces derniers auquel cas le taux de croissance, quoiqu’approximativement constant est plus faible que s’il y avait parfaite coordination.

(iii)

Son explication du phénomène de stagflation, qui se présente comme l’alternative keynésienne à la thèse monétariste, conduit naturellement Jean-Paul Fitoussi à inscrire sa démarche dans le débat initié par Clower (1965) et Leijonhufvud (1968, 1973) visant à proposer une nouvelle lecture de Keynes. Dans sa thèse complémentaire soutenue en 1973, intitulée Le fondement microéconomique de la théorie keynésienne et publiée en 1974, il distingue clairement la théorie de Keynes d’une théorie de Walras. Elles ont certes en commun de considérer l’interdépendance des marchés. Mais celle de Keynes met en avant l’importance du revenu dans le mécanisme de l’échange du fait d’une information imparfaite et reconnaît à la monnaie une fonction essentielle. Alors que celle de Walras conserve au système de prix un rôle déterminant dans un univers où la monnaie n’a pas véritablement d’utilité. Jean-Paul Fitoussi entend, alors, compléter la théorie de Keynes en explicitant son fondement microéconomique lequel repose la structure des agrégats, et prend comme exemple l’effet de changements dans la répartition des revenus sur la consommation globale.

Par la suite, partie prenante des développements de la macroéconomie autour de ce qu’il était convenu d’appeler la théorie des déséquilibres (Vélupillaï 2012), Jean-Paul Fitoussi se sépare des modèles de la théorie des équilibres généraux à prix fixes. Distinguant l’équilibre virtuel de Walras de l’équilibre signalé de Keynes, il refuse de parler d’équilibre général dès lors que ce qui est signalé (ou anticipé) n’est pas réalisé. À moins que tous les ajustements ne soient effectués à prix fixes ce qu’il juge aussi improbable que des ajustements par les prix (Fitoussi 1983). Il ne juge pas crédible une coordination par les quantités qui viendrait se substituer à une coordination par les prix. Ce faisant, il distingue une coordination en déséquilibre d’une coordination sur un équilibre particulier. Il reconnaît l’existence de plusieurs concepts d’équilibre – chômage keynésien, chômage classique, inflation réprimée – mais il souligne que ce qui les différencie n’a rien à voir avec le problème de coordination – tous les modèles étant fondés sur l’existence d’un mécanisme de tâtonnement – mais tient au type de contraintes qui apparaît dans la résolution des problèmes d’optimisation individuelle. Or pour lui, s’il doit y avoir un fondement microéconomique à la théorie macroéconomique, celui-ci ne réside pas dans le comportement d’optimisation d’agents individuels confrontés à des contraintes exogènes, mais dans l’interaction entre des agents aux comportements différenciés en raison de la nature des déséquilibres auxquels ils sont confrontés.

(iv)

Au cours de l’étape suivante, Jean-Paul Fitoussi a fait porter son attention sur la coordination des plans intertemporels des agents, autrement dit sur la place et le rôle du taux d’intérêt dans une période qui allait être marquée par des politiques monétaires restrictives et des taux d’intérêt réels particulièrement élevés modifiant les rapports de force entre créanciers et débiteurs dont les relations sont l’une des caractéristiques structurelles de l’économie. Pour Jean-Paul Fitoussi c’était l’occasion de souligner avec force l’impossible neutralité de la monnaie et de la finance et d’engager un débat de politique économique au cœur de la question européenne.

L’idée récurrente empruntée à Keynes – à la lecture qu’en fait Leijonhufvud (1968, 1981) – est que le chômage est la conséquence, non d’une rigidité des salaires, mais de la défaillance du taux d’intérêt à coordonner efficacement les plans d’épargne et d’investissement (Fitoussi et Leijonhufvud 2002). S’agissant, chez Keynes, d’expliquer la Grande Dépression, l’argument que retient Lejonhufvud (1981) dans sa propre lecture est qu’à la suite d’une chute de l’efficacité marginale du capital (du taux de profit), le taux d’intérêt ne diminue pas comme le prévoit la théorie néo-classique des fonds prêtables du fait du comportement des détenteurs de capitaux qui anticipent une baisse des prix des titres, autrement dit une hausse des taux d’intérêt. Jean-Paul Fitoussi s’intéresse à une situation quelque peu différente, celle née de la forte inflation des années 1970 qui s’est traduite par la mise en œuvre de politiques monétaires très restrictives et une hausse des taux d’intérêt réels aux effets négatifs sur l’emploi.

Dans le contexte des années 1980, l’un des enjeux de théorie et de politique économiques était d’expliquer les écarts de performances entre les États-Unis et l’Europe. L’analyse alors retenue par Jean-Paul Fitoussi est que la hausse des taux d’intérêt réels (importée des États-Unis), entendue comme une dépréciation de l’avenir, associée à la variation du taux de change a des effets asymétriques sur les comportements de marge aussi bien que d’investissement des entreprises de part et d’autre de l’Atlantique (Fitoussi et Phelps 1988). Il s’ensuit un défaut de convergence qui contredit la théorie standard de la transmission des déséquilibres. L’analyse de l’étroite dépendance entre les taux d’intérêt et l’emploi fait ici peu de place au rôle des marchés financiers pour s’en tenir à celui des politiques monétaires et budgétaires. Phelps, pour sa part, parle de causes non monétaires de l’emploi quand il insiste sur l’importance des marchés de biens dits marchés de clientèle, autrement dit de marchés imparfaits. Jean-Paul Fitoussi reconnaitra plus tard avoir mésestimé l’affaissement de l’économie américaine faute d’en avoir perçu les prémisses (Fitoussi in Laurent et Le Cacheux 2015).

Par la suite, dans une analyse quelque peu différente, Jean-Paul Fitoussi, renouant avec la perspective ouverte par Keynes, retient comme cause du chômage l’effet qu’exerce sur l’économie « réelle » l’augmentation des taux d’intérêt réels remettant en cause l’efficience des marchés financiers (Fitoussi 1995). Une première conséquence de cette hausse est une augmentation des revenus du capital beaucoup plus forte que celle des revenus du travail impliquant une chute de la part des salaires dans le revenu global. Une deuxième conséquence est de créer un déficit du système de sécurité sociale financé par des prélèvements fiscaux sur le travail. Ce qu’il advient de l’économie globale procède de la dépréciation du futur entrainant la modification des relations de pouvoir au bénéfice des créanciers et au détriment des débiteurs. Dans ce contexte, chacun, employeur ou travailleur, cherche à tirer le meilleur parti de relations qu’ils prévoient être de courte durée. La théorie de la productivité marginale devient une fiction. Des marchés financiers inefficients, dominés par les créanciers, exercent leur tutelle sur des politiques économiques qui deviennent assez systématiquement restrictives.

(v)

Les déséquilibres propres aux économies européennes engagées dans un processus d’unification sont, pour Jean-Paul Fitoussi, un champ privilégié d’observation et d’analyse, Ils ont inévitablement une dimension politique. Dans Le débat interdit (1995), il maintient que la cause principale du ralentissement de l’activité économique en Europe est la hausse excessive des taux d’intérêt qui entraîne un creusement du déficit budgétaire. Le point important de son analyse est, cependant, de dénoncer l’erreur des pays européens qui ont laissé se développer le conflit d’intérêt entre l’Allemagne en voie de réunification et le reste de l’Europe. Concrètement, pour lui, il eut fallu éviter à l’Allemagne de supporter tout le coût de sa réunification dont la conséquence a été une forte hausse de son taux d’intérêt qui s’est généralisée à l’ensemble des pays européens. Il aurait mieux valu échanger une baisse des taux d’intérêt contre une participation à la reconstruction. Ce conseil (rétrospectif) de politique économique repose sur une théorie macroéconomique qui fait place à l’hétérogénéité des situations nationales et ne retient pas comme vérité une convergence des performances qui résulterait de l’application de règle simples de neutralité monétaire et budgétaire. Ce disant Jean-Paul Fitoussi se situe dans la droite ligne des principes d’analyse économique retenus dès le début de son parcours scientifique. Il n’existe pas de performance globale qui ne soit assise sur des effets de structure associés à des déséquilibres.

Jean-Paul Fitoussi met plus largement en cause un mode de gouvernance qu’il rend responsable des divergences de performances entre les pays de l’Union Européenne (Fitoussi 2002, Fitoussi, Gaffard et Saraceno 2010, Fitoussi 2013, Fitoussi et Saraceno 2013). Ce mode de gouvernance, au cours de la période concernée, est articulé autour d’une politique monétaire dédiée à contrôler l’inflation, d’une politique budgétaire contrainte par des objectifs de déficit public et de dette publique, et d’une politique de la concurrence visant à ouvrir et libéraliser les marchés. Il répond à une norme sociale qui n’est autre que l’acceptabilité de comportements présumés vertueux dont l’objet est de garantir la réputation des gouvernements qui s’y réfèrent (Fitoussi 2005). La mise en œuvre de ce qui apparaît comme un consensus n’a pas permis la convergence attendue des performances à l’exception de celle des taux d’inflation. Le défaut de cette stratégie est de faire la promotion d’une taille unique qui ne va à personne consistant imposer des réformes dites structurelles visant à la flexibilité des prix et des salaires et à mettre l’accent exclusivement sur l’offre au détriment d’une attention portée sur les déséquilibres et l’articulation entre offre et demande. Les coûts éventuels de ces réformes sont généralement sous-estimés, le problème n’étant pas tant le montant des transferts de compensation que le déclenchement de mécanismes cumulatifs créant notamment des formes de dualisme dans la société dès lors que l’économie est déjà dans une mauvaise passe. La justesse du diagnostic ainsi formulé, qui s’appuie, ne serait-ce qu’implicitement sur l’importance de différentes formes d’hétérogénéité, est, certes, attestée par l’échec de l’objectif général de stabilisation automatique et de convergence, mais aussi par l’irruption contrainte des mesures qualifiées élégamment de non conventionnelles pour faire face aux crises. La solution des difficultés nées du mode gouvernance ne peut qu’être un renoncement à des réformes structurelles entièrement dédiées à une action sur l’offre et l’adoption de politiques structurelles ayant pour objet d’adapter l’offre à la demande pour répondre aux déséquilibres inhérents au développement.

(vi)

Très vite, Jean-Paul Fitoussi s’inquiète de l’aggravation des inégalités qui accompagne les politiques mises en œuvre, dénonce la mise en panne des institutions pourvoyeuses de lien social et de solidarité, et avertit du risque de montée en puissance de populismes pervers (Fitoussi et Rosanvallon 1996). Pour lui, les inégalités sont, non seulement, inacceptables socialement, mais elles sont source d’instabilité. Si on le suit, la crise de 2008 n’est pas simplement financière (Fitoussi et alii 2010, Fitoussi et Saraceno 2010). Elle résulte de déséquilibres sous-jacents de long terme qui mêlent de manière inextricable phénomènes réels et financiers. L’un de ces déséquilibres tient à la montée continue des inégalités qui aggrave l’instabilité macroéconomique suivant différents canaux. La faible croissance des revenus en milieu et en bas de la distribution associée à l’insuffisance de l’augmentation des salaires réels et de la création d’emplois a incité au laxisme de la politique monétaire constant à maintenir au plus bas les taux d’intérêt. La stagnation des revenus a entraîné un endettement insoutenable des ménages les moins riches. Dans le même temps, la hausse des revenus des plus riches a engendré des pratiques qui ont nourri les bulles immobilières et de crédit. L’idée de base est que les propensions à consommer sont différentes suivant la classe de revenus et que le creusement des inégalités a des effets sur la demande globale en même temps que sur les situations d’endettement des uns ou d’enrichissement des autres. Les changements intervenus dans la structure des revenus sont répercutés sur la structure de la demande et sur les structures financières au détriment d’un usage productif des ressources. La crise qualifiée de financière a ses racines dans l’enchaînement de déséquilibres au cœur desquels se trouve une aggravation des inégalités qui tient pour partie à des choix de politique économique et notamment à des choix fiscaux qui avaient en ligne de mire des effets de ruissellement qui n’ont jamais existé.

(vii)

Une théorie macroéconomique qui met en scène des interactions dans des situations de déséquilibre dans une économie où monnaie et finance ne sont pas neutres ne pouvait que déboucher sur une théorie de la politique économique elle-même en rupture avec le courant dominant. L’Union Européenne constitue de nouveau le lieu du débat. Pour Jean-Paul Fitoussi, il s’agit d’abord de qualifier la pratique des institutions européennes qu’il décrit comme étant composées d’un ministre de la stabilité des prix (la Banque centrale), d’un ministre de la surveillance budgétaire et d’un ministre de la concurrence, chacun devant agir en suivant des règles établies par les traités. Ces règles se substituent à des choix discrétionnaires ou si l’on préfère à des arbitrages entre objectifs (Fitoussi 2002). La prise de position en faveur de politiques économiques dictées par des choix discrétionnaires ne saurait être ramenée à un plaidoyer en faveur d’un arbitrage entre inflation et chômage le long d’une courbe de Phillips présumée stable d’autant que l’analyse structurelle de cette relation (Fitoussi 1973) concluait à la possible instabilité de cette relation. Ce qu’entend dire plus largement Jean-Paul Fitoussi c’est qu’avec un modèle non linéaire (qui décrit des interactions hors de l’équilibre) il n’est pas possible de spécialiser les instruments de politique économique, de dédier un seul instrument à un seul objectif impliquant d’établir une règle pour chaque sujet. Il convient, au contraire, de reconnaître non seulement la multiplicité des instruments et des objectifs, mais aussi la nécessité de mobiliser plusieurs politiques pour un même objectif. Cette position théorique ne peut qu’éclairer les renoncements aux règles provoqués par les crises récentes que ne pouvait en rien expliquer ni résoudre la théorie en place.

(viii)

Le problème se pose des conditions institutionnelles des choix à effectuer. Il s’agit alors pour Jean-Paul Fitoussi de s’interroger sur les relations entre la démocratie et le marché (Fitoussi 2004). Il ne peut y avoir de théorie pure. L’économie est politique. En fait, la théorie prétendument pure s’accommode du déni de démocratie. Les experts, mieux informés et plus compétents, auraient à décider des règles dont la définition échapperait aux aléas de l’élection. Cette doctrine est celle du dictateur bienveillant. Son principal défaut est, de manière plus ou moins explicite, de négliger, non seulement, la question de l’information, de sa disponibilité et de sa distribution, mais aussi et surtout l’instabilité inhérente à la récurrence des déséquilibres. Comme le souligne Fitoussi (ibid.), le marché parfait ne correspond à aucune forme politique alors que des marchés imparfaits ou incomplets excluent un gouvernement qui se réfugierait dans l’abstention. Cette complémentarité peut être appréciée de deux façons distinctes. Soit il est question de réduire autant que se peut l’espace de la décision publique perçue comme un mal nécessaire. Soit il est question de répondre aux risques de l’instabilité en créant les conditions institutionnelles d’un arbitrage efficace. Pour Jean-Paul Fitoussi, ces conditions sont celles de la démocratie. C’est elle qui permet de mieux maîtriser les chocs, de lisser les fluctuations, de réduire les coûts sociaux du changement, parce qu’elle est une forme flexible de gouvernement, parce que face aux erreurs et aux échecs elle permet de s’adapter au lieu de persister à appliquer la même doctrine comme s’il n’y avait pas d’alternative. La complémentarité revendiquée est entre la démocratie et le marché au sens où système politique et système économique se confortent mutuellement. Le paradoxe apparent est que les choix en démocratie en tant qu’ils résultent d’arbitrages sont limités alors que le choix du dictateur bienveillant est sans limite.

(ix)

La quête d’une politique économique à la fois juste et efficace ne pouvait que conduire Jean-Paul Fitoussi à réfléchir sur les indicateurs qui devrait la guider et à aborder la question de la mesure du bien-être indissociable de celle de la soutenabilité de l’évolution (Stiglitz, Sen et Fitoussi 2009). Sans doute l’un des points saillants de la démarche est-il d’avoir souligné l’importance des changements structurels dans la mesure des performances, qu’il s’agisse de changements des parts respectives de la production marchande et de la production publique, de changements dans la répartition des revenus ou de changements dans la part du revenu revenant à au secteur financier. Faute de prendre en considération ces changements, il ne sera pas possible de percevoir les conditions de soutenabilité à moyen et long terme. La soutenabilité dont il est question reste celle de la croissance, non pas que le contenu de cette croissance ne doive pas évoluer au regard du défi environnemental, mais parce que la recherche du bien-être pour tous demeure, pour Jean-Paul Fitoussi, ancrée sur l’emploi et le revenu (Fitoussi et Laurent 2008).

(x)

Si les très nombreuses contributions de Jean-Paul Fitoussi ont semblé relever de l’observation perspicace et de la controverse de politique économique ancrée sur les problèmes du moment, ce serait une faute que d’en ignorer la dimension théorique inscrite dans la recherche des fondements microéconomiques de la théorie macroéconomique. Cette recherche fait l’unité d’une pensée qui entend, assez systématiquement établir les effets globaux immédiats ou à plus long terme de l’hétérogénéité persistante ou accrue des marchés, des revenus, des nations, conçue comme hétérogénéité à la fois des situations et des comportements et comme source d’une dynamique des déséquilibres. Nonobstant la richesse des résultats des investigations poursuivies et de la rigueur formelle des analyses, cette démarche s’est heurtée aux difficultés d’une formalisation proprement mathématique. Mais sur ce terrain, Jean-Paul Fitoussi a, en partage avec Georgescu-Roegen (1971), la conviction que la théorie économique, qui décrit des phénomènes marqués par la nouveauté et l’hystérésis, ne peut se laisser enfermée dans des modèles que Georgescu- Roegen qualifie d’arithmomorphiques.

Dans la perspective de traiter des fondements microéconomiques de la théorie macroéconomique, Jean-Paul Fitoussi n’a abordé la question des formes d’organisation qui complètent le simple jeu du marché, en fait la question de l’entreprise, qu’à l’occasion d’une étude sur le mode de gouvernance des entreprises de service public confrontées à l’ouverture des marchés en Europe (Fitoussi 2003). Il y évoque la possibilité de créer une entreprise dite du troisième type dont l’État détient une partie du capital dont la caractéristique ou l’originalité, serait que chacune des catégories d’actionnaires continue à faire valoir ses propres préoccupations. Il y voit la possibilité d’articuler efficacement le court et le long terme face à des incertitudes particulièrement fortes, liées notamment à la transition écologique, quand les seuls signaux de prix ne fournissent pas l’information nécessaire. Sur ce sujet en fait très général, Jean-Paul Fitoussi adopte le même fil conducteur que dans ses autres travaux, celui consistant à reconnaître la multiplicité des intérêts et des objectifs en même temps que l’incomplétude de l’information exigeant une régulation qui ne se réduit pas au seul jeu du marché.

(xi)

Dans son dernier ouvrage paru, Jean-Paul Fitoussi emprunte une voie qui peut paraître surprenante à beaucoup : il dénonce l’empire du langage (Fitoussi 2020). Il ne s’écarte pourtant pas de l’une de ses préoccupations majeures qui lui avait fait écrire Le débat interdit puis Le théorème du lampadaire : il est impossible de concevoir ce que l’on ne sait pas ou ne veut pas nommer. L’économiste ici s’inquiète de ce que ceux-là même qui ont voulu contester analyses et prescriptions de la nouvelle école classique en ont utilisé le langage. Il n’y a pas, pour lui, de pensée unique mais un appauvrissement du langage qui empêche de s’emparer des vrais problèmes. Le risque est grand alors de se placer dans la position d’accepter le malheur des crises qu’il serait impossible de conjurer. Jean-Paul Fitoussi conserve, pour sa part, l’ultime conviction que notre destin est entre nos mains pourvu de pouvoir lever les limites imposées à la pensée par les règles du langage comme du gouvernement.

(xii)

Toute l’œuvre de Jean-Paul Fitoussi est une invitation à poursuivre dans la voie qu’il a choisie dès l’abord et qu’il a enrichie au fil des années. Cette voie a une dimension proprement scientifique qui ne peut que se nourrir de la lecture de ses travaux et de celle des grands auteurs à laquelle il nous a toujours convié. Elle a aussi une dimension politique et éthique qui veut que l’on ne puisse jamais dissocier la théorie économique de l’environnement institutionnel dans lequel elle est développée, une autre façon de dire que l’économie est politique.

Jean-Luc Gaffard (OFCE Sciences-Po, Université Côte d’Azur, Institut Universitaire de France)

Références

Clower R. (1965): ‘The Keynesian Counterrevolution: A Theoretical Appraisal’ in F.H. Hahn et F.P.R. Brechling eds., The Theory of Interest Rates, London: Macmillan.

Fitoussi J.-P. (1973) : Inflation, équilibre et chômage, Paris : Cujas.

Fitoussi J.-P. (1974) : Le fondement microéconomique de la théorie keynésienne, Paris : Cujas.

Fitoussi J.-P. (1983): ‘Modern Macroeconomic theory An Overview’, in Fitoussi J-P ed., (1983), Modern Macroeconomic theory, Oxford, Blackwell.

Fitoussi J.-P.  (1995) : Le débat interdit, Paris : Arléa.

Fitoussi J.-P. (2002) : La règle et le choix, Paris : Le Seuil.

Fitoussi J.-P. (2003) : EDF, le marché et l’Europe, Paris : Fayard.

Fitoussi J.-P. (2004) : La démocratie et le marché, Paris : Grasset.

Fitoussi J.-P. (2005): ‘Macroeconomic Policies and Institutions’, Angelo Costa Lecture, Rivista di Politica Economica: 9-30.

Fitoussi J.-P. (2013) : Le théorème du lampadaire, Paris : Les Liens qui Libèrent.

Fitoussi J.-P. (2020) : Comme on nous parle, Paris : Les Liens qui Libèrent.

Fitoussi J.-P. et alii (2010): After the Crisis, the Way Ahead, Roma : LUISS University Press.

Fitoussi J.-P., Gaffard J.-L. et F. Saraceno (2010) : ‘Politiques macroéconomiques et réformes structurelles, bilan et perspectives de la gouvernance économique au sein de l’Union Européenne’, Revue d’Économie Politique 120 (2) : 247-268.

Fitoussi J.-P. et N. Georgescu-Roegen (1980): ‘Structure and Unvoluntary Unemployment’ in E. Malinvaud et J.-P. Fitoussi (eds.), Unemployment in Western Countries, London, Macmillan.

Fitoussi J.-P. et E. Laurent (2008) : La nouvelle écologie politique, Paris : Le Seuil.

Fitoussi J.-P. et A. Leijonhufvud (2002) : Préface de J.M. Keynes, La pauvreté dans l’abondance, Paris : Gallimard.

Fitoussi J.-P. et E. S. Phelps (1986):’Causes of the 1980’s Slump in Europe’, Brookings Paper on Economic Activity 2: 487-520.

Fitoussi J.-P. et E. S. Phelps (1988): The Slump in Europe: Reconstructing Open Economy, Oxford.

Fitoussi J.-P. et P. Rosanvallon (1996) : Le nouvel âge des inégalités, Paris : Le Seuil.

Fitoussi J.-P. et F. Saraceno (2010): ‘Inequality and Macroeconomic Performance’, Working Paper OFCE 2010-13.

Fitoussi J.-P. et F. Saraceno (2013): ‘European Economic Governance: The Berlin-Washington Consensus’, Cambridge Journal of Economics 37 (3): 479-496.

Georgescu-Roegen N. (1971): The Entropy Law and the Economic Process, Cambridge Mass.: Harvard University Press.

Laurent E. et J. Le Cacheux eds, (2015): Fruitful Economics, Papers in honor of and by Jean-Paul Fitoussi, London: Palgrave Macmillan

Leijonhufvud A. (1968): On Keynesian Economics and the Economics of Keynes, London: Oxford University Press.

Leijonhufvud A. (1973): ‘Effective Demand Failures’, Swedish Journal of Economics 75 (1): 27-48. 

Leijonhufvud A. (1981): ‘The Wicksell Connection’ in Information and Coordination, Oxford: Oxford University Press.

Phelps E. S. (1970): Microeconomic Foundations of Inflation and Unemployment Theory, New York: Norton.

Stiglitz J, Sen A. et J.-P. Fitoussi (2009) : Richesse des nations et bien-être des individus, Paris : Odile Jacob.

Tobin J. (1972): ‘Inflation and Unemployment’, American Economic Review 62: 1-18.

Tobin J. (1995): ‘The Natural Rate as a New Classical Macroeconomics’, in R. Cross, The Natural Rate of Unemployment, Cambridge: Cambridge University Press.

Velupillaï K. V.  (2012): ‘The Consummate Macroeconomist’ in Velupillaï K.V. ed., (2012): Macroeconomic Theory and Economic Policy: Essays in Honour of Jean-Paul Fitoussi, London: Routledge.




Jean-Paul Fitoussi, brillant économiste et penseur de la société par Xavier Ragot

(né le 19 août 1942 à La Goulette (Tunisie), décédé le 15 avril 2022 à Paris)

L’économiste Jean-Paul Fitoussi nous a quittés le 15 avril à Paris.  Docteur d’État en sciences économiques et agrégé, il a commencé sa carrière comme professeur à l’Université de Strasbourg puis à l’Institut universitaire européen de Florence avant de rejoindre Sciences Po et de devenir président de l’Observatoire Français des Conjonctures Économiques (OFCE) de 1989 à 2010. Officier de la Légion d’honneur, docteur Honoris Causa de nombreuses universités, ses travaux ont été reconnus par de nombreux prix internationaux.  Il a contribué à de nombreuses institutions en France et en Italie où il enseignait également et où sa renommée était aussi très importante.



Jean-Paul Fitoussi était un grand économiste mais aussi un penseur de la société. Il comprenait que nos économies génèrent de fortes instabilités. L’inflation élevée des années 1970, le chômage de masse qui s’installe dans les années 1980, les taux d’intérêt élevés des 1990 du fait de la convergence vers l’euro, la crise financière de 2008, la crise sanitaire, puis la crise géopolitique et énergétique actuelle : l’instabilité économique est la norme, frappe les plus fragiles, et l’intervention publique doit être la constante. Le capitalisme n’est pas un système stable où les femmes et les hommes politiques ne changent que des paramètres techniques, comme un impôt, ou des paramètres du système de retraite, par exemple. Il nécessite une intervention constante par la politique budgétaire et monétaire, avec des instruments à chaque fois adaptés. Ses réflexions les plus récentes portaient sur les effets sur les ménages les plus pauvres de la hausse de l’inflation et des prix de l’énergie depuis l’invasion de l’Ukraine. Comment réduire la dépendance énergétique sans pénaliser les ménages les plus pauvres ?

Jean-Paul Fitoussi a su tirer les implications pour la construction européenne. On ne peut pas construire une gouvernance économique par des règles économiques :  les critères de 3% de déficit public et de 60 % de dette publique, en plus d’être arbitraires, détournent la réflexion des déséquilibres qui s’accumulent hors du budget de l’État. Il ne faut pas de règles uniformes mais un lieu de débat pour identifier les déséquilibres et anticiper les crises à venir, un lieu de souveraineté européenne donc. Pour Jean-Paul Fitoussi, la souveraineté européenne n’a pas pour rôle l’affrontement mais la coordination et la gestion de l’exception économique.

Cependant, le but de cette coordination économique ne peut être de maximiser la croissance sans se soucier des inégalités ou de la soutenabilité. Il s’agit de contribuer au bien-être commun. La force intellectuelle de Jean-Paul Fitoussi rencontre ici la modestie de l’économiste. Ce n’est pas à l’économiste de donner le sens de l’économie mais à la démocratie de montrer les futurs souhaitables. Les contributions de Jean-Paul Fitoussi ont donc porté sur la définition et la mesure du bien-être. Au sein de la Commission Stiglitz-Sen-Fitoussi, il a contribué dès 2009 à élargir les mesures du progrès économique au-delà de la seule croissance du PIB.

Mais Jean-Paul Fitoussi était aussi un constructeur et avait le souci de participer à la vie de la cité.  Il est devenu Président de l’OFCE en 1989 et a dirigé l’institut pendant 20 ans, faisant de l’OFCE un centre reconnu internationalement. Tous ceux qui ont travaillé avec lui peuvent témoigner de sa gentillesse, son attention, son humour aussi. Le souci des autres n’était pas qu’une attitude intellectuelle. Pendant 20 ans il était secrétaire général de l’Association internationale des Sciences Économiques, participant à la réflexion internationale avec Arrow, Sen, Phelps, Solow, tous prix Nobel et ses amis.

Enfin, il a contribué à de nombreuses évolutions à Sciences Po, étant un grand architecte de l’établissement. Il a participé à son ouverture sociale et à la création du département d’économie. La pertinence de ses conceptions et son sens de la pédagogie lui ont donné une place particulière dans le débat public. Consulté par tous les gouvernements, jamais avare de son temps pour expliquer les enjeux de politique économique, avec les étudiants comme avec les présidents de la République.

Jean-Paul Fitoussi nous quitte au moment où l’on a le plus besoin de sa pensée. Par sa conception du rôle de l’économiste dans la cité, son attention aux crises et aux difficultés économiques des plus fragiles, on peut qualifier Jean-Paul Fitoussi de keynésien. C’est à la fois juste, mais réducteur. Il faut élargir la focale et mieux le présenter : un honnête homme et un grand économiste.

Xavier Ragot




À la mémoire de Jean-Paul Fitoussi par Xavier Timbeau

« Dans le long terme nous serons tous morts ». Nous avions l’habitude de plaisanter avec cette citation de Keynes, pas la plus profonde bien sûr. Cher Jean-Paul, je pratique aujourd’hui le tutoiement, après toutes ces années d’un vouvoiement de respect, un peu dérisoire aujourd’hui que nous y sommes à ce funeste long terme. Cette plaisanterie avait un quelque chose de défi et de fierté qui répondait à tous ceux qui nous mettaient dans une case, celle des keynésiens, en guise d’insulte.



Dans les années 1980, mais aussi 1990 ou 2000, être « keynésien » était un anathème. Des gens en costume gris pensaient avoir emporté la bataille idéologique après Friedman, Lucas, Kydland ou Prescott ou Fama. Ils avaient déconstruit, croyaient-ils, l’héritage de la Théorie Générale, et apporté point par point la contradiction à chacune de ses conclusions. Pour eux, keynésien voulait dire ancré dans une pensée dépassée et nuisible. Cela voulait dire ne pas comprendre l’économie et proposer naïvement d’empirer les maux de la société en appliquant de vieilles recettes. Nous savons que la suite des événements leur a donné tort. Mais ils se trompaient déjà lorsqu’ils clamaient que la rigueur budgétaire ou l’indépendance de la Banque centrale était les conditions d’une économie stable, prospère et juste. Et ça, tu l’avais écrit bien avant beaucoup d’autres, avant la crise de 2008 ou celle des dettes souveraines. Tu nous avais convaincus et nous, à tes côtés, avons essayé par tous les moyens de faire entrer ces idées par toutes les portes et fenêtres de la construction européenne. Peut-être les timides évolutions que nous voyons aujourd’hui s’en sont nourries, et peut-être pouvons-nous en être fiers.

Les radicaux, quant à eux, en demandaient toujours plus et dénonçaient le compromis avec l’économie de marché. Pour eux, dénoncer les inégalités, la fatalité du chômage, le déficit d’avenir, vouloir les mettre au cœur de notre système statistique ou prendre la mesure des dommages à l’environnement, n’était pas le bon chemin. Keynésien signifie pour eux renoncer à changer le capitalisme et en être l’idiot utile. Ce fut ainsi pendant et après la Commission Stiglitz, où pourtant des progrès sensibles ont été accomplis dans la définition d’objectifs renouvelés pour les politiques publiques. Pas de table renversée mais une feuille de route clarifiée. La suite des événements ne leur a pas encore donné tort tant la crise écologique se fait pressante et que le capitalisme n’est pas dompté. Pourtant, ta contribution est indiscutable.

J’aimerais répondre à tous ceux qui t’ont pris de haut deux trois choses que je sais de toi.

De ces deux décennies à travailler ensemble au quotidien j’ai tiré quelques leçons sur la façon d’étudier les économies modernes. Premièrement, la théorie est nécessaire, elle est au cœur d’une analyse construite et on ne peut s’en passer. Il n’y a pas de théorie mainstream. Il ne faut pas confondre les constructions théoriques avec les dogmatismes qui en découlent et qui n’en sont que des mauvaises lectures. Si être traité de keynésien doit signifier quelque chose, cela part de la théorie en ce qu’elle est un langage commun qui permet de comprendre. Il n’y a pas de bonnes ou de mauvaises théories, il n’y a qu’un effort collectif d’intelligence de l’économie. C’est au nom de cela que tu as animé un réseau de grands économistes : Kenneth Arrow, Robert Solow, Joseph Stiglitz, Edmund Phelps, Tony Atkinson, François Bourguignon, Olivier Blanchard, Robert Gordon ou encore Amartya Sen. On te jalousait parfois cette assemblée de prix Nobels passés ou futurs, mais s’ils t’écoutaient et s’ils répondaient présents à chacune de tes invitations, c’est parce qu’ils appréciaient ton éclectisme intellectuel.

La théorie est nécessaire donc, mais elle n’est pas tout. Tu aimais la lumière, mais pas celle des projecteurs. Celle des rives de la méditerranée, qui réchauffe et qui aveugle. C’est la lumière de la réalité, de ce qui se passe dans le monde et qu’il faut comprendre pour en chasser les injustices. C’est cet amour de la lumière que tu partageais avec Albert Camus parce qu’aussi noires que soient nos pensées, elles ne pourront jamais masquer cette lumière-là. Mettre la réalité au cœur de l’économie c’est une de ces attitudes, évidentes et rares, qui ont fait de toi un économiste original et fécond. Ce second principe est une bonne raison de se faire traiter de « keynésien ».

Et puis, troisièmement, la connaissance doit servir et bien servir. Non pas que nous sachions mieux que les autres comment le monde fonctionne, mais parce que les représentations du monde que construit la science économique façonnent nos sociétés. La construction européenne en est un exemple extraordinaire, comme tu aimais à nous le rappeler. Et si nos représentations ne sont pas justes, nous sommes responsables de faire en sorte qu’elles soient moins nuisibles que bien d’autres. Bien servir, c’est donc faire barrage à ces mauvaises recettes et tâcher de convaincre qu’il en existe de meilleures. Ton effort constant à transmettre aux étudiants de Sciences Po, d’y faire contrepoids à la pensée unique d’alors en est un témoignage. Je rencontre souvent de tes anciens étudiants à qui tu as su transmettre cette petite étincelle de doute lumineux. Mais tu nous as aussi poussés à l’OFCE à faire cette économie utile et appliquée que nous essayons toujours de porter.

Ces trois principes devraient être partagés par tous les économistes de la planète. Maîtriser les aspects théoriques, connaître la réalité, quantifier et savoir prendre du recul. Ne jamais se masquer face aux douleurs aveuglantes du monde et conserver notre indignation. Ne jamais céder aux dogmatismes. Expliquer et comprendre les politiques et celles et ceux qui les font. Sans relâche, débattre et convaincre. Nous serions alors tous vraiment keynésiens et pas seulement lorsque le monde s’écroule.

Ces principes sont la dette que j’ai envers toi. Et cette dette n’est pas de celles qui se remboursent. Elle est une dette qui enrichit et qu’on transmet.

Xavier Timbeau




Faire face à l’inflation : un défi structurel

par Jean-Luc Gaffard et Francesco Saraceno

Introduction

En février 2022 le taux d’inflation annuel (mesuré par les données mensuelles de l’IPCH) a été aux États-Unis de 7,9%, en Grande-Bretagne de 5,4%, en zone euro de 5,8%, en Allemagne de 5,5%, en Espagne de 7,5%, en France de 4,1%, en Italie de 6,2%, aux Pays-Bas de 7,2%. Ces tensions, qui ont pu être jugées temporaires, pourraient d’autant plus facilement perdurer que, en conséquence de la guerre en Ukraine, de fortes et nouvelles hausses de prix interviennent sur les marchés de matières premières et de produits agricoles qui devraient largement se propager aux autres secteurs de l’économie.



Ce retour de l’inflation, après quelque quatre décennies de « Grande Modération », est susceptible de faire renaître le débat qui a opposé keynésiens et monétaristes, économistes de la demande et économistes de l’offre dans les années 1970. La question posée reste la même : celle des causes et coûts de l’inflation ainsi que des remèdes. Le sujet largement occulté reste le même : l’hétérogénéité des secteurs (des micromarchés) en termes de demande ou d’offre excédentaire. Le but de ce billet est de contribuer à éclairer les mécanismes à l’œuvre aujourd’hui en s’appuyant sur des éléments puisés dans la littérature économique de façon à établir les mesures appropriées pour y faire face.

Causes et coûts de l’inflation

L’inflation, qu’il s’agisse d’une inflation tirée par la demande ou d’une inflation poussée par les coûts, résulte de déséquilibres de marché (entre la demande et l’offre des différents secteurs) affectant tout ou partie de l’économie. Ces déséquilibres ont une dimension structurelle quand ils révèlent des changements des paramètres fondamentaux (technologies et préférences) rendant d’actualité une reconfiguration du tissu productif inhérente au progrès technique et à la croissance. Ils peuvent aussi être le fruit de chocs géopolitiques affectant notamment les marchés de matières premières. Sont en jeu les comportements en matière de prix, de quantités produites et d’investissement des entreprises concernées dans différents secteurs. Inversement, des changements structurels importants peuvent résulter d’une forte inflation qui modifie la répartition des revenus et des richesses au détriment des revenus contractualisés (salaires et retraites) avec pour conséquence de pénaliser les achats de biens salariaux et de favoriser celle de biens de luxe[1]. Ils peuvent, en outre, résulter du raccourcissement de l’horizon temporel des entreprises qui ne sont plus incitées à investir à long terme et vont chercher à être flexibles à court terme au risque de contraindre davantage l’offre et d’initier une inflation encore plus forte[2].

S’interroger sur le caractère transitoire ou durable de l’inflation est une façon de détourner l’attention de cette réalité complexe. Tout se passe en effet, dans ce cas de figure, comme si le choix était entre une situation dans laquelle l’inflation n’était qu’un épisode rapidement clos du fait d’un retour à l’équilibre de long terme et une situation où tout contrôle serait perdu le plus vraisemblablement du fait de l’attitude des autorités budgétaires et monétaires persistant dans une relance globale de l’économie. Le débat est celui mis en scène par les monétaristes qui font de l’inflation un phénomène purement monétaire et incriminent comme seule cause de ce phénomène l’impéritie des gouvernements[3]. Soit les gouvernements reviennent à la raison, soit l’économie est sujette à une hyperinflation. Cette approche du problème ignore que l’inflation nait de déséquilibres sectoriels de marché qui sont dans la nature du fonctionnement d’économies soumises de manière récurrente à des changements structurels, qu’une analyse d’équilibre ne peut pas capturer de façon adequate ; ignore par la même occasion qu’une inflation modérée est requise pour rendre plus aisées les variations de prix relatifs et garantir la viabilité des mutations en cours, ignore enfin ce que sont les véritables coûts sociaux d’une inflation, situation dans laquelle  des distorsions sont introduites dans la structure des prix au risque d’engendrer une mauvaise allocation des ressources[4].

L’épisode de faible inflation revisité 

La stabilité des prix observée au cours des quarante dernières années est souvent attribuée par la théorie monétaire dominante à l’action des banques centrales devenues indépendantes. Elle est surtout révélatrice de l’absence de déséquilibres marqués sur les marchés du travail et des biens qui explique que l’on ait pu parler de Grande Modération. Sur le marché du travail, la modération salariale imposée a été rendue possible grâce à l’importation de biens de consommation en provenance des pays émergents produits à bas coûts (ce qui en a en même temps limité l’impact sur le pouvoir d’achat et donc sur l’instabilité sociale). La vigilance des autorités monétaires qui ont agi sur des taux d’intérêt maintenus longtemps élevés s’est accompagnée d’innovations financières qui ont permis, sur les marchés de biens, notamment de biens liés aux nouvelles technologies, de répondre au besoin de financement des investissements et de mettre en œuvre les capacités de production requises en regard des nouvelles demandes.

Depuis le début des années 2000, après une première crise financière (l’éclatement de la bulle internet), des tendances déflationnistes ont vu le jour. Un ralentissement des gains de productivité s’est produit en même temps qu’une insuffisance de demande, l’un et l’autre susceptibles d’annoncer une stagnation séculaire qui se reflèterait dans la baisse des taux d’intérêt devenus proches de zéro[5]. Cela s’est traduit par un excès d’épargne et un recul concomitant de l’investissement productif.  Les liquidités disponibles ont été affectées à des achats d’actifs financiers et immobiliers par les détenteurs de capitaux et au rachat de leurs propres actions par les entreprises. Il s’en est suivi une inflation du prix des actifs financiers et immobiliers alors que les prix des biens de consommation demeuraient stables toujours grâce à la modération salariale et aux importations en provenance des pays à bas salaires.

La résurgence de l’inflation

L’inflation a récemment resurgi sous la forme des hausses de prix sur les marchés de matières premières et de certains biens intermédiaires tels que les composants électroniques. Elle résulte d’un rebond exceptionnel d’activité consécutif à l’arrêt imposé par les contraintes sanitaires et de la persistance de goulets d’étranglement le long des chaînes mondiales d’approvisionnement que la guerre en Ukraine est venue exacerber[6].

Si ces hausses devaient être temporaires, elles ne se transmettraient pas nécessairement aux prix des produits finis car le plus souvent ces produits sont vendus sur des marchés à prix fixes, signifiant que les prix reflètent les coûts observés en moyenne sur une période assez longue, les coûts normaux, et non les fluctuations au jour le jour que l’on attribue à des phénomènes temporaires[7].

Cependant, les prix de certains produits de consommation courante, qu’il s’agisse de produits alimentaires ou de l’énergie, peuvent être, très vite et durablement, affectés par l’envolée des prix sur les marchés de matières premières, auquel cas la répartition des revenus sera elle-même affectée au détriment des ménages les plus pauvres. En outre, nombre d’entreprises dans différents secteurs, du fait de la hausse des prix des consommations intermédiaires, peuvent être confrontées à un manque de trésorerie susceptible d’affecter la poursuite de leur activité. Enfin, des recompositions de l’appareil productif impliquant investissements et relocalisations sont envisagées en réponse aux tensions inflationnistes dans le but pour les entreprises d’éviter de subir à l’avenir les effets de goulets d’étranglement. Cela semble être le cas pour les semi-conducteurs pour lesquels un plan européen est d’ores et déjà acté.

L’impact de la transition écologique et de la révolution digitale 

La résurgence de l’inflation intervient dans un environnement caractérisé par la transition écologique et la révolution digitale qui sont à l’origine d’un processus de destruction créatrice dont la conséquence est la formation de déséquilibres sur différents marchés. D’anciennes activités entrent en déclin et de nouvelles doivent se développer. D’un côté les entreprises font face à des chutes de demande qui les conduisent à licencier, de l’autre elles doivent augmenter leurs prix pour faire face aux hausses de coûts liées à l’ampleur des investissements à effectuer. Le secteur automobile confronté au passage du véhicule thermique au véhicule électrique est emblématique de cette évolution.

Une stagflation, mélange de hausse du chômage et de hausse des prix, n’est pas à écarter. Elle serait le fruit d’une dispersion accrue des demandes et offres excédentaires alors que prix et salaires sont plus flexibles à la hausse qu’à la baisse[8]. Elle persisterait si les ajustements de l’offre et de la demande dans les différents secteurs étaient bloqués ou ralentis faute d’investissements suffisants en capital physique et capital humain avec pour conséquence de peser négativement sur les gains de productivité et les taux de profit attendus.

Cette situation s’apparente à celle des années 1970 quand précisément la hausse des prix des matières premières a conduit à des restructurations industrielles visant à économiser les ressources et pour ce faire à redéfinir les modes de production. La réponse consistant à stimuler la consommation globale n’a fait, à cette époque, que renforcer les tendances inflationnistes sans résorber les poches de chômage alors qu’était en cause une défaillance de l’offre et donc de l’investissement dans les nouveaux domaines d’activité. Il a bien fallu alors retenir comme seul objectif l’éradication de l’inflation avec comme conséquence de contraindre les salaires réels mais aussi l’investissement, ce qui était, d’une certaine manière, accepter la défaite en renonçant à s’interroger sur les voies et moyens de la restructuration du tissu productif.

Le risque de dérive inflationniste

Aujourd’hui, les pressions sur les cours de toutes les matières premières vont persister voire s’amplifier car leurs marchés vont rester durablement déséquilibrés : dans le domaine des énergies fossiles où la demande reste élevée alors que les investissements sont en recul, dans celui des matières premières exigées par la transition énergétique, dans celui des productions agricoles soumises aux aléas climatiques. Sans compter les raretés induites par les embargos, voulus ou subis, liés aux événements géopolitiques. En outre, les coûts de construction des nouvelles capacités requises par la transition seront élevés et en partie répercutés sur les prix des produits. Enfin, des tensions salariales peuvent apparaître dans les pays où le taux de chômage est faible d’autant que l’offre de travail dans les métiers nouvellement demandés y est encore limitée, sans toutefois que l’on puisse s’attendre à une spirale inflationniste dans le contexte institutionnel actuel.

D’un autre côté, la persistance d’un excès d’épargne reflétant aussi bien le peu de confiance des plus riches dans l’avenir prenant la forme d’achats d’actifs existants que la hausse de l’épargne de précaution des plus modestes maintient une pression déflationniste.

L’impasse monétaire

Si l’inflation devait persister et s’amplifier, il y a peu de doute que le débat vieux de cinquante ans resurgirait et que serait accusée une politique budgétaire et monétaire trop accommodante justifiant une hausse des taux d’intérêt. La situation des États-Unis pourrait donner lieu à pareil revirement[9]. L’erreur serait, pourtant, de s’en tenir à la dimension globale du phénomène et d’ignorer la nécessaire adaptation sectorielle de l’offre aux nouvelles conditions de croissance.

De fait, une politique monétaire fortement et rapidement restrictive aurait pour effet un effondrement des marchés financiers et un alourdissement du coût des dettes publiques en outre différencié suivant les pays créant une difficulté particulière au sein de la zone euro. Cela comprimerait la demande globale, nuirait à la croissance, sans résoudre aucun des déséquilibres sectoriels et des goulets d’étranglement qui caractérisent la mutation structurelle de l’économie. Les pressions inflationnistes seraient contenues mais au prix d’une pénalisation des investissements productifs, d’une hausse du taux de chômage et de retards pris dans les mutations structurelles.

L’impasse dans laquelle se trouve la politique monétaire vient de ce qu’elle ne peut avoir pour but de combattre une inflation qui peut s’avérer utile si elle reste modérée et favorise les ajustements structurels. Il revient alors aux Banques Centrales et notamment à la Banque Centrale Européenne de s’en tenir à préserver la stabilité financière en prévenant des hausses de taux d’intérêt malencontreuses[10]. La stabilisation de l’économie au sens large ne dépend pas de la contrainte monétaire globale. Ce qui importe c’est la façon dont les contraintes de financement vont jouer sur l’allocation du capital.

Les moyens d’une transition réussie

Le scénario favorable est celui dans lequel seraient engagés les investissements en capital physique et en capital humain nécessaires pour que les ajustements structurels puissent prendre place et les déséquilibres sectoriels (excès d’offre et de demande) soient en voie de résorption. La tenue de ce scénario dépend du comportement des pouvoirs publics, des intermédiaires financiers et des entreprises.

Les pouvoirs publics doivent créer un environnement favorable à la mise en œuvre des mutations structurelles par le moyen de l’investissement public, de la réglementation, des subventions et de la taxation. L’objectif est de mobiliser les ressources publiques disponibles pour orienter les décisions d’investissement vers les nouvelles activités dont le développement est requis par la transition écologique et la révolution digitale. Ce choix ne dispense pas de devoir affronter des difficultés à court terme pouvant impliquer de recourir temporairement à des contrôles de prix et à des subventions aux ménages.

Le système financier doit être régulé et organisé de telle manière à ce que les détenteurs de capitaux s’engagent sur des volumes importants pour des durées longues permettant de sécuriser les investissements innovants des entreprises[11]. En effet, si l’offre de financement ne suffit pas à créer une incitation à investir, le type d’investissement effectué dépend de la structure de cette offre de financement, autrement dit du degré de patience des détenteurs de capitaux. Ce qui, à n’en pas douter, pose le problème du positionnement et du rôle des banques comme de la place des marchés financiers[12].

Les entreprises doivent pouvoir faire des anticipations fiables leur permettant de s’engager dans des investissements longs, ce à quoi doivent concourir l’action publique et le comportement des détenteurs de capitaux, mais pas seulement. Des formes d’entente entre entreprises aux activités aussi bien concurrentes que complémentaires sont nécessaires qui doivent faire l’objet de l’attention des autorités de la concurrence qui doivent en apprécier la pertinence au regard de l’objectif d’innovation. Il devrait en être de même pour les aides publiques.

Si un tel scénario pouvait prévaloir, l’économie serait maintenue dans un corridor de stabilité. Une inflation modérée pourrait perdurer jusqu’à ce que les nouvelles capacités de production deviennent opérationnelles. L’excès de l’épargne sur l’investissement pourrait être résorbé. Une hausse progressive du taux d’intérêt serait en phase avec la hausse du taux de croissance elle-même associée à une hausse des profits tirés des investissements à long terme.

L’Union Européenne est confrontée à une difficulté spécifique dans la mesure où les effets structurels des tensions inflationnistes varient d’un pays à l’autre alors que l’exigence de convergence est plus forte que jamais. Non seulement la Banque Centrale Européenne doit prévenir les différences de taux d’intérêt entre les pays membres de la zone euro, mais un plan budgétaire commun visant à soutenir l’investissement doit pouvoir être mis en place de même qu’il faut envisager des avancées dans les domaines bancaire et financier.

Conclusion

Mieux gérer la poussée inflationniste requiert d’échapper aux dichotomies entre inflation par la demande et inflation par l’offre, entre inflation temporaire et inflation durable dont le défaut est de faire fi des transformations structurelles et des déséquilibres sectoriels dans la genèse et le développement des tensions inflationnistes. Prendre ainsi le contrepied d’une analyse trop exclusivement macroéconomique conduit à se garder de politiques globales restrictives, notamment monétaires, et à accepter la complexité d’un phénomène auquel il importe de répondre en mobilisant plusieurs instruments tant au niveau macro que microéconomique : one size does not fit all. L’objectif est de résorber les déséquilibres sectoriels et de maintenir l’économie dans un corridor de stabilité en donnant aux entreprises les moyens de s’adapter aux nouvelles donnes. Gouvernance des entreprises, organisation et réglementation du système financier, politique industrielle et politique de la concurrence, gestion budgétaire entrent en jeu en vue de soutenir les investissements à long terme porteurs de mutations technologiques[13]. À défaut d’une transition réussie, qui réduirait la dispersion des déséquilibres de marché et maintiendrait l’inflation à un niveau modéré, le risque est réel de voir l’économie osciller entre une envolée du taux d’inflation et une forte récession induite par des politiques restrictives, et l’Union Européenne osciller entre divergence et convergence de performances nationales indexées sur les capacités d’adaptation aux changements structurels.


[1] Sur ce point voir N. Georgescu-Roegen, 1976, « Structural Inflation Lock and Balanced Growth » in Energy and Economic Myths, New York, Pergamon Press.

[2] Sur ce point voir D. Heymann et A. Leijonhufvud, 1995), High Inflation, Oxford, Oxford University Press

[3] M. Friedman, 1968, « The Role of Monetary Policy », American Economic Review, n° 58, pp. 1-17.

[4] Voir sur ce point A. Leijonhufvud, 1981, « Costs and Consequences of Inflation » in Information and Coordination, Oxford, Oxford University Press, p. 256-261.

[5] Voir sur ce point R. J. Gordon, 2015, « Secular Stagnation : A Supply-Side View », American Economic Review, vol. 105, n° 5, pp. 54-59. L. H. Summers, 2015, « Demand Side Secular Stagnation », American Economic Review, vol. 105, n° 5, pp. 60-65.

[6] La situation de 2021 est documentée dans « Supply Bottlenecks: Where, Why, How Much, and What Next ? » IMF Working Paper, European Department, WP/22/31.

[7] De fait il existe deux types de marchés, les marchés à prix fixes sur lesquels les stocks effectifs sont inférieurs ou supérieurs aux stocks désirés et garantissent la relative viscosité des prix et les marchés de matières premières industrielles ou agricoles à prix flexibles sur lesquels les stocks effectifs incluant les stocks des négociants sont égaux aux stocks désirés ce qui explique la forte volatilité. Voir sur ce point J. R. Hicks,1974, The Crisis in Keynesian Economics, Oxford, Blackwell.

[8] Cette analyse a été développée dans les années 1970 par J. Tobin (1972), Inflation and Unemployment, American Economic Review, n° 62, pp. 1-18) et J.-P. Fitoussi (1973), Inflation, équilibre et chômage, Paris, Cujas.

[9] La poussée d’inflation aux États-Unis a entraîné la Réserve fédérale à augmenter en mars, pour la première fois depuis 2018, son taux directeur et à annoncer d’autres augmentations dans un futur proche sans craindre un ralentissement excessif de l’économie, ni une correction forte sur les marchés financiers.

[10] Voir sur ce point X. Ragot et alii, « Guerre en Ukraine : quels effets à court terme sur l’économie française ? », OFCE Le Blog, 2022.

[11] La notion d’engagement se substitue ici à celle de contrôle des managers exécutifs conformément à l’analyse développée par C. Mayer, 2013, Firm Commitment, Why the Corporation Is Failing Us and How to Restore Trust in It, Oxford, Oxford University Press.

[12] Voir sur ce point J.-L. Gaffard et J.-P. Pollin, 1988, « Réflexions sur l’instabilité des économies monétaires », Revue d’Économie Politique, vol. 98, n° 5, pp. 599-614.

[13] Cet ensemble de questions est traité dans J.-L. Gaffard, M. Amendola et F. Saraceno, 2020, Le temps retrouvé de l’économie, Paris, Odile Jacob.




Compte rendu du séminaire « Théorie et économie politique de l’Europe », Cevipof-OFCE, séance 2 – 11 février 2022

Intervenants : Olivier COSTA (Cevipof), Francesco MARTUCCI (Université Paris 2) et Xavier RAGOT (OFCE)

Plan de relance européen et gouvernance économique de l’UE

Le séminaire « Théorie et économie politique de l’Europe », organisé conjointement par le Cevipof et l’OFCE (Sciences Po), vise à interroger, au travers d’une démarche pluridisciplinaire systématique, la place de la puissance publique en Europe, à l’heure du réordonnancement de l’ordre géopolitique mondial, d’un capitalisme néolibéral arrivé en fin du cycle et du délitement des équilibres démocratiques face aux urgences du changement climatique. La théorie politique doit être le vecteur d’une pensée d’ensemble des soutenabilités écologiques, sociales, démocratiques et géopolitiques, source de propositions normatives tout autant qu’opérationnelles pour être utile aux sociétés. Elle doit engager un dialogue étroit avec l’économie qui elle-même, en retour, doit également intégrer une réflexivité socio-politique à ses analyses et propositions macroéconomiques, tout en gardant en vue les contraintes du cadre juridique.



Réunissant des chercheurs d’horizons disciplinaires divers, mais également des acteurs de l’intégration européenne (diplomates, hauts fonctionnaires, prospectivistes, avocats, industriels etc.), chaque séance du séminaire donnera lieu à un compte rendu publié sur les sites du Cevipof et de l’OFCE.

* * *

La perspective économique (Xavier Ragot)

Xavier Ragot, président de l’OFCE, expose l’hypothèse selon laquelle l’inflexion de la gouvernance économique de la zone euro de 2015 ouvre un nouveau paradigme de la coordination par les institutions.

Du début des années 2000 jusqu’au tournant de 2015, la coordination économique de la zone euro relevait essentiellement de la règle. De la violation en 2003 des règles budgétaires européennes par la France et Allemagne à la crise des dettes souveraines du début de la décennie 2010, la gouvernance de la zone euro connaît un processus de complexification des règles de coordination, avec l’apparition de la notion d’output gap, puis l’adoption des dispositifs du two pack, du six pack et du traité budgétaire (traité sur la stabilité, la coordination et la gouvernance -TSCG) dont découle l’inscription des règles budgétaires européennes – à commencer par la « règle d’or » qui interdit tout déficit structurel supérieur à 0,5% du PIB – dans les constitutions nationales (la France optant pour une loi organique).

Le bilan du résultat économique de cette coordination par les règles (austérité généralisée de la zone euro et divergence avec la zone nord-américaine) a poussé la Commission européenne à adopter une nouvelle interprétation du Pacte de stabilité qui de facto modifie le cadre réglementaire budgétaire européen[1]. En adoptant une lecture flexible du Pacte de stabilité, la Commission européenne se donne à elle-même une marge substantielle d’interprétation du Pacte, ce qui l’autorise à intégrer dans sa panoplie la notion d’investissement (plans d’investissement) et les politiques de soutien à la demande. D’autre part s’engage un processus d’institutionnalisation de la coordination de la zone euro, avec la création du Comité budgétaire européen (European Fiscal Board), du Mécanisme européen de stabilité (MES), les conseils nationaux des finances publiques (en France, le Haut conseil des finances publiques), le projet SURE de réassurance des systèmes nationaux d’assurance-chômage, le « plan batteries » etc. La zone euro connaît une véritable dynamique de surinstitutionnalisation : elle passe d’une coordination par les règles à une coordination par les institutions – ce que d’aucuns analysent comme une victoire de la conception française. Sauf que ce nouveau paradigme de la coordination par les institutions, qui fractionne les responsabilités de la coordination en une pluralité d’acteurs institutionnels, n’a pas été pensé dans ses conséquences systémiques. « Aujourd’hui, on a des institutions sans pensée », pourrait-on dire.

Cela appelle à une prise de recul pour penser la nouvelle architecture de coordination de la zone euro – plutôt que de se focaliser sur ses implications concrètes. Le rôle de l’économiste est alors d’identifier les déséquilibres structurels qui nécessitent des efforts institutionnels : quelle sont les institutions minimales pour assurer la survie de la zone euro ? Certains avancent l’idée d’un budget (car il ne saurait y avoir de monnaie sans budget, de zone monétaire sans transferts budgétaires), d’où le plan de relance européen – et ses transferts inédits au profit de l’Italie notamment. Sauf que le budget est un élément d’économie politique, mais pas d’économie. Une autre approche consiste à penser la zone euro sans transferts massifs entre pays, grâce à un budget contra-cyclique. En effet, sur le plan macroéconomique, l’Italie, à l’économie en voie de nécrose (déclin structurel de sa productivité) mais jouissant d’une balance commerciale positive soutenue par un secteur exportateur solide, ne nécessite pas en soi, sur un plan strictement économique, de renflouement budgétaire. Les transferts massifs du plan de relance européen vers l’Italie obéissent ainsi à une logique politique (risque populiste), mais pas économique. Quant à la France, à la balance commerciale structurellement négative, elle souffre – pour partie – de la grande modération salariale allemande, ce qui pose la question d’une coordination par les institutions des marchés du travail européens.

La perspective juridique (Francesco Martucci)

Francesco Martucci, professeur de droit public à l’Université Paris Panthéon-Assas, partage l’idée que nous serions passés d’une discipline par les règles à une discipline par les institutions, avec l’apparition d’un nouveau tournant en 2020-21, à la suite du tournant de 2015. Dès les années 2010, la tendance à l’institutionnalisation a été renforcée par les modifications apportées au pacte de stabilité, à commencer par l’internalisation de la règle disciplinaire européenne avec le pacte budgétaire (TSCG).

D’un point de vue juridique, on reste à un degré de normativité faible (avec des règles d’objectifs) ce qui, paradoxalement, conduit à renforcer le rôle de la Cour de justice de l’Union européenne (CJUE). Au début de la troisième phase, la Cour de justice n’a que peu de prises. Son arrêt de 2004 a ainsi laissé une large marge d’appréciation aux institutions de l’UE dans la mise en œuvre des règles budgétaires européennes[2]. S’il revient de jure au Conseil de décider, c’est de facto la Commission européenne qui est l’acteur essentiel, avec l’Eurogroupe. Le régime juridique budgétaire européen s’est progressivement complexifié au fil des ajustements apportés en réponse aux crises et difficultés, avec le Semestre européen censé donner un certain cadre à un ensemble certes disparate, mais fondé sur la discipline budgétaire par le droit (article 126 TFUE).

Après les crises des années 2010, la Cour de justice a choisi un rôle décisif en libérant le choix politique de la contrainte juridique. Si celle-ci rappelle l’objectif supérieur de la stabilité au moyen de la discipline par le marché (articles 123 et 125 TFUE), elle a avalisé la possibilité d’une assistance financière et d’achats de titres de dettes par la Banque centrale européenne (BCE) sur le marché secondaire[3]. Les protestations de la Cour constitutionnelle allemande à l’encontre de ce qu’elle estime être un dévoiement des traités européens (la CJUE n’aurait pas suffisamment contrôler les mesures « non conventionnelles » de la BCE au regard des limites fixées dans les traités)[4] n’auront finalement pas débouché sur une crise constitutionnelle. Le programme « PSPP » (Programme d’achat de titres publics) de la BCE sera jugé in fine valide par la Cour constitutionnelle allemande, après que la BCE a fourni des éléments de justification de sa politique monétaire devant le Bundestag[5]. De ce tableau d’ensemble ressort l’idée que la CJUE retient la solution d’une règle d’habilitation, en lieu et place d’une règle de limitation des choix de politique monétaire.

Quant au plan de relance européen, et plus spécifiquement la facilité pour la reprise et la résilience qui prévoit des transferts sous forme de subventions aux montants inédits, il faut souligner le nouveau fondement juridique de l’article 122 TFUE, c’est-à-dire le principe de solidarité entre États membres cette fois-ci explicitement affirmé[6]. Plus encore, la base juridique de la facilité pour la reprise et la résilience est l’article 175 TFUE, c’est-à-dire la politique de cohésion économique, sociale et territoriale – qui s’applique ici à l’échelle nationale. Si les sommes allouées au titre de subventions ne sont finalement pas si énormes (rapportées au PIB de l’UE), le changement de paradigme est indéniable.

La perspective politiste (Olivier Costa)

Olivier Costa, directeur de recherche au Cevipof, souligne trois aspects du plan de relance européen au prisme de transformations plus larges. Premièrement, l’intégration européenne s’opère principalement au fil des crises – même si cela a toujours été plus ou moins le cas, à l’exception notable de l’Acte unique européen ou du projet de traité constitutionnel européen. L’intégration européenne suit alors une logique de subsidiarité : les responsables politiques n’activent le niveau européen qu’en cas de nécessité, sous la pression des événements, et toujours un peu à contrecœur. Ainsi, les multiples projets de transferts de compétences vers l’UE, qui remplissent les tiroirs des think tanks et des administrations, ne sont mis en œuvre qu’à la faveur d’un besoin de répondre à une crise (financière, sanitaire, géopolitique…). Il en va ainsi a fortiori pour les sujets qui touchent au cœur des compétences nationales, comme la compétence budgétaire. La crise du Covid-19, à l’instar des crises précédentes, fait sauter certains verrous « psychologiques » en matière budgétaire et rend, par exemple, possible le chemin vers une dette mutualisée.

On parle alors de « moment hamiltonien », en dressant le parallèle avec l’histoire des débuts des Etats-Unis d’Amérique, quand la confédération américaine se mue en fédération au travers de la création d’une dette fédérale, d’un trésor et d’une citoyenneté fiscale fédérale. Avec le plan de relance européen, l’UE semble accéder à l’union de transferts fondée sur la solidarité, ce qui engagerait en toute logique un renforcement des pouvoirs du Parlement européen. Mais au-delà de l’enthousiasme qui entoure le plan de relance européen, celui-ci est-il réellement le signe d’un moment hamiltonien pour l’Europe ou bien un instrument fonctionnel et éphémère pour résoudre une crise majeure ? Les arguments en faveur d’un moment hamiltonien sont les suivants : la logique d’effet-cliquet selon laquelle les nouveaux acquis se pérennisent ; l’évolution de l’opinion publique, qui ne perçoit plus l’UE comme la source de l’austérité mais comme une entité qui distribue de l’argent selon une logique de solidarité et d’investissement, au moyen de subventions aux montants inédits ; le Green Deal qui amorce une logique de politique industrielle européenne longtemps attendue. Mais des contre-arguments existent : le plan de relance n’aurait été adopté que pour surmonter des difficultés techniques (notamment les limites juridiques posées par la Cour constitutionnelle allemande, qui contraignent l’action de la BCE) ; l’idée de ressources fiscales propres est un vieux serpent de mer ; le plan de Hamilton (l’Assumption Plan) concernait la reprise de l’ensemble des dettes de guerre passées des Etats fédérés, alors que le plan de relance européen n’a trait qu’à des dettes futures, laissant inchangées le niveau actuel d’endettement (et les écarts préoccupants en la matière) des Etats membres de l’UE ; les volumes budgétaires du plan de relance européen demeurent insuffisants pour espérer produire un véritable effet contra-cyclique, à la différence du gigantesque plan américain et des plans nationaux des Etats membres de l’UE.

Deuxièmement, l’UE démontre sa capacité à faire primer la volonté politique sur le droit, même si l’habillage de cette volonté reste juridique. L’intégration européenne a, depuis l’origine, et parce qu’une intégration proprement politique n’était pas envisageable, procédé par le droit : il s’agissait de conduire des politiques essentiellement économiques au moyen d’instruments essentiellement juridiques, pour servir un projet fondamentalement politique (intégrer le continent), qu’on ne pouvait assumer comme tel. Le plan de relance européen illustre une nouvelle fois la plasticité du droit européen qui s’adapte aux exigences politiques du moment. L‘UE, qui était réputée ne pas pouvoir s’endetter, le peut soudainement. Et quand il n’est pas possible d’agir dans un cadre strictement communautaire, l’UE prête en quelque sorte ses institutions à des initiatives intergouvernementales, pour développer des politiques qui ne sont pas à proprement parler des politiques de l’UE. Ainsi, on préserve une sorte d’illusion d’unité institutionnelle européenne, en attendant de pouvoir procéder à un travail d’unification juridique – comme ce fut le cas avec le traité de Lisbonne (2007) qui met fin à la structure en trois piliers. Le droit joue clairement ici le rôle d’instrument du politique.

Troisièmement, l’UE investit de plus en plus le terrain de la politique de puissance, avec l’idée qu’elle doit s’occuper de diplomatie et de défense. Ursula von der Leyen annonçait lors de sa prise de fonction que sa Commission serait « géopolitique ». En l’espace de quelques années, la sémantique européenne a intégré les notions d’autonomie stratégique et de souveraineté européenne. Cette mue de l’UE comme acteur stratégique constitue une inflexion substantielle vis-à-vis de l’esprit initial du projet d’intégration qui mettait à distance la dimension de puissance. Il faut dire que depuis, l’UE a dû faire le constat que ses valeurs, qu’elle considère comme universelles, ne se sont pas universalisées, et qu’elle doit donc défendre ses valeurs face aux autres acteurs géopolitiques. Ainsi, le plan de relance européen intègre pleinement cette dimension de politique de puissance en fléchant les fonds vers les secteurs stratégiques, cruciaux pour l’autonomie de l’Union (numérique, énergie, recherche…).

Cette nouvelle politique de puissance implique également une politique d’identité, car un acteur ne peut être stratégique sans définir son identité et affermir le sentiment d’un destin commun. Cette évolution est, elle aussi, à rebours de l’histoire de l’intégration européenne. Mais qu’est-ce que l’« européanité » ? Celle-ci se heurte à la difficulté de s’affirmer tant au niveau international, du fait du poids du remord colonial, qu’au niveau intra-européen, du fait du poids des identités nationales des Etats membres, et de la diversité des langues, des cultures, des perceptions. La Conférence sur l’avenir de l’UE vise à construire ce sentiment d’identité commune, en demandant aux citoyens de réfléchir aux valeurs et objectifs de l’Union. La nomination du grec Margaritis Schinas au poste de vice-président de la Commission européenne chargé des questions migratoires et de la promotion du mode de vie européen renvoie quant à elle à l’idée que l’affirmation d’une identité européenne passe par un contrôle assumé, voire une fermeture, des frontières de l’Union.

En l’absence de peuple européen, il est difficile d’affirmer l’Europe en tant que puissance. Parmi les solutions à cette absence et à la robustesse des identités nationales, qui ne se sont pas fondues dans un tout européen comme certains l’espéraient et ne le feront pas, l’idée de patriotisme constitutionnel européen suscite un intérêt renouvelé. Elle postule que l’attachement à des institutions, des valeurs et des objectifs partagés est à même de produire l’assise de légitimation nécessaire à l’affirmation de l’Union comme projet politique et comme puissance. La question de la conditionnalité du plan de relance européen en matière de respect des valeurs européennes, avec le bras de fer engagé entre Bruxelles, d’une part, et la Hongrie et Pologne, d’autre part, participe pleinement de ce patriotisme constitutionnel européen.

Les trois dimensions qui caractérisent l’évolution de l’intégration européenne au cours de cette dernière décennie sont ainsi la politisation des enjeux européens, la souveraineté internationale et l’identité européenne.

S’ensuit une discussion avec le public qui est publiée dans le compte rendu complet sous https://www.ofce.sciences-po.fr/seminaires/seminaires_cevipof.php


[1] Commission européenne, Utiliser au mieux la flexibilité offerte par les règles existantes, 13 janvier 2015, COM(2015) 12 final, <https://ec.europa.eu/commission/presscorner/detail/fr/IP_15_3220>.

[2] Arrêt de la CJUE du 13 juillet 2004, Commission c/ Conseil, C-27/04.

[3] Arrêt de la CJUE du 11 décembre 2018, Weiss, C-493/17.

[4] Arrêt de la Cour constitutionnelle allemand du 5 mai 2020.

[5] Ordonnance de la Cour constitutionnelle allemande du 29 avril 2021.

[6] Article 122 TFUE : « 1. Sans préjudice des autres procédures prévues par les traités, le Conseil, sur proposition de la Commission, peut décider, dans un esprit de solidarité entre les États membres, des mesures appropriées à la situation économique, en particulier si de graves difficultés surviennent dans l’approvisionnement en certains produits, notamment dans le domaine de l’énergie. 2. Lorsqu’un État membre connaît des difficultés ou une menace sérieuse de graves difficultés, en raison de catastrophes naturelles ou d’événements exceptionnels échappant à son contrôle, le Conseil, sur proposition de la Commission, peut accorder, sous certaines conditions, une assistance financière de l’Union à l’État membre concerné. Le président du Conseil informe le Parlement européen de la décision prise. »




Les marchés financiers prédisent-ils les récessions ?

par Giovanni Ricco

Les acteurs des marchés financiers,
collectivement, possèdent-ils une sagesse particulière quant au moment où les
économies risquent de tomber en récession ? Nous avons examiné cette question
dans un article préparé pour la conférence à la Brookings Institution[1]. Nos
résultats suggèrent que la réponse est : « probablement pas ». En fait,
les variables financières ont un pouvoir prédictif très limité pour les
récessions.



Après la Grande Récession, et encore une fois avec la crise de la COVID-19,
il y a eu un intérêt croissant pour comprendre la relation entre l’accumulation
de fragilité financière et le cycle économique. N’ayant pas réussi à prédire les
krachs, la profession économique a essayé de comprendre ce qui manquait dans
les modèles macroéconomiques et économétriques standards et quels étaient les
principaux indicateurs de stress sur les marchés financiers qui peuvent aider à
prévoir les crises et à identifier l’accumulation de risques macroéconomiques.

En fait, dans une contribution très importante, Adrian et al. (2018) ont proposé l’évaluation de la distribution
prédictive du PIB pour définir le concept de croissance à risque, défini comme la valeur de la croissance du PIB
au cinquième centile inférieur de la répartition de la croissance prévue, conditionnée
à un indice de stress financier[2].  Ce concept a été adopté par de nombreuses institutions
dans plusieurs pays pour surveiller les risques (voir, par exemple, Prasad et al., 2019, pour une description de
l’utilisation de cette méthode au FMI).

Clairement, les marchés financiers et l’économie réelle (la production de
biens et de services) interagissent. Leurs mouvements sont fortement corrélés
et les indicateurs financiers peuvent, bien entendu, fournir des informations
utiles sur les conditions économiques actuelles. Ils reflètent également les
attentes des acteurs du marché quant à la direction de l’économie réelle.

La question spécifique que nous avons examinée dans notre document de
travail « When is
Growth at Risk ?
 » (Quand la croissance est-elle menacée ?),
un article préparé pour la conférence à la Brookings Institution, est de savoir
si les indicateurs financiers fournissent un pouvoir prédictif supplémentaire, en
plus des indicateurs de l’économie réelle tels que les enquêtes auprès des
directeurs d’achat des entreprises. Si oui, la sagesse des marchés pourrait
être exploitée par les décideurs pour anticiper et se préparer à une crise
macroéconomique.

L’article évalue empiriquement la relation potentiellement non linéaire
entre les indicateurs financiers et la distribution de la croissance future du PIB,
à la fois à très court terme (un trimestre) et à moyen terme (quatre
trimestres), en utilisant un riche ensemble de variables macroéconomiques et
financières couvrant 13 économies avancées. Tout d’abord, nous évaluons les
performances hors échantillon, y compris un exercice en temps réel basé sur un
modèle non paramétrique flexible. Ensuite, nous utilisons un modèle
paramétrique pour estimer les moments de la distribution du PIB conditionnel à
des variables financières et pour évaluer leur l’incertitude d’estimation dans
l’échantillon.

Notre conclusion générale est pessimiste : les moments autres que la
moyenne conditionnelle sont mal estimés et aucun des prédicteurs que nous
considérons ne fournit un avertissement avancé, robustes et précis des risques
extrêmes ou toute autre caractéristique de la distribution de la croissance du
PIB autre que la moyenne. En particulier, les variables financières contribuent
peu à de telles prévisions distributionnelles, au-delà des informations
contenues dans les indicateurs macroéconomiques.

À titre d’exemple, la figure ci-dessus montre un exercice au cours des
premiers mois de la crise de la COVID-19 pour les États-Unis. Nous
conditionnons nos prédictions sur les informations financières disponibles à trois
dates différentes : les premiers jours ouvrés de février, mars et avril 2020. À
ce moment-là, aucun des indicateurs de cycle relatifs à la période de blocage
étaient disponibles jusqu’à fin avril. Cependant, les reportages et les
discussions politiques sur le virus étaient endémiques à partir de janvier
2020, et cette information aurait pu potentiellement être reflétée dans le prix
des actifs financiers, les enquêtes auprès des entreprises et des
consommateurs, etc.

Les graphes montrent que le modèle avec informations financières (à droite) commence à signaler la probabilité d’une récession en avril, tandis que le modèle contenant uniquement des informations macroéconomiques (à gauche) ne rend pas compte de la détérioration des conditions macroéconomiques. Pendant que les indicateurs macroéconomiques tardent à arriver, les variables financières ne sont qu’un peu plus rapides et en fait n’ont commencé à clignoter que fin février, quelques jours à peine avant que des mesures politiques dramatiques ne soient introduites dans plusieurs États américains.

La leçon que nous tirons de nos résultats est que les marchés financiers n’anticipent pas les récessions et ils évaluent le risque seulement une fois qu’ils le voient. Cet aveuglement suggère que les informations relatives à la trajectoire à court terme de l’économie sont rapidement accessibles à tous, mais des événements rares, tels que les récessions, sont fondamentalement imprévisibles ou en tout cas, imprévus.

Le message adressé aux décideurs politiques et aux prévisionnistes
économiques des banques centrales et d’ailleurs est qu’ils ne peuvent pas
utiliser mécaniquement les indicateurs financiers pour fournir un signe
d’alerte précoce et fiable d’une récession. Les décideurs devraient toujours
prêter attention aux variables financières, même si elles offrent
malheureusement peu de pouvoir prédictif de risque de récession – et ils
devraient chercher à limiter l’accumulation de fragilités financières puisque
ces fragilités amplifient probablement les dommages causés à l’économie réelle
une fois que les récessions se produisent.


[1] Hasenzagl, Thomas, Mikkel Plagborg-Møller, Lucrezia Reichlin et
Giovanni Ricco, 2020, « When is Growth at Risk?  », Brookings Papers on
Economic Activity
, printemps.

[2] Adrian Tobias, Nina Boyarchenko et Domenico Giannone, 2019, « Vulnerable Growth », American Economic Review, vol. 109,
n° 4, pp. 1263-89.




Que nous apprennent les données disponibles brutes sur l’épidémie de Covid-19 en France ?

Raul
Sampognaro

Afin d’établir une
stratégie pour faire face à l’épidémie de Covid-19, le décideur public
nécessite des données pour prendre des décisions. Or nombre des paramètres,
pourtant indispensables, ne sont pas directement observables. Selon Santé
Publique France, au 25 avril à 14 heures, il y avait 124 114 cas détectés
de Covid-19 en France dont 87 524 cas ayant abouti à une hospitalisation
et 22 614 décès seraient liés à la pathologie. Selon ces données brutes
seulement 0,2 % de la population aurait été contaminée à ce jour par le
virus, plus de 7 patients sur 10 nécessiteraient une hospitalisation et
quasiment 2 malades sur 10 décèderaient. Pour de bonnes raisons, personne
n’utilise les données brutes de cette façon aussi basique : les cas détectés le
sont parmi les personnes affichant les symptômes les plus graves, négligeant ainsi
un grand nombre de cas asymptomatiques et bénins, ce qui entraîne un biais
statistique qui empêche de généraliser les résultats à l’ensemble de la
population.



La science économique a
développé des outils pour traiter des données générées de façon non aléatoire
et même pour tirer des conclusions lorsque les données nécessaires sont tout
simplement inexistantes. Charles Manski[1]
et Francesca Molinari ont publié un article
où ils essayent de borner des paramètres clés de l’épidémie, exclusivement à
partir des données disponibles. Pour ceci, ils utilisent l’approche de
l’identification partielle
, qui vise à établir des résultats fondés sur les
données disponibles en formulant le moins d’hypothèses possibles. Dans ce post
de blog, la méthodologie proposée par les auteurs est appliquée aux données françaises.

Deux sources
d’incertitude : la qualité des tests et la stratégie de test

Partant des définitions
basiques des probabilités, Manski et Molinari donnent la formule exacte qui
permet de calculer la probabilité pour une personne d’être contaminée (voir encadré).
Hélas certaines des données nécessaires pour réaliser le calcul précédant sont
inconnues. Deux facteurs majeurs empêchent d’utiliser directement les données
brutes publiées par les autorités sanitaires :

  • La performance des tests de
    diagnostic et plus particulièrement l’ampleur des faux-négatifs.
  • La stratégie de tests qui empêche
    de tirer des conclusions directes sur la part de la population contaminée qui
    n’a pas été testée à partir des taux de positivité des tests réalisés.

Ces deux sources
d’incertitude sont de nature différente. La première source est en rapport avec
la nouveauté du virus. Elle ne peut être levée que par la recherche médicale.
Manski et Molinari considèrent que cette incertitude est bornée par la
littérature médicale. La part des faux-négatifs s’établirait entre 10 % et
40 % selon les études auxquelles ils ont eu accès. La deuxième source
d’ignorance est en lien avec la stratégie de test. En règle générale, les tests
ont été réservés aux malades affichant les symptômes les plus graves. De ce
fait, la probabilité d’être contaminé est plus élevée chez les personnes
testées que dans la population n’ayant pas été testée. Si un échantillon
représentatif de la population avait été testé, cette source d’incertitude
pourrait être éliminée.

Selon Manski et Molinari, la part de la population ayant été contaminée par le Covid-19 peut être circonscrite à l’aide des données brutes, les bornes sur le nombre de faux-négatifs et par l’hypothèse très générale posée sur la stratégie de test disant que la probabilité d’être contaminé est supérieure chez les personnes testées aux individus non testés[2] :

Il est très important de remarquer que ces intervalles donnent toutes les valeurs du paramètre d’intérêt compatibles avec les données brutes disponibles et les maigres hypothèses posées. Tout chiffre situé à l’intérieur de l’intervalle est également compatible avec les données brutes.

Les méthodes de
l’identification partielles sont peu utiles pour connaître la part de la
population contaminée à ce jour en France…

Selon le dernier point
épidémiologique hebdomadaire
publié par Santé Publique France, au 19 avril,
457 287 tests avaient été réalisés en milieu hospitalier depuis le 24
février. Par ailleurs,  141 298
tests avaient été réalisés en
ville
. Ainsi, près de 600 000 tests auraient été réalisés depuis le
début de l’épidémie (soit un peu moins de 1 % de la population).

Les données disponibles à
ce jour sont très peu informatives sur l’étendue de la population qui a déjà
été contaminée par le virus. Au 19 avril, les données disponibles sont
compatibles avec une part de la population contaminée comprise entre 0,2 % et
51,4 %. La largeur de l’intervalle des valeurs du paramètre compatible
avec les données suggère clairement que l’on ne peut pas trancher exclusivement
à l’aide de celles-ci (tableau 1).

En grande partie, la
largeur de cet intervalle s’explique par le faible nombre de tests réalisés.
Par exemple, si l’on néglige l’incertitude portant sur le taux de faux-négatifs
et l’on choisit une valeur centrale de 25 %, l’intervalle serait plus resserré
mais toujours peu informatif : la part de la population contaminée pourrait
être entre 0,3 % et 39,2 %.

… mais peuvent donner des bornes plus resserrées pour les paramètres de dangerosité de la maladie…

Avec les données publiées par Santé Publique France il est aussi possible de borner certains paramètres clés sur la dangerosité du virus : (i) la part des cas nécessitant une hospitalisation (ii) la part des cas nécessitant de soins de réanimation et (iii) la part des contaminés qui décèdent. D’une part, la part des cas graves dans la population est directement observable tandis que d’autre part, la proportion de la population contaminée peut être bornée par les résultats – même peu informatifs − de la section antérieure. Le ratio entre les cas graves observés et la borne maximale (respectivement minimale) inférée de la population contaminée donne la borne inférieure (resp. maximale) de la part des cas graves de Covid-19 parmi les personnes contaminées.

Dans
ce contexte, la part des cas de Covid-19 nécessitant une hospitalisation serait
comprise entre [0,2 % et 51 %] ; celle des cas nécessitant de soins de
réanimation serait comprise [0,04 % et 8,9 %] et la probabilité de décès serait
comprise entre [0,06 % et 12 %]. Il est intéressant de noter que même les
bornes supérieures de ces intervalles sont bien plus basses par rapport aux
données brutes observées : 73 % des cas détectés se sont soldés par une
hospitalisation, 13 % par un passage en réanimation et 17 % par un décès.

Si
l’on utilise les données de la région PACA[3],
où une part plus importante de la population a été testée (2,6 % de la
population), les intervalles pour les paramètres de dangerosité du Covid-19
sont nettement plus étroits : entre 0,2 % 
et 20 % des cas aboutiraient à une hospitalisation ; entre 0,04 %
et 3,4 % des cas nécessiteraient de soins intensifs et entre 0,02 % et 1,9 %
des cas seraient mortels. Ces résultats, obtenus sur une population qui a été
plus largement testée, sont compatibles avec les résultats de l’étude
épidémiologique de l’Institut Pasteur citée-ci-dessus, qui repose sur des
hypothèses plus fortes.

…notamment lorsqu’on
élargit la vue aux pays ayant réalisé le plus de tests

Avec
son statut de pandémie, de nombreuses données sont largement disponibles pour
de nombreux
pays
. Bien que chaque pays ait des stratégies
de test différentes, la généralité de l’hypothèse posée dans les sections
précédentes permet d’appliquer le cadre d’analyse aux différents pays. Parmi
les 60 pays ayant déjà connu plus de 50 décès liés au Covid-19, la France se
situe à la 29e place en termes de la part de la population testée. Que
nous disent les résultats des pays qui ont le plus testé leur population sur le
degré de létalité de la maladie ?

Au
24 avril, les Émirats arabes unis ont testé 8,2 % de la
population, le Luxembourg 6,1 %, le Portugal et la Norvège 2,9 %, la Suisse 2,8
% et Israël 2,7 %. Tous ces pays ont testé leur population plus largement que
la région PACA. En appliquant les bornes de Manski et Molinari nous pouvons trouver
des bornes supérieures du taux de mortalité des infectés au Covid-19 encore
plus basses que celles qu’on obtient à partir des données françaises, sauf en
Suisse où les données ne permettent pas d’exclure un taux de mortalité allant
jusqu’à 3,15 %. Dans les autres pays de cet échantillon, la part de cas mortels
est en général proche à 1 % (tableau 2). Néanmoins, ces résultats peuvent être expliqués
par les idiosyncrasies locales et doivent être pris avec précaution.

Une meilleure
connaissance de la part des cas asymptomatiques pour réduire l’incertitude

Comme
nous l’avons vu, les données brutes disponibles à ce jour sont insuffisantes
pour pouvoir donner des ordres de grandeur utiles à la décision publique sur
l’étendue de l’épidémie du Covid-19 en France. Malgré cela l’approche de
l’identification partielle fournit des bornes pour les indicateurs de
dangerosité du virus crédibles et utiles. Néanmoins, il est clair qu’une
meilleure connaissance sur la pathologie permettrait de mieux borner les
évaluations. En particulier, une meilleure connaissance concernant la part des
cas asymptomatiques serait particulièrement utile[4].

Heureusement,
en attendant d’avoir des données plus nombreuses, les épidémiologistes
de l’Institut Pasteur
, en modélisant le
mode de diffusion de la maladie, donnent des résultats plus précis : ils
tablent sur un chiffre de 5,7 % de la population française qui aurait déjà été
contaminée par le virus. Dans ce contexte, 0,53 % des contaminés courent un
risque de décès en lien avec le Covid-19, un chiffre en ligne avec nos
évaluations basées sur les pays ayant largement testé leur population.  

Au final trois éléments semblent capitaux pour réduire l’incertitude : développer le nombre de tests avec éventuellement des échantillons aléatoires représentatifs de la population, améliorer la qualité des tests afin de réduire le nombre des faux-négatifs et améliorer nos connaissances sur le virus. Le projet EpiCOV porté par l’Inserm et la Drees semble faire un pas dans la bonne direction et devrait permettre d’améliorer sensiblement notre connaissance sur le Covid-19.

Encadré : La formule de Manski et Molinari pour calculer la part de la population contaminée par le Covid-19 À partir de la formule des probabilités totales et des définitions des probabilités jointes, conditionnelles et marginales, Manski et Molinair donnent la formule qui permettrait de calculer la part de la population contaminée par le Covid-19 :

P(Cd=1)=P(Cd=1|Rd=1).P(Rd=1|Td=1).P(Td=1)+P(Cd=1|Td=0).P(Td=0)+P(Cd=1|Td=1,Rd=0).P(Rd=0|Td=1.P(Td=1)  

On note Cd=1 lorsqu’une personne a déjà été infectée par le virus à une date d et Cd=0 lorsqu’une personne n’a pas été infectée. Les auteurs cherchent à connaître la part de la population ayant été contaminée, qui est égale au niveau individuel à la probabilité d’avoir été contaminé, notée P(Cd=1). Malheureusement, cette grandeur n’est pas directement observable. Par contre les autorités sanitaires fournissent des données qui peuvent informer sur cette grandeur, en particulier les personnes testées (Td=1) et les cas détectés (Rd=1). Trois termes de cette égalité ne sont pas observables : la part des cas détectés qui sont effectivement contaminés (le terme P(Cd=1|Rd=1 )), les auteurs jugent, sur la base de la littérature médicale, que la quasi-totalité les tests positifs sont des vrais positifs alors ce terme ne pose pas de problème dans l’analyse ; la part des personnes contaminées, qui ont été testées mais dont le test a donné un résultat négatif [P(Cd=1|Td=1,Rd=0)], ce terme correspond aux faux-négatifs ; enfin, la part des personnes contaminées, mais qui n’ont pas été détectées faute de test [terme P(Cd=1|Td=0)].


[1]
Dans ces travaux Manski a essayé de faire apparaître l’apport « pur »
des données dans les résultats empiriques en sciences sociales. Pour Manski,
lorsqu’on s’intéresse à un paramètre dans un modèle, les données toutes seules
ne peuvent identifier qu’un intervalle de valeurs compatibles avec les données.
Pour réduire la largeur de cet intervalle, des hypothèses — de
comportement, de forme fonctionnelle, de loi statistique sous-jacente —
peuvent être posées afin de réduire la largeur de l’intervalle. Seulement en
posant une grande quantité d’hypothèses on peut arriver à l’identification
ponctuelle du paramètre. Voir Manski (1995), « Identification Problems in
the Social Sciences », Harvard, 1995, pour une introduction à ses travaux.

[2] Le
lecteur pourra se référer à l’article de Manski et Molinari pour connaître le
détail des calculs, dont la compréhension ne nécessite qu’une connaissance
relativement basique du calcul des probabilités.

[3] Il
aurait été souhaitable de réaliser ce type de travail pour les régions où le
virus a largement circulé (Grand Est, Île-de-France) mais les données
publiées par les ARS de ces régions ne permettent pas de calculer l’ensemble des
données nécessaires pour ce type de calcul.

[4]
Manski et Molinari (2020) fournissent les formules permettant de modifier les
bornes des intervalles lorsqu’on a des évaluations précises de la part de cas
asymptomatiques. Par exemple, on peut utiliser le taux de 17 % de cas
asymptomatiques issu de l’étude de l’Institut Pasteur portant sur un lycée de
Crépy-en-Valois. Dans ce cas, les données publiées par l’Agence Régionale de Santé
de la région PACA suggèrent que la part des cas de Covid-19 nécessitant une
hospitalisation serait au maximum de 16,8 %, celle des cas nécessitant des
soins de réanimation serait au maximum de 2,9 % et celle des cas mortels au
maximum de 1,6 %.




Pourquoi l’inflation européenne est-elle si faible ?

par Stéphane Auray et Edouard Challe

En septembre 2019, la Banque centrale européenne (BCE) annonçait une relance de ses politiques « non conventionnelles », incluant, en sus de l’assouplissement quantitatif (quantitative easing) et des opérations ciblées de refinancement à long terme (targeted long-term refinancing operations, TLTRO), une baisse du taux des facilités de dépôts[i] avec une tranche de monnaie de réserve exonérée des taux négatifs de manière à limiter le coût des réserves pour les banques. Ce nouveau round de politiques accommodantes s’imposait en raison du contexte macroéconomique, marqué par un ralentissement de l’activité en zone euro et un décrochage de l’inflation.



Au début des années 2000, le taux d’inflation oscille autour de 2% et ne connaît que de légères fluctuations jusqu’à 2007 où il atteint son maximum d’avant-crise (voir le graphique 1). Il s’effondre ensuite pendant la « Grande Récession » (2008-2009) puis la crise des dettes souveraines (2011-2013). À ce jour, le taux d’inflation de la zone euro est toujours inférieur à celui d’avant 2008. Au total, entre 1999 (l’année de création de l’euro) et 2019, l’inflation moyenne en zone euro aura été relativement faible (1,7% en moyenne), et tout particulièrement depuis 2009 (1,3% en moyenne). Autrement dit, la BCE ne semble pas avoir atteint son objectif, explicité dès 2003, d’un taux d’inflation des prix à la consommation « inférieur à, mais proche de, 2 % ». Pourquoi cela ?

D’après la théorie économique, la
faiblesse de l’inflation reflète celle des coûts de production, et donc de la
demande agrégée : un niveau de demande faible se traduit par une moindre
tension sur les facteurs de production (travail, capital, énergie, matières
premières, …) et donc, toutes choses égales par ailleurs, une moindre croissance
de leurs prix. La pression concurrentielle conduit alors les entreprises à
répercuter ces faibles coûts sur leurs prix de vente, ce qui engendre une
désinflation des prix. À l’inverse, une expansion économique engendre
mécaniquement des tensions sur les facteurs de production et donc une hausse de
leur coût, laquelle est répercutée sur les prix de vente des entreprises et
fait monter le niveau général des prix. C’est la logique de de la « courbe
de Phillips », qui constitue l’un des blocs fondamentaux de la
macroéconomie monétaire depuis les années 1960. 
Ainsi, lorsque la banque centrale perd le contrôle de l’inflation, c’est
avant tout parce qu’elle a perdu le contrôle de la demande agrégée. De ce point
de vue, les pressions déflationnistes en zone euro ne sont que le reflet de
l’incapacité de la BCE à relancer suffisamment la demande.

Une explication alternative (et plausible)
à la faiblesse de l’inflation est que la BCE parvient à stimuler la demande par
ses politiques accommodantes, mais que la répercussion des variations de la
demande sur les coûts de production, et donc en définitive sur le niveau
général des prix et l’inflation, serait plus faible que par le passé – voire
aurait complètement disparu. Selon les partisans de cette théorie, la « pente
de la courbe de Phillips » serait devenue proche de zéro en zone euro, ce
qui expliquerait la perte de contrôle de l’inflation par la BCE. S’il fait
certes peu de doute que la pente de la courbe de Phillips s’est réduite aux États-Unis
depuis les années 1980, des
travaux empiriques récents conduisent néanmoins à nuancer le constat de
la « mort » de la courbe de Phillips, tant aux États-Unis qu’en zone euro. Une
autre caractéristique de la courbe de Phillips, indépendante de sa pente,
pourrait également expliquer la faiblesse de l’inflation européenne : on
sait depuis la conférence
présidentielle
de Milton Friedman au congrès de 1967 de l’American Economic Assocation  que la courbe de Phillips fait intervenir l’inflation
anticipée, en sus des tensions sur
les coûts de production, comme déterminant de l’inflation réalisée. Donc si
l’inflation anticipée décroche de sa cible alors elle tire vers le bas
l’inflation réalisée, indépendamment
du niveau de la demande. Cette inquiétude est légitime mais elle soulève deux
questions. Tout d’abord, les prévisionnistes
professionnels
régulièrement interrogés par la BCE prévoient une lente remontée
de l’inflation à l’horizon 2025 ; le décrochage des anticipations
d’inflation ne saute donc pas aux yeux. Ensuite, si la pente de la courbe de
Phillips n’est pas nulle, l’effet d’un décrochage des anticipations d’inflation
sur l’inflation réalisée devrait pouvoir être compensé par une relance
suffisamment prononcée de la demande.

Enfin, indépendamment des discussions
autour de la forme de la courbe de Phillips, certains commentateurs avancent
parfois des raisons « structurelles » aux pressions déflationnistes
de la dernière décennie, plutôt que de l’attribuer à la faiblesse de la demande,
ou à la moindre transmission des tensions sur la demande aux coûts. Selon cette
théorie, la pression concurrentielle à laquelle sont soumises les entreprises
se serait intensifiée, notamment en raison de l’ouverture au commerce
international et des nouvelles technologies. Cette concurrence accrue forcerait
les entreprises européennes (et mondiales) à comprimer leurs marges, ce qui
exercerait une pression baissière permanente sur les prix. Ces mécanismes ne
peuvent pourtant pas expliquer la faiblesse de l’inflation en zone euro. En
effet, le prix de vente d’une entreprise est (tautologiquement) le coût
unitaire de production multiplié par le facteur de marge. La pression concurrentielle
peut certes faire baisser le facteur de marge, mais cela ne peut être que très
progressif, et surtout transitoire puisque
le facteur de marge ne peut tomber en dessous de 1 (sans quoi le prix de vente
serait inférieur au coût unitaire de production et l’entreprise aurait intérêt
à fermer). Enfin, et c’est là le plus important, cette baisse graduelle du
facteur de marge devrait pouvoir être compensée par une variation du coût
unitaire de production, dont on vient de voir qu’il dépendait de la demande
agrégée. Ainsi, une banque centrale ciblant un certain niveau d’inflation (ce
qui est le cas de la BCE, ainsi que de la majorité des grandes banques
centrales) devrait en principe pouvoir annuler tout effet de la baisse
tendancielle des marges sur les prix en stimulant suffisamment la demande
agrégée. Tout ceci nous ramène au point de départ : pour comprendre
l’excès de déflation (ou du moins de désinflation) en zone euro, il nous faut
comprendre pourquoi la demande agrégée y est trop faible, et pourquoi la BCE ne
parvient pas à la relancer.

L’origine de la crise économique qui a frappé l’économie mondiale à partir de 2008 est aujourd’hui assez bien comprise. Au départ, un choc financier de grande ampleur a provoqué une explosion des primes de crédit (voir graphique 2), accompagnée, dans un certain nombre de pays, d’une phase de désendettement des ménages (graphique 3). La hausse des primes de crédit limite l’activité des emprunteurs risqués (ménages et entreprises), et le désendettement des ménages freine mécaniquement et durablement leur demande de consommation, tant en biens durables qu’en biens non durables. Par ailleurs, en zone euro, le choc initial de 2008-2009 a été prolongé par la crise des dettes souveraines, laquelle a provoqué une retombée en récession à partir de 2011. Sans remèdes adéquats, les chocs de demande négatifs de ce type ont tendance à s’amplifier d’eux-mêmes car ils font augmenter le chômage, ce qui fait baisser le revenu, la demande de consommation, et ainsi de suite – selon la logique du fameux « multiplicateur keynésien ». Ce faisant, ces chocs entraînent une pression baissière durable sur la production et sur l’inflation.

Selon la théorie (et la pratique) de la politique monétaire conventionnelle, il est à la fois souhaitable et possible de contrer efficacement de tels chocs de demande négatifs : il suffit que la banque centrale ajuste sa « posture » (stance) en penchant de manière suffisamment prononcée contre le vent de la déflation (en baissant ses taux directeurs, qui sont des taux d’intérêt nominaux à court terme). La banque centrale doit alors être suffisamment « réactive » : elle doit faire varier ses taux directeurs (qui sont des taux d’intérêt nominaux) plus de un pour un en réponse aux variations du taux d’inflation, de sorte que le taux d’intérêt réel (c’est-à-dire le taux d’intérêt nominal moins l’inflation) chute lorsque l’inflation baisse, et inversement. C’est seulement sous cette condition que la banque centrale peut stimuler la demande agrégée et donc relever le taux d’inflation à la suite d’un choc de demande négatif (et inversement comprimer la demande lorsque l’inflation est trop élevée). La BCE s’est précisément engagée dans cette politique conventionnelle au début de la crise, en baissant ses différents taux directeurs de plus de 300 points de base en moins d’un an à partir de l’été 2008 ; puis de nouveau à partir de 2009, pour finalement atteindre un taux de 0% sur les opérations principales de refinancement (et -0,5% sur les réserves excédentaires, hors exemption, depuis septembre dernier).

Une fois ce stade atteint, il devient risqué de s’engager en territoire négatif de manière encore plus agressive, notamment en baissant davantage le taux d’intérêt sur les réserves excédentaires, car les banques pourraient en principe massivement demander à la banque centrale la conversion de leur monnaie de réserve (qui est électronique et inscrite au compte de la banque auprès de la banque centrale) en billets de banques physiques, dont la rentabilité nominale est de… 0% ! Rappelons simplement ici qu’un billet ne change pas de valeur nominale au cours du temps. Ainsi, une fois atteinte la « borne zéro » sur les taux d’intérêt, la banque centrale devient « passive » et non plus active car ses taux d’intérêt directeurs (collés à zéro, ou à des valeurs proches de zéro) ne peuvent plus répondre de manière suffisamment prononcée aux variations de l’inflation autour de sa cible. Un cercle vicieux se met alors en place, qui tend à entretenir la faiblesse de la demande agrégée et de l’inflation (cf. graphique 4) : comme le taux d’intérêt nominal ne baisse plus suffisamment à la suite des pressions déflationnistes, celles-ci engendrent une hausse du taux d’intérêt réel (d’après la relation de Fisher), laquelle affaiblit encore plus la demande agrégée (selon logique de la courbe IS). La baisse de la demande renforce les pressions déflationnistes initiales (en raison de la courbe de Phillips), ce qui conduit les agents économiques à anticiper une inflation faible, élève encore davantage le taux d’intérêt réel, et ainsi de suite. C’est pourquoi il est si difficile de redresser l’inflation et ses anticipations dans cette configuration macroéconomique, qui est celle dans laquelle se débat la zone euro depuis déjà un certain nombre d’années. Si les différentes politiques non conventionnelles mises en œuvres par la BCE ont permis de limiter la spirale déflationniste, elles n’ont pu totalement en éliminer les effets.


[i] La
Banque centrale européenne a trois taux directeurs officiels : (i) le taux
sur la facilité de dépôt
, auquel est rémunérée la monnaie de réserve excédentaire
que les banque détiennent sur leur compte auprès de la banque centrale ;
(ii) le taux
sur les opérations principales de refinancement
, auquel se refinancent les
banques, contre collatéral, à échéance d’une semaine; et (iii) le taux
d’intérêt sur les prêts marginaux
, qui est le taux débiteur auquel les
banque peuvent emprunter en urgence et au jour le jour auprès de la BCE.




La désinflation manquante est-elle un phénomène américain uniquement ?

par Paul Hubert, Mathilde Le Moigne

La dynamique de l’inflation après la crise de 2007-2009 est-elle atypique ? Selon Paul Krugman : « si la réaction de l’inflation (ndlr : aux Etats-Unis) avait été la même à la suite de la Grande Récession que lors des précédentes crises économiques, nous aurions dû nous trouver aujourd’hui en pleine déflation… Nous ne le sommes pas. » En effet, après 2009, l’inflation aux Etats-Unis est demeurée étonnamment stable au regard de l’évolution de l’activité réelle. Ce phénomène a été qualifié de « désinflation manquante ». Un tel phénomène s’observe-t-il dans la zone euro ?

En dépit de la plus grande récession depuis la crise de 1929, le taux d’inflation est resté stable autour de 1,5% en moyenne entre 2008 et 2011 aux Etats-Unis, et de 1% en zone euro. Est-ce à dire que la courbe de Phillips, qui lie l’inflation à l’activité réelle, a perdu toute validité empirique ? Dans une note de 2016, Olivier Blanchard rappelle au contraire que la courbe de Phillips, dans sa version originelle la plus simple, reste un instrument valable pour appréhender les liens entre inflation et chômage, et ce en dépit de cette « désinflation manquante ». Il note cependant que le lien entre les deux variables s’est affaibli parce que l’inflation dépend de plus en plus des anticipations d’inflation, elles-mêmes ancrées à la cible d’inflation de la Réserve fédérale américaine. Dans leur article de 2015, Coibion et Gorodnichenko expliquent cette désinflation manquante aux Etats-Unis par le fait que les anticipations d’inflation sont plutôt influencées par les variations des prix les plus visibles, comme par exemple les variations du prix du baril de pétrole. On observe d’ailleurs depuis 2015 une baisse des anticipations d’inflation concomitante à la baisse des prix du pétrole.

La difficulté à rendre compte de l’évolution récente de l’inflation, au travers de la courbe de Phillips, nous a conduits à évaluer, dans un récent article, ses déterminants potentiels et à examiner si la zone euro a également connu un phénomène de « désinflation manquante ». Sur la base d’une courbe de Phillips standard, nous ne retrouvons par les conclusions de Coibion et Gorodnichenko lorsque l’on considère la zone euro dans sa totalité. Dit autrement, l’activité réelle et les anticipations d’inflation décrivent bien l’évolution de l’inflation.

Cependant, ce résultat semble provenir d’un biais d’agrégation entre les comportements d’inflation nationaux au sein de la zone euro. En particulier, nous trouvons une divergence notable entre les pays du nord de l’Europe (Allemagne, France), exhibant une tendance générale à une inflation manquante, et les pays davantage à la périphérie (Espagne, Italie, Grèce) exhibant des périodes de désinflation manquante. Cette divergence apparaît néanmoins dès le début de notre échantillon, c’est-à-dire dans les premières années de la création de la zone euro, et semble se résorber à partir de 2006, sans changement notable au cours de la crise de 2008-2009.

Contrairement à ce qui s’est produit aux États-Unis, il apparaît que la zone euro n’a pas connu de désinflation manquante à la suite de la crise économique et financière de 2008-2009. Il semble au contraire que les divergences d’inflation en Europe sont antérieures à la crise, et tendent à se résorber avec la crise.