Pourquoi l’inflation européenne est-elle si faible ?

par Stéphane Auray et Edouard Challe

En septembre 2019, la Banque centrale européenne (BCE) annonçait une relance de ses politiques « non conventionnelles », incluant, en sus de l’assouplissement quantitatif (quantitative easing) et des opérations ciblées de refinancement à long terme (targeted long-term refinancing operations, TLTRO), une baisse du taux des facilités de dépôts[i] avec une tranche de monnaie de réserve exonérée des taux négatifs de manière à limiter le coût des réserves pour les banques. Ce nouveau round de politiques accommodantes s’imposait en raison du contexte macroéconomique, marqué par un ralentissement de l’activité en zone euro et un décrochage de l’inflation.



Au début des années 2000, le taux d’inflation oscille autour de 2% et ne connaît que de légères fluctuations jusqu’à 2007 où il atteint son maximum d’avant-crise (voir le graphique 1). Il s’effondre ensuite pendant la « Grande Récession » (2008-2009) puis la crise des dettes souveraines (2011-2013). À ce jour, le taux d’inflation de la zone euro est toujours inférieur à celui d’avant 2008. Au total, entre 1999 (l’année de création de l’euro) et 2019, l’inflation moyenne en zone euro aura été relativement faible (1,7% en moyenne), et tout particulièrement depuis 2009 (1,3% en moyenne). Autrement dit, la BCE ne semble pas avoir atteint son objectif, explicité dès 2003, d’un taux d’inflation des prix à la consommation « inférieur à, mais proche de, 2 % ». Pourquoi cela ?

D’après la théorie économique, la
faiblesse de l’inflation reflète celle des coûts de production, et donc de la
demande agrégée : un niveau de demande faible se traduit par une moindre
tension sur les facteurs de production (travail, capital, énergie, matières
premières, …) et donc, toutes choses égales par ailleurs, une moindre croissance
de leurs prix. La pression concurrentielle conduit alors les entreprises à
répercuter ces faibles coûts sur leurs prix de vente, ce qui engendre une
désinflation des prix. À l’inverse, une expansion économique engendre
mécaniquement des tensions sur les facteurs de production et donc une hausse de
leur coût, laquelle est répercutée sur les prix de vente des entreprises et
fait monter le niveau général des prix. C’est la logique de de la « courbe
de Phillips », qui constitue l’un des blocs fondamentaux de la
macroéconomie monétaire depuis les années 1960. 
Ainsi, lorsque la banque centrale perd le contrôle de l’inflation, c’est
avant tout parce qu’elle a perdu le contrôle de la demande agrégée. De ce point
de vue, les pressions déflationnistes en zone euro ne sont que le reflet de
l’incapacité de la BCE à relancer suffisamment la demande.

Une explication alternative (et plausible)
à la faiblesse de l’inflation est que la BCE parvient à stimuler la demande par
ses politiques accommodantes, mais que la répercussion des variations de la
demande sur les coûts de production, et donc en définitive sur le niveau
général des prix et l’inflation, serait plus faible que par le passé – voire
aurait complètement disparu. Selon les partisans de cette théorie, la « pente
de la courbe de Phillips » serait devenue proche de zéro en zone euro, ce
qui expliquerait la perte de contrôle de l’inflation par la BCE. S’il fait
certes peu de doute que la pente de la courbe de Phillips s’est réduite aux États-Unis
depuis les années 1980, des
travaux empiriques récents conduisent néanmoins à nuancer le constat de
la « mort » de la courbe de Phillips, tant aux États-Unis qu’en zone euro. Une
autre caractéristique de la courbe de Phillips, indépendante de sa pente,
pourrait également expliquer la faiblesse de l’inflation européenne : on
sait depuis la conférence
présidentielle
de Milton Friedman au congrès de 1967 de l’American Economic Assocation  que la courbe de Phillips fait intervenir l’inflation
anticipée, en sus des tensions sur
les coûts de production, comme déterminant de l’inflation réalisée. Donc si
l’inflation anticipée décroche de sa cible alors elle tire vers le bas
l’inflation réalisée, indépendamment
du niveau de la demande. Cette inquiétude est légitime mais elle soulève deux
questions. Tout d’abord, les prévisionnistes
professionnels
régulièrement interrogés par la BCE prévoient une lente remontée
de l’inflation à l’horizon 2025 ; le décrochage des anticipations
d’inflation ne saute donc pas aux yeux. Ensuite, si la pente de la courbe de
Phillips n’est pas nulle, l’effet d’un décrochage des anticipations d’inflation
sur l’inflation réalisée devrait pouvoir être compensé par une relance
suffisamment prononcée de la demande.

Enfin, indépendamment des discussions
autour de la forme de la courbe de Phillips, certains commentateurs avancent
parfois des raisons « structurelles » aux pressions déflationnistes
de la dernière décennie, plutôt que de l’attribuer à la faiblesse de la demande,
ou à la moindre transmission des tensions sur la demande aux coûts. Selon cette
théorie, la pression concurrentielle à laquelle sont soumises les entreprises
se serait intensifiée, notamment en raison de l’ouverture au commerce
international et des nouvelles technologies. Cette concurrence accrue forcerait
les entreprises européennes (et mondiales) à comprimer leurs marges, ce qui
exercerait une pression baissière permanente sur les prix. Ces mécanismes ne
peuvent pourtant pas expliquer la faiblesse de l’inflation en zone euro. En
effet, le prix de vente d’une entreprise est (tautologiquement) le coût
unitaire de production multiplié par le facteur de marge. La pression concurrentielle
peut certes faire baisser le facteur de marge, mais cela ne peut être que très
progressif, et surtout transitoire puisque
le facteur de marge ne peut tomber en dessous de 1 (sans quoi le prix de vente
serait inférieur au coût unitaire de production et l’entreprise aurait intérêt
à fermer). Enfin, et c’est là le plus important, cette baisse graduelle du
facteur de marge devrait pouvoir être compensée par une variation du coût
unitaire de production, dont on vient de voir qu’il dépendait de la demande
agrégée. Ainsi, une banque centrale ciblant un certain niveau d’inflation (ce
qui est le cas de la BCE, ainsi que de la majorité des grandes banques
centrales) devrait en principe pouvoir annuler tout effet de la baisse
tendancielle des marges sur les prix en stimulant suffisamment la demande
agrégée. Tout ceci nous ramène au point de départ : pour comprendre
l’excès de déflation (ou du moins de désinflation) en zone euro, il nous faut
comprendre pourquoi la demande agrégée y est trop faible, et pourquoi la BCE ne
parvient pas à la relancer.

L’origine de la crise économique qui a frappé l’économie mondiale à partir de 2008 est aujourd’hui assez bien comprise. Au départ, un choc financier de grande ampleur a provoqué une explosion des primes de crédit (voir graphique 2), accompagnée, dans un certain nombre de pays, d’une phase de désendettement des ménages (graphique 3). La hausse des primes de crédit limite l’activité des emprunteurs risqués (ménages et entreprises), et le désendettement des ménages freine mécaniquement et durablement leur demande de consommation, tant en biens durables qu’en biens non durables. Par ailleurs, en zone euro, le choc initial de 2008-2009 a été prolongé par la crise des dettes souveraines, laquelle a provoqué une retombée en récession à partir de 2011. Sans remèdes adéquats, les chocs de demande négatifs de ce type ont tendance à s’amplifier d’eux-mêmes car ils font augmenter le chômage, ce qui fait baisser le revenu, la demande de consommation, et ainsi de suite – selon la logique du fameux « multiplicateur keynésien ». Ce faisant, ces chocs entraînent une pression baissière durable sur la production et sur l’inflation.

Selon la théorie (et la pratique) de la politique monétaire conventionnelle, il est à la fois souhaitable et possible de contrer efficacement de tels chocs de demande négatifs : il suffit que la banque centrale ajuste sa « posture » (stance) en penchant de manière suffisamment prononcée contre le vent de la déflation (en baissant ses taux directeurs, qui sont des taux d’intérêt nominaux à court terme). La banque centrale doit alors être suffisamment « réactive » : elle doit faire varier ses taux directeurs (qui sont des taux d’intérêt nominaux) plus de un pour un en réponse aux variations du taux d’inflation, de sorte que le taux d’intérêt réel (c’est-à-dire le taux d’intérêt nominal moins l’inflation) chute lorsque l’inflation baisse, et inversement. C’est seulement sous cette condition que la banque centrale peut stimuler la demande agrégée et donc relever le taux d’inflation à la suite d’un choc de demande négatif (et inversement comprimer la demande lorsque l’inflation est trop élevée). La BCE s’est précisément engagée dans cette politique conventionnelle au début de la crise, en baissant ses différents taux directeurs de plus de 300 points de base en moins d’un an à partir de l’été 2008 ; puis de nouveau à partir de 2009, pour finalement atteindre un taux de 0% sur les opérations principales de refinancement (et -0,5% sur les réserves excédentaires, hors exemption, depuis septembre dernier).

Une fois ce stade atteint, il devient risqué de s’engager en territoire négatif de manière encore plus agressive, notamment en baissant davantage le taux d’intérêt sur les réserves excédentaires, car les banques pourraient en principe massivement demander à la banque centrale la conversion de leur monnaie de réserve (qui est électronique et inscrite au compte de la banque auprès de la banque centrale) en billets de banques physiques, dont la rentabilité nominale est de… 0% ! Rappelons simplement ici qu’un billet ne change pas de valeur nominale au cours du temps. Ainsi, une fois atteinte la « borne zéro » sur les taux d’intérêt, la banque centrale devient « passive » et non plus active car ses taux d’intérêt directeurs (collés à zéro, ou à des valeurs proches de zéro) ne peuvent plus répondre de manière suffisamment prononcée aux variations de l’inflation autour de sa cible. Un cercle vicieux se met alors en place, qui tend à entretenir la faiblesse de la demande agrégée et de l’inflation (cf. graphique 4) : comme le taux d’intérêt nominal ne baisse plus suffisamment à la suite des pressions déflationnistes, celles-ci engendrent une hausse du taux d’intérêt réel (d’après la relation de Fisher), laquelle affaiblit encore plus la demande agrégée (selon logique de la courbe IS). La baisse de la demande renforce les pressions déflationnistes initiales (en raison de la courbe de Phillips), ce qui conduit les agents économiques à anticiper une inflation faible, élève encore davantage le taux d’intérêt réel, et ainsi de suite. C’est pourquoi il est si difficile de redresser l’inflation et ses anticipations dans cette configuration macroéconomique, qui est celle dans laquelle se débat la zone euro depuis déjà un certain nombre d’années. Si les différentes politiques non conventionnelles mises en œuvres par la BCE ont permis de limiter la spirale déflationniste, elles n’ont pu totalement en éliminer les effets.


[i] La
Banque centrale européenne a trois taux directeurs officiels : (i) le taux
sur la facilité de dépôt
, auquel est rémunérée la monnaie de réserve excédentaire
que les banque détiennent sur leur compte auprès de la banque centrale ;
(ii) le taux
sur les opérations principales de refinancement
, auquel se refinancent les
banques, contre collatéral, à échéance d’une semaine; et (iii) le taux
d’intérêt sur les prêts marginaux
, qui est le taux débiteur auquel les
banque peuvent emprunter en urgence et au jour le jour auprès de la BCE.




Augmenter les cotisations retraites est-il sans effet sur l’emploi ?

par Xavier Timbeau

Dans un
post récent et éclairant sur le site de Médiapart
, Clément Carbonnier,
chercheur et enseignant en économie,  discute des inégalités qui découleraient du
nouveau système de retraite et de la difficulté à en anticiper l’ampleur. Analysant
les pistes de financement pour les retraites, il déploie un argument choc :
la hausse des taux de cotisations retraite n’aurait pas d’effet sur l’emploi.
C’est un résultat fort puisqu’il implique que les efforts consentis pour
abaisser le coût du travail, une demande ancienne et constante des employeurs,
auraient été produits en vain. CICE (crédit d’impôt pour la compétitivité et
l’emploi), pacte de responsabilité, allègements généraux de cotisations
sociales sont autant de dispositifs dont Clément Carbonnier suggère que seuls
les volets bas salaires auraient produit des effets mais qui au total sont très
peu efficaces pour l’emploi.



À la base de son argument, plusieurs autorités sont
mobilisées. Des études réalisées par deux laboratoires, le TEPP[1]
et le LIEPP[2], sous le
pilotage de France Stratégie, concluent à des effets presque nuls sur l’emploi
(rapport
du Comité de Suivi du CICE, 2017
). La divergence relative entre les
résultats des deux équipes a été arbitrée par l’INSEE et exposée dans le rapport
2018 du Comité de suivi du CICE
. Les conclusions de ces études et de la
synthèse de l’INSEE sont riches d’enseignements et procèdent d’une méthodologie
maîtrisée, employée couramment dans l’évaluation des politiques
publiques : l’évaluation ex-post en utilisant un groupe de
bénéficiaires et un groupe de contrôle[3]
et comparer le destin de ces deux groupes pour identifier l’effet de la
réforme.

A quelques détails
près.
Premièrement, le CICE n’a pas été mis en place en faisant en sorte
qu’il y ait un groupe de bénéficiaires d’un côté et de l’autre un groupe
témoin. Cela aurait été la configuration idéale (ou presque, voir infra) pour
mesurer l’effet du CICE, si les deux groupes avaient été tirés au sort. On
parle de Randomized Controlled Trial (RCT), largement appliqué en médecine
et en pharmacologie. Cette méthode a valu le prix en sciences économiques en
mémoire à Alfred Nobel à Esther Duflo
pour ses applications fructueuses à
de nombreuses questions de politiques publiques, notamment dans le cadre de
l’économie du développement[4].
Même lorsque les deux groupes sont tirés rigoureusement au sort, la méthode repose
sur quelques hypothèses fortes puisqu’on n’observe jamais ce qui se serait
passé pour le groupe des bénéficiaires en l’absence de politique. On l’infère à
partir de ce qui se passe pour le groupe témoin, ce qui suppose qu’il n’y ait d’effet
de la mesure que sur les individus (ou les entreprises) traités.

Pour pallier cette absence d’assignation aléatoire, on raisonne
par ce qu’on appelle une expérience naturelle : le tirage au sort n’est
pas intentionnel, mais le traitement a été pris de façon suffisamment diverse
pour qu’on puisse reconstruire des groupes aléatoires. Par exemple, un
médicament est interdit en dessous d’un certain âge et en séparant les
individus juste au-dessus et juste au-dessous de cet âge limite, on peut
espérer construire des groupes pseudo-aléatoires. Malheureusement pour le CICE
(et c’est le deuxième point), cette approche est impossible : toutes les
entreprises (soumise à l’impôt sur les sociétés) étaient éligibles au CICE et
prendre comme groupe de contrôle les associations à but non lucratif ou les
administrations publiques n’aurait aucun sens. Sans cette option, il faut
essayer de contourner l’obstacle.

La méthode d’évaluation ex post du CICE utilisée est une
forme encore plus dégradée de la méthode d’indentification par RCT. Ne
disposant ni d’un groupe de contrôle choisi aléatoirement, ni de la possibilité
de le reconstruire à partir des observations, c’est l’intensité de traitement
qui est employée pour mesurer les effets du CICE. Certaines entreprises
reçoivent un montant de CICE plus élevé que d’autres et c’est sur la base de
ces différences que l’on espère pouvoir identifier un effet du CICE. Si le CICE
était un médicament et les entreprises des patients traités par ce médicament,
on chercherait à mesurer les effets du médicament non pas en séparant d’un côté
ceux qui ont pris le médicament et de l’autre ceux qui ne l’ont pas pris (en
s’arrangeant pour que la décision de prise du médicament soit
« aléatoire »), mais en différenciant ceux qui ont pris une dose de
ceux qui en ont pris davantage. Cette approche ne peut fonctionner que si on
est sûr que l’effet du traitement est proportionnel à la dose prise et c’est
une hypothèse analogue qui a été retenue pour l’évaluation du CICE.

Cet empilement d’hypothèses affaiblit la capacité de la
méthode à produire un résultat utilisable. Mais la première est centrale :
il est difficile de penser que dans un environnement concurrentiel ce qui
arrive à une entreprise n’a pas d’impact sur les autres[5].
Baisser les coûts d’une entreprise réduira l’activité chez ses concurrentes si
elles ne bénéficient pas elles-mêmes de la même mesure ; Clément
Carbonnier oublie un peu vite une étude
pourtant pas si ancienne de Pierre Cahuc et Stéphane Carcillo
sur une
population très particulière qui concluait à un effet tellement massif des
baisses de charges sur les bas salaires qu’il impliquerait un effet important
pour un dispositif qui n’est pas concentré. Utilisant le dispositif « zéro
charge » pour les entreprises de moins de 10 salariés, les auteurs
montraient un très fort effet pour les entreprises juste en deçà de 10 salariés
par rapport à celles juste au-dessus. L’effet exhibé est un effet différentiel,
potentiellement différent de l’effet agrégé sur l’ensemble de la population des
entreprises. Supposer que les entreprises sont comme des individus néglige les
interactions entre les entreprises, essence même d’une économie de marché.

Toujours sous la houlette de France Stratégie, d’autres
analyses ont été conduites[6],
employant la même méthode – en cherchant à exploiter l’intensité de traitement
au CICE pour en identifier les effets, mais sur des données de branche. Si l’on
perd beaucoup d’observations, passant de plusieurs dizaines de milliers à
quelques dizaines, et donc de puissance statistique, on gagne sur un
plan : au lieu de considérer des « atomes » insaisissables dont
la taille varie au gré du traitement et des interactions avec les
« atomes » concurrents, on peut considérer avec un peu plus
d’assurance que les secteurs agrègent la plupart de ces dynamiques et sont un
objet d’étude plus robuste. Ces analyses concluent à un effet du CICE sur
l’emploi, significativement différent de 0. Le résultat n’est pas très précis,
mais il est probable que le changement dans le niveau d’observation suffise à améliorer
la capacité de la méthode à identifier un effet du CICE.

Toujours est-il que ne pas mesurer un effet ne veut pas dire
que cet effet est inexistant. Considérer que l’absence de résultats tranchés à
des méthodes qui reposent sur des hypothèses qui sont intuitivement très loin
d’être satisfaites ressemble un peu à un jeune enfant qui se cache en fermant
les yeux : si je ne vois rien, personne ne me voit. Appuyer cette naïveté
déconcertante par des arguments d’autorité ne la rend pas plus convaincante,
bien au contraire.

Conclure ainsi de l’échec de la mesure des effets du CICE à
l’échec du CICE et de cet échec au fait qu’augmenter les cotisations retraites
n’aurait pas d’effet sur l’emploi ou toute autre variable d’intérêt est en opposition
avec une kyrielle d’analyses[7].
Argument d’autorité n’est pas autorité de l’argument.


[1]
Fédération de recherche CNRS « Travail, emploi et politiques publiques » (FR
CNRS n° 3435).

[2]
Laboratoire interdisciplinaire d’évaluation des politiques publiques, Science
Po Paris, à laquelle Clément Carbonnier est rattaché.

[3] Le groupe
de bénéficiaires reçoit la mesure (on parle de traitement) alors que le groupe
de contrôle, dont les individus sont « proches » de ceux du groupe de
bénéficiaires, ne reçoit pas la mesure (ou le traitement).

[4] Il y a
néanmoins des limites notables aux RCT (voir ici).

[5] Un autre
canal de « contagion » passe par le financement de la mesure. Si
cette contagion par le financement n’est pas corrélée au traitement, elle
n’empêche pas la mesure du traitement. Cette hypothèse s’ajoute aux autres.

[6] Par
l’OFCE, ces résultats seront publiés dans le rapport du Comité de suivi 2020.

[7]La
question de savoir ce qui se passe en cas de hausse de cotisations sociales de
façon générale (dans la plupart des pays, la notion de cotisations sociales
employeurs n’existe pas) est assez complexe (voir Melguizo et
Gonzalez-Paramo (2012)
pour
une méta analyse, et les travaux récents de Bozio, Breda,
Grenet (2017)
ou Alvaredo,
Breda, Roantree et Saez (2017)
pour un focus sur le cadre institutionnel
français.