Pourquoi l’inflation européenne est-elle si faible ?

par Stéphane Auray et Edouard Challe

En septembre 2019, la Banque centrale européenne (BCE) annonçait une relance de ses politiques « non conventionnelles », incluant, en sus de l’assouplissement quantitatif (quantitative easing) et des opérations ciblées de refinancement à long terme (targeted long-term refinancing operations, TLTRO), une baisse du taux des facilités de dépôts[i] avec une tranche de monnaie de réserve exonérée des taux négatifs de manière à limiter le coût des réserves pour les banques. Ce nouveau round de politiques accommodantes s’imposait en raison du contexte macroéconomique, marqué par un ralentissement de l’activité en zone euro et un décrochage de l’inflation.



Au début des années 2000, le taux d’inflation oscille autour de 2% et ne connaît que de légères fluctuations jusqu’à 2007 où il atteint son maximum d’avant-crise (voir le graphique 1). Il s’effondre ensuite pendant la « Grande Récession » (2008-2009) puis la crise des dettes souveraines (2011-2013). À ce jour, le taux d’inflation de la zone euro est toujours inférieur à celui d’avant 2008. Au total, entre 1999 (l’année de création de l’euro) et 2019, l’inflation moyenne en zone euro aura été relativement faible (1,7% en moyenne), et tout particulièrement depuis 2009 (1,3% en moyenne). Autrement dit, la BCE ne semble pas avoir atteint son objectif, explicité dès 2003, d’un taux d’inflation des prix à la consommation « inférieur à, mais proche de, 2 % ». Pourquoi cela ?

D’après la théorie économique, la
faiblesse de l’inflation reflète celle des coûts de production, et donc de la
demande agrégée : un niveau de demande faible se traduit par une moindre
tension sur les facteurs de production (travail, capital, énergie, matières
premières, …) et donc, toutes choses égales par ailleurs, une moindre croissance
de leurs prix. La pression concurrentielle conduit alors les entreprises à
répercuter ces faibles coûts sur leurs prix de vente, ce qui engendre une
désinflation des prix. À l’inverse, une expansion économique engendre
mécaniquement des tensions sur les facteurs de production et donc une hausse de
leur coût, laquelle est répercutée sur les prix de vente des entreprises et
fait monter le niveau général des prix. C’est la logique de de la « courbe
de Phillips », qui constitue l’un des blocs fondamentaux de la
macroéconomie monétaire depuis les années 1960. 
Ainsi, lorsque la banque centrale perd le contrôle de l’inflation, c’est
avant tout parce qu’elle a perdu le contrôle de la demande agrégée. De ce point
de vue, les pressions déflationnistes en zone euro ne sont que le reflet de
l’incapacité de la BCE à relancer suffisamment la demande.

Une explication alternative (et plausible)
à la faiblesse de l’inflation est que la BCE parvient à stimuler la demande par
ses politiques accommodantes, mais que la répercussion des variations de la
demande sur les coûts de production, et donc en définitive sur le niveau
général des prix et l’inflation, serait plus faible que par le passé – voire
aurait complètement disparu. Selon les partisans de cette théorie, la « pente
de la courbe de Phillips » serait devenue proche de zéro en zone euro, ce
qui expliquerait la perte de contrôle de l’inflation par la BCE. S’il fait
certes peu de doute que la pente de la courbe de Phillips s’est réduite aux États-Unis
depuis les années 1980, des
travaux empiriques récents conduisent néanmoins à nuancer le constat de
la « mort » de la courbe de Phillips, tant aux États-Unis qu’en zone euro. Une
autre caractéristique de la courbe de Phillips, indépendante de sa pente,
pourrait également expliquer la faiblesse de l’inflation européenne : on
sait depuis la conférence
présidentielle
de Milton Friedman au congrès de 1967 de l’American Economic Assocation  que la courbe de Phillips fait intervenir l’inflation
anticipée, en sus des tensions sur
les coûts de production, comme déterminant de l’inflation réalisée. Donc si
l’inflation anticipée décroche de sa cible alors elle tire vers le bas
l’inflation réalisée, indépendamment
du niveau de la demande. Cette inquiétude est légitime mais elle soulève deux
questions. Tout d’abord, les prévisionnistes
professionnels
régulièrement interrogés par la BCE prévoient une lente remontée
de l’inflation à l’horizon 2025 ; le décrochage des anticipations
d’inflation ne saute donc pas aux yeux. Ensuite, si la pente de la courbe de
Phillips n’est pas nulle, l’effet d’un décrochage des anticipations d’inflation
sur l’inflation réalisée devrait pouvoir être compensé par une relance
suffisamment prononcée de la demande.

Enfin, indépendamment des discussions
autour de la forme de la courbe de Phillips, certains commentateurs avancent
parfois des raisons « structurelles » aux pressions déflationnistes
de la dernière décennie, plutôt que de l’attribuer à la faiblesse de la demande,
ou à la moindre transmission des tensions sur la demande aux coûts. Selon cette
théorie, la pression concurrentielle à laquelle sont soumises les entreprises
se serait intensifiée, notamment en raison de l’ouverture au commerce
international et des nouvelles technologies. Cette concurrence accrue forcerait
les entreprises européennes (et mondiales) à comprimer leurs marges, ce qui
exercerait une pression baissière permanente sur les prix. Ces mécanismes ne
peuvent pourtant pas expliquer la faiblesse de l’inflation en zone euro. En
effet, le prix de vente d’une entreprise est (tautologiquement) le coût
unitaire de production multiplié par le facteur de marge. La pression concurrentielle
peut certes faire baisser le facteur de marge, mais cela ne peut être que très
progressif, et surtout transitoire puisque
le facteur de marge ne peut tomber en dessous de 1 (sans quoi le prix de vente
serait inférieur au coût unitaire de production et l’entreprise aurait intérêt
à fermer). Enfin, et c’est là le plus important, cette baisse graduelle du
facteur de marge devrait pouvoir être compensée par une variation du coût
unitaire de production, dont on vient de voir qu’il dépendait de la demande
agrégée. Ainsi, une banque centrale ciblant un certain niveau d’inflation (ce
qui est le cas de la BCE, ainsi que de la majorité des grandes banques
centrales) devrait en principe pouvoir annuler tout effet de la baisse
tendancielle des marges sur les prix en stimulant suffisamment la demande
agrégée. Tout ceci nous ramène au point de départ : pour comprendre
l’excès de déflation (ou du moins de désinflation) en zone euro, il nous faut
comprendre pourquoi la demande agrégée y est trop faible, et pourquoi la BCE ne
parvient pas à la relancer.

L’origine de la crise économique qui a frappé l’économie mondiale à partir de 2008 est aujourd’hui assez bien comprise. Au départ, un choc financier de grande ampleur a provoqué une explosion des primes de crédit (voir graphique 2), accompagnée, dans un certain nombre de pays, d’une phase de désendettement des ménages (graphique 3). La hausse des primes de crédit limite l’activité des emprunteurs risqués (ménages et entreprises), et le désendettement des ménages freine mécaniquement et durablement leur demande de consommation, tant en biens durables qu’en biens non durables. Par ailleurs, en zone euro, le choc initial de 2008-2009 a été prolongé par la crise des dettes souveraines, laquelle a provoqué une retombée en récession à partir de 2011. Sans remèdes adéquats, les chocs de demande négatifs de ce type ont tendance à s’amplifier d’eux-mêmes car ils font augmenter le chômage, ce qui fait baisser le revenu, la demande de consommation, et ainsi de suite – selon la logique du fameux « multiplicateur keynésien ». Ce faisant, ces chocs entraînent une pression baissière durable sur la production et sur l’inflation.

Selon la théorie (et la pratique) de la politique monétaire conventionnelle, il est à la fois souhaitable et possible de contrer efficacement de tels chocs de demande négatifs : il suffit que la banque centrale ajuste sa « posture » (stance) en penchant de manière suffisamment prononcée contre le vent de la déflation (en baissant ses taux directeurs, qui sont des taux d’intérêt nominaux à court terme). La banque centrale doit alors être suffisamment « réactive » : elle doit faire varier ses taux directeurs (qui sont des taux d’intérêt nominaux) plus de un pour un en réponse aux variations du taux d’inflation, de sorte que le taux d’intérêt réel (c’est-à-dire le taux d’intérêt nominal moins l’inflation) chute lorsque l’inflation baisse, et inversement. C’est seulement sous cette condition que la banque centrale peut stimuler la demande agrégée et donc relever le taux d’inflation à la suite d’un choc de demande négatif (et inversement comprimer la demande lorsque l’inflation est trop élevée). La BCE s’est précisément engagée dans cette politique conventionnelle au début de la crise, en baissant ses différents taux directeurs de plus de 300 points de base en moins d’un an à partir de l’été 2008 ; puis de nouveau à partir de 2009, pour finalement atteindre un taux de 0% sur les opérations principales de refinancement (et -0,5% sur les réserves excédentaires, hors exemption, depuis septembre dernier).

Une fois ce stade atteint, il devient risqué de s’engager en territoire négatif de manière encore plus agressive, notamment en baissant davantage le taux d’intérêt sur les réserves excédentaires, car les banques pourraient en principe massivement demander à la banque centrale la conversion de leur monnaie de réserve (qui est électronique et inscrite au compte de la banque auprès de la banque centrale) en billets de banques physiques, dont la rentabilité nominale est de… 0% ! Rappelons simplement ici qu’un billet ne change pas de valeur nominale au cours du temps. Ainsi, une fois atteinte la « borne zéro » sur les taux d’intérêt, la banque centrale devient « passive » et non plus active car ses taux d’intérêt directeurs (collés à zéro, ou à des valeurs proches de zéro) ne peuvent plus répondre de manière suffisamment prononcée aux variations de l’inflation autour de sa cible. Un cercle vicieux se met alors en place, qui tend à entretenir la faiblesse de la demande agrégée et de l’inflation (cf. graphique 4) : comme le taux d’intérêt nominal ne baisse plus suffisamment à la suite des pressions déflationnistes, celles-ci engendrent une hausse du taux d’intérêt réel (d’après la relation de Fisher), laquelle affaiblit encore plus la demande agrégée (selon logique de la courbe IS). La baisse de la demande renforce les pressions déflationnistes initiales (en raison de la courbe de Phillips), ce qui conduit les agents économiques à anticiper une inflation faible, élève encore davantage le taux d’intérêt réel, et ainsi de suite. C’est pourquoi il est si difficile de redresser l’inflation et ses anticipations dans cette configuration macroéconomique, qui est celle dans laquelle se débat la zone euro depuis déjà un certain nombre d’années. Si les différentes politiques non conventionnelles mises en œuvres par la BCE ont permis de limiter la spirale déflationniste, elles n’ont pu totalement en éliminer les effets.


[i] La
Banque centrale européenne a trois taux directeurs officiels : (i) le taux
sur la facilité de dépôt
, auquel est rémunérée la monnaie de réserve excédentaire
que les banque détiennent sur leur compte auprès de la banque centrale ;
(ii) le taux
sur les opérations principales de refinancement
, auquel se refinancent les
banques, contre collatéral, à échéance d’une semaine; et (iii) le taux
d’intérêt sur les prêts marginaux
, qui est le taux débiteur auquel les
banque peuvent emprunter en urgence et au jour le jour auprès de la BCE.




Augmenter les cotisations retraites est-il sans effet sur l’emploi ?

par Xavier Timbeau

Dans un
post récent et éclairant sur le site de Médiapart
, Clément Carbonnier,
chercheur et enseignant en économie,  discute des inégalités qui découleraient du
nouveau système de retraite et de la difficulté à en anticiper l’ampleur. Analysant
les pistes de financement pour les retraites, il déploie un argument choc :
la hausse des taux de cotisations retraite n’aurait pas d’effet sur l’emploi.
C’est un résultat fort puisqu’il implique que les efforts consentis pour
abaisser le coût du travail, une demande ancienne et constante des employeurs,
auraient été produits en vain. CICE (crédit d’impôt pour la compétitivité et
l’emploi), pacte de responsabilité, allègements généraux de cotisations
sociales sont autant de dispositifs dont Clément Carbonnier suggère que seuls
les volets bas salaires auraient produit des effets mais qui au total sont très
peu efficaces pour l’emploi.



À la base de son argument, plusieurs autorités sont
mobilisées. Des études réalisées par deux laboratoires, le TEPP[1]
et le LIEPP[2], sous le
pilotage de France Stratégie, concluent à des effets presque nuls sur l’emploi
(rapport
du Comité de Suivi du CICE, 2017
). La divergence relative entre les
résultats des deux équipes a été arbitrée par l’INSEE et exposée dans le rapport
2018 du Comité de suivi du CICE
. Les conclusions de ces études et de la
synthèse de l’INSEE sont riches d’enseignements et procèdent d’une méthodologie
maîtrisée, employée couramment dans l’évaluation des politiques
publiques : l’évaluation ex-post en utilisant un groupe de
bénéficiaires et un groupe de contrôle[3]
et comparer le destin de ces deux groupes pour identifier l’effet de la
réforme.

A quelques détails
près.
Premièrement, le CICE n’a pas été mis en place en faisant en sorte
qu’il y ait un groupe de bénéficiaires d’un côté et de l’autre un groupe
témoin. Cela aurait été la configuration idéale (ou presque, voir infra) pour
mesurer l’effet du CICE, si les deux groupes avaient été tirés au sort. On
parle de Randomized Controlled Trial (RCT), largement appliqué en médecine
et en pharmacologie. Cette méthode a valu le prix en sciences économiques en
mémoire à Alfred Nobel à Esther Duflo
pour ses applications fructueuses à
de nombreuses questions de politiques publiques, notamment dans le cadre de
l’économie du développement[4].
Même lorsque les deux groupes sont tirés rigoureusement au sort, la méthode repose
sur quelques hypothèses fortes puisqu’on n’observe jamais ce qui se serait
passé pour le groupe des bénéficiaires en l’absence de politique. On l’infère à
partir de ce qui se passe pour le groupe témoin, ce qui suppose qu’il n’y ait d’effet
de la mesure que sur les individus (ou les entreprises) traités.

Pour pallier cette absence d’assignation aléatoire, on raisonne
par ce qu’on appelle une expérience naturelle : le tirage au sort n’est
pas intentionnel, mais le traitement a été pris de façon suffisamment diverse
pour qu’on puisse reconstruire des groupes aléatoires. Par exemple, un
médicament est interdit en dessous d’un certain âge et en séparant les
individus juste au-dessus et juste au-dessous de cet âge limite, on peut
espérer construire des groupes pseudo-aléatoires. Malheureusement pour le CICE
(et c’est le deuxième point), cette approche est impossible : toutes les
entreprises (soumise à l’impôt sur les sociétés) étaient éligibles au CICE et
prendre comme groupe de contrôle les associations à but non lucratif ou les
administrations publiques n’aurait aucun sens. Sans cette option, il faut
essayer de contourner l’obstacle.

La méthode d’évaluation ex post du CICE utilisée est une
forme encore plus dégradée de la méthode d’indentification par RCT. Ne
disposant ni d’un groupe de contrôle choisi aléatoirement, ni de la possibilité
de le reconstruire à partir des observations, c’est l’intensité de traitement
qui est employée pour mesurer les effets du CICE. Certaines entreprises
reçoivent un montant de CICE plus élevé que d’autres et c’est sur la base de
ces différences que l’on espère pouvoir identifier un effet du CICE. Si le CICE
était un médicament et les entreprises des patients traités par ce médicament,
on chercherait à mesurer les effets du médicament non pas en séparant d’un côté
ceux qui ont pris le médicament et de l’autre ceux qui ne l’ont pas pris (en
s’arrangeant pour que la décision de prise du médicament soit
« aléatoire »), mais en différenciant ceux qui ont pris une dose de
ceux qui en ont pris davantage. Cette approche ne peut fonctionner que si on
est sûr que l’effet du traitement est proportionnel à la dose prise et c’est
une hypothèse analogue qui a été retenue pour l’évaluation du CICE.

Cet empilement d’hypothèses affaiblit la capacité de la
méthode à produire un résultat utilisable. Mais la première est centrale :
il est difficile de penser que dans un environnement concurrentiel ce qui
arrive à une entreprise n’a pas d’impact sur les autres[5].
Baisser les coûts d’une entreprise réduira l’activité chez ses concurrentes si
elles ne bénéficient pas elles-mêmes de la même mesure ; Clément
Carbonnier oublie un peu vite une étude
pourtant pas si ancienne de Pierre Cahuc et Stéphane Carcillo
sur une
population très particulière qui concluait à un effet tellement massif des
baisses de charges sur les bas salaires qu’il impliquerait un effet important
pour un dispositif qui n’est pas concentré. Utilisant le dispositif « zéro
charge » pour les entreprises de moins de 10 salariés, les auteurs
montraient un très fort effet pour les entreprises juste en deçà de 10 salariés
par rapport à celles juste au-dessus. L’effet exhibé est un effet différentiel,
potentiellement différent de l’effet agrégé sur l’ensemble de la population des
entreprises. Supposer que les entreprises sont comme des individus néglige les
interactions entre les entreprises, essence même d’une économie de marché.

Toujours sous la houlette de France Stratégie, d’autres
analyses ont été conduites[6],
employant la même méthode – en cherchant à exploiter l’intensité de traitement
au CICE pour en identifier les effets, mais sur des données de branche. Si l’on
perd beaucoup d’observations, passant de plusieurs dizaines de milliers à
quelques dizaines, et donc de puissance statistique, on gagne sur un
plan : au lieu de considérer des « atomes » insaisissables dont
la taille varie au gré du traitement et des interactions avec les
« atomes » concurrents, on peut considérer avec un peu plus
d’assurance que les secteurs agrègent la plupart de ces dynamiques et sont un
objet d’étude plus robuste. Ces analyses concluent à un effet du CICE sur
l’emploi, significativement différent de 0. Le résultat n’est pas très précis,
mais il est probable que le changement dans le niveau d’observation suffise à améliorer
la capacité de la méthode à identifier un effet du CICE.

Toujours est-il que ne pas mesurer un effet ne veut pas dire
que cet effet est inexistant. Considérer que l’absence de résultats tranchés à
des méthodes qui reposent sur des hypothèses qui sont intuitivement très loin
d’être satisfaites ressemble un peu à un jeune enfant qui se cache en fermant
les yeux : si je ne vois rien, personne ne me voit. Appuyer cette naïveté
déconcertante par des arguments d’autorité ne la rend pas plus convaincante,
bien au contraire.

Conclure ainsi de l’échec de la mesure des effets du CICE à
l’échec du CICE et de cet échec au fait qu’augmenter les cotisations retraites
n’aurait pas d’effet sur l’emploi ou toute autre variable d’intérêt est en opposition
avec une kyrielle d’analyses[7].
Argument d’autorité n’est pas autorité de l’argument.


[1]
Fédération de recherche CNRS « Travail, emploi et politiques publiques » (FR
CNRS n° 3435).

[2]
Laboratoire interdisciplinaire d’évaluation des politiques publiques, Science
Po Paris, à laquelle Clément Carbonnier est rattaché.

[3] Le groupe
de bénéficiaires reçoit la mesure (on parle de traitement) alors que le groupe
de contrôle, dont les individus sont « proches » de ceux du groupe de
bénéficiaires, ne reçoit pas la mesure (ou le traitement).

[4] Il y a
néanmoins des limites notables aux RCT (voir ici).

[5] Un autre
canal de « contagion » passe par le financement de la mesure. Si
cette contagion par le financement n’est pas corrélée au traitement, elle
n’empêche pas la mesure du traitement. Cette hypothèse s’ajoute aux autres.

[6] Par
l’OFCE, ces résultats seront publiés dans le rapport du Comité de suivi 2020.

[7]La
question de savoir ce qui se passe en cas de hausse de cotisations sociales de
façon générale (dans la plupart des pays, la notion de cotisations sociales
employeurs n’existe pas) est assez complexe (voir Melguizo et
Gonzalez-Paramo (2012)
pour
une méta analyse, et les travaux récents de Bozio, Breda,
Grenet (2017)
ou Alvaredo,
Breda, Roantree et Saez (2017)
pour un focus sur le cadre institutionnel
français.




Cotisations sociales des salariés et des non-salariés : vers la divergence ?

par Henri Sterdyniak

Dans le cadre de la
réforme des retraites, le gouvernement envisage de réduire l’assiette de la
CSG-CRDS payé par les non-salariés, à la fois pour compenser la hausse des
cotisations retraites et pour faire converger l’imposition des salariés et des
non-salariés. Ces deux objectifs sont-ils compatibles ? Nous montrerons
ici que non.



La comparaison des taux de
cotisations sociales entre salariés et non-salariés est particulièrement
délicate : les taux affichés diffèrent, mais aussi l’assiette (le salaire
brut versus le revenu professionnel).
Les barèmes de réduction des cotisations se font à des niveaux différents
(tableau 1). Enfin les droits à prestations ne sont pas les mêmes. La
comparaison a été rendue encore plus délicate par le remplacement de
cotisations salariés, chômage et maladie de remplacement, par la CSG.

Actuellement, les
cotisations sont basées sur le salaire brut pour les salariés, sur le revenu
moins les cotisations (dit revenu professionnel) pour les non-salariés. La
distinction cotisations salariales / cotisations patronales n’a guère de sens
économique à long terme et repose sur des évolutions historiques. Les seules
notions pertinentes sont celles de salaire extra-brut et de salaire net. Pour
les non-salariés, cette distinction n’existe pas ; on calcule un revenu
professionnel en soustrayant les cotisations et la CSG déductible du revenu
global, ce qui a le défaut d’introduire une certaine circularité. La CSG-CRDS
est basée sur le salaire brut pour les salariés, tandis qu’elle l’est sur le
revenu global pour les non-salariés, incluant donc les cotisations. Le
gouvernement envisage de réduire l’assiette de la CSG-CRDS pour les
non-salariés pour compenser la hausse de leur cotisation retraite (article 21
du Projet de loi de réforme des retraites). 
Les cotisations des non-salariés comme leur CSG-CRDS seraient basées sur
leur revenu après un abattement de 30 %. Ceci va-t-il dans le sens de la
convergence des prélèvements ? 

Nous allons comparer les
cotisations portant sur un salarié et un membre d’une profession libérale, en
assimilant le salaire extra-brut (y compris cotisations employeurs) des
salariés et le revenu des professionnel (avant cotisations), ceci pour deux
niveaux de revenu, moyen et supérieur : un salaire brut de 2 500 euros
correspondant à un revenu de 42 000 euros pour le professionnel ; un
salaire brut de 6 000 euros correspondant à un revenu de 100 000 euros
pour le professionnel.

On peut d’abord constater
que le rapport entre revenu professionnel et revenu, salaire brut et salaire
extra-brut est proche de 70 %, actuellement, pour les deux niveaux de
revenus, de sorte que la simplification envisagée par le gouvernement de fixer
le revenu professionnel à 70 % du revenu pour les non-salariés n’induit
pas d’effets majeurs.

Les tableaux 2 et 3
montrent qu’effectivement les non-salariés paient actuellement plus de CSG-CRDS
que les salariés. Introduire un abattement de 30 % apparaît donc
justifiable. Par contre, les cotisations non-contributives (maladie, famille,
dépendance, logement, transport) sont nettement plus fortes pour les salariés.
De sorte que globalement, les impositions ne rapportant pas de droits
spécifiques ont un poids identique pour les salariés et les non-salariés (voir
ligne 5 des tableaux) au niveau d’un revenu extra-brut de 42 000 euros (2 500
euros de salaire brut mensuel) et ont un poids plus élevé pour le salarié au
niveau du revenu extra-brut de 100 000 euros (6 000 euros de salaire
brut mensuel).

Les salariés paient
actuellement plus de cotisations contributives que les non-salariés. Ceci est
justifié puisqu’ils bénéficient de prestations chômage et accident du travail
que n’ont pas les non-salariés ; ils bénéficient aussi de prestations
retraites plus généreuses.

La réforme des retraites
n’augmente guère les cotisations des salariés (la hausse est de 0,35 point en
dessous du Pass, de 1,12 point au-dessus). Par contre, elle augmente fortement
les cotisations des non-salariés (de 24,75 à 28,12 % en dessous du Pass,
de 8,6 à 12,94 %, au-dessus). Comme le montrent les tableaux 2 et 3, la baisse envisagée
de la CSG-CRDS, permet finalement de réduire le poids des cotisations sur les
non-salariés (de 0,62 point pour le revenu moyen, de 1,1 point pour le revenu
supérieur).

Ainsi, la hausse des
cotisations contributives des non-salariés est compensée par une baisse de
leurs impositions non-contributives (via
la baisse de la CSG-CRDS, mais aussi la baisse de l’assiette des cotisations
pour les plus hauts revenus), de sorte que l’écart se creuse avec les salariés.
Or, les cotisations contributives ouvrent des droits dépendant des cotisations,
tandis que la CSG-CRDS comme les cotisations non-contributives sont des
prélèvements qui n’ouvrent aucun droit et qui doivent donc être les mêmes entre
contribuables à revenu donné. En fait, les écarts de taux d’imposition se
creusent :  de 5,46 à 8,8 points
(revenu moyen) ; de 3,43 à 10,16 points (haut revenu). Cela ne va pas dans
le sens de la convergence.

Par ailleurs, la mesure de
rééquilibrage se traduit par une baisse des ressources de la CSG-CRDS au
détriment de l’équilibre financier des branches de la Sécurité sociale, autres
que la retraite.

Au total, le souci de ne pas augmenter des cotisations des non-salariés écarte de l’objectif d’équité entre non-salariés et salariés. On peut estimer qu’il est nécessaire de soutenir les non-salariés, dont l’activité est souvent fragile.  On peut estimer, en sens inverse, que la baisse de la CSG sur les non-salariés devrait s’accompagner, dans un souci de neutralité, d’une hausse de leurs cotisations maladie et famille, en particulier pour les hauts revenus.




Les révisions du taux de croissance du PIB dépendent de l’activité économique

par Bruno Ducoudré, Paul Hubert et Guilhem Tabarly (Université Paris-Dauphine)

Les
instituts de statistique révisent régulièrement de manière significative les
chiffres du produit intérieur brut (PIB) dans les mois suivant leurs annonces
initiales. Idéalement, ces révisions – la différence entre les chiffres révisés
et les chiffres initiaux – doivent être non biaisées et imprévisibles :
elles ne doivent refléter que les nouvelles informations non disponibles au
moment des premières estimations. Cependant, même si les révisions sont inconditionnellement
imprévisibles, elles pourraient toujours être corrélées avec d’autres variables
macroéconomiques. C’est ce que suggère le graphique ci-dessous. Lors de la
crise de 2008-2009, le taux de croissance du PIB publié par l’INSEE en première
estimation a été systématiquement plus élevé que le chiffre portant sur le même
trimestre et publié trois ans plus tard.



Dans un
article récent
, nous utilisons des données de panel portant sur 15 pays de
l’OCDE de 1994 à 2017 afin d’évaluer la dépendance des révisions du PIB à la
dynamique de l’activité économique. Nous constatons que l’activité économique
prédit le sens des révisions du PIB : les premières versions des comptes
nationaux ont tendance à surestimer la croissance du PIB pendant les
ralentissements économiques et vice versa.

Nous
constatons également que la source de cette prévisibilité pourrait être liée au
processus de collecte de l’information mobilisée pour constituer les comptes
nationaux. Nos résultats indiquent qu’il n’y a pas de lien significatif entre
les mesures d’activité économique et les révisions à 1 an, alors que ce lien
est significatif pour les révisions à 2 et 3 ans. Seules les révisions à moyen
terme ont tendance à être corrélées à l’activité économique. De plus, les
révisions entre les millésimes à 3 ans et à 1 an sont significativement
associées à l’activité économique. Cette corrélation entre les conditions
économiques en temps réel et les révisions à moyen terme suggère que la
prévisibilité découle de problèmes d’échantillonnage (collecte de données
d’entreprises, …) plutôt que de la construction des comptes trimestriels.

Enfin,
nous utilisons toute une gamme d’indicateurs économiques qui pourraient prévoir
ces révisions et nos résultats indiquent que la prévisibilité provient de la
dynamique de l’activité économique à court terme plutôt que de la position dans
le cycle économique.




Guerres commerciales : quels objectifs pour quels effets ?

par Stéphane Auray et  Aurélien Eyquem

Quelles sont les motivations
économiques derrière la politique commerciale menée par la présidence Trump aux
États-Unis ? La réaction des partenaires commerciaux, notamment la Chine,
est-elle rationnelle économiquement ? Quelles sont les conséquences
macroéconomiques à attendre de telles politiques ? Nous tentons d’apporter
quelques éléments de réponse dans ce billet.



Les déficits extérieurs
américains, que ce soit du compte courant ou de la balance commerciale, ne
datent pas d’hier, ni même d’avant-hier. Comme le montre le graphique
ci-dessous, la dégradation remonte à la fin des années 1970 et sa cause a été
largement discutée dans la littérature. Bien que le graphique semble montrer
que la cause première de ces déficits soit le creusement des déficits commerciaux,
l’analyse économique montre que le solde du compte courant est tout autant
déterminé par l’équilibre entre épargne nationale et investissement : le
creusement des déficits publics (qui absorbent l’épargne des ménages américains),
la place centrale des États-Unis dans la finance mondiale, la financiarisation
des économies dans les années 1980, le rôle spécifique du dollar (Gourinchas et
Rey, 2007), les excédents extérieurs d’autres pays cherchant à s’investir aux États-Unis
 (saving
glut
, Bernanke, 2005), la politique de change chinoise, les imperfections
financières dans d’autres pays (Gourinchas et Jeanne, 2009), notamment en
Chine, sont autant de facteurs additionnels permettant d’expliquer cette
dynamique jointe du compte courant et des échanges commerciaux.

Pour autant, l’administration
Trump n’a vu qu’un seul coupable dans cette situation : les échanges commerciaux
avec la Chine. En effet, si l’on regarde l’importance des balances commerciales
bilatérales – ce que beaucoup d’économistes ne conseillent cependant pas de
faire compte tenu de la nature multi-factorielle des déficits – on s’aperçoit
que les pays-cibles de l’administration Trump ne sont autres que les
principales sources d’importations des États-Unis.

Au regard de ces chiffres,
l’administration Trump a donc décidé d’appliquer un certain nombre de mesures,
tarifaires notamment, en vue d’essayer de réduire ces déficits bilatéraux, en
ciblant principalement la Chine, premier pays contributeur à ces déficits
commerciaux.

Cette idée est-elle saugrenue au
regard de la théorie économique ? Si l’on en croît l’analyse
traditionnelle proposée par les théories du commerce international, les droits
de douane, qui jouent le rôle de taxes à l’importation, représentent des
distorsions majeures qu’il convient d’éliminer pour permettre un développement
et une spécialisation des échanges, conduisant à une amélioration globale du
bien-être. Cependant, la baisse des droits de douane est souvent analysée de
manière symétrique, en se demandant si la situation est meilleure dans un monde
avec ou sans droits de douane. La réponse dominante à cette question n’a pas
véritablement changé : au niveau global, le monde se trouve dans une moins
bonne situation avec des droits de douane.

Cependant, un pays pris isolément
a-t-il intérêt à appliquer des droits de douane, en supposant que les autres
pays ne répliquent pas ? La réponse à cette question, au moins depuis Johnson
(1953), est oui : en appliquant des droits de douane de manière unilatérale,
un pays peut améliorer ses termes de l’échange et ainsi le bien-être des
ménages locaux au détriment du bien-être des ménages dans les autres pays. On
note que le bénéfice d’une telle mesure est une augmentation de la consommation
plus forte (ou une baisse moins forte) que celle de la production, conduisant
en théorie à un accroissement des
déficits commerciaux. Afin d’éviter une telle situation dans un monde où la
coopération internationale était un moyen de tourner le dos aux conflits armés
post-1945, le développement d’institutions telles que le GATT et l’OMC avaient
justement pour but de favoriser une coopération salutaire au niveau mondial,
bien qu’intuitivement contraire aux intérêts strictement nationaux. Ainsi, il
est possible de voir les accords commerciaux comme un instrument permettant
d’éviter une situation où tous les pays finissent par appliquer des droits de
douane et où tout le monde perd, en comprenant que chaque pays, s’il s’en tient
aux termes des accords signés, se trouve globalement gagnant.

L’administration Trump a décidé
de sortir de cette logique et d’augmenter les droits de douane sur les
importations chinoises, faisant fi des règles de l’OMC et initiant ainsi une
véritable guerre commerciale, conduisant à une série de réactions chinoises,
telles que décrites par Bown (2019). Les droits de douane sur les échanges
commerciaux de biens entre les États-Unis et la Chine sont donc passés
de 3% environ en 2017 à près de 26% fin 2019. Plus généralement, l’ensemble des
mesures prises par l’administration Trump ont touché pour près de 420 milliards
de dollars d’importations américaines. En représailles, les mesures
(principalement) chinoises ont touché près de 133 millions d’exportations
américaines (voir Fajgelbaum et al.,
2020).

Les effets de ces mesures tels
qu’évalués par plusieurs études récentes ont été les suivants. Tout d’abord, il
semble que les exportateurs chinois/importateurs américains aient répercuté
presqu’intégralement la hausse des droits de douane sur les prix de vente, de
sorte que les importateurs et consommateurs américains ont subi près de 114
milliards de dollars de pertes. Ensuite, les producteurs américains ont été
bénéficiaires de ces mesures. Cependant, l’ampleur de ces gains peut varier
selon (i) la réaction des consommateurs américains, qui achètent plus
volontiers localement, (ii) la hausse des coûts de production induite par la
hausse des intrants importés et (iii) la baisse des exportations liée aux
mesures de représailles, tarifaires ou non. Dans l’ensemble, Fajgelbaum et al. (2020) montrent que les
producteurs ont gagné 24 milliards de dollars. Enfin, le gouvernement américain
a vu augmenter ses recettes fiscales d’environ 65 milliards. Au total,
l’économie américaine aurait donc perdu 25 milliards de dollars annuellement,
soit environ 0,13% du PIB ou 0,22% de la consommation américaine. Au-delà de ce
chiffre, qui peut paraître faible, on voit que les hausses de droits de douane
donnent lieu à d’importants effets redistributifs entre type d’agents
économiques (producteurs, consommateurs, gouvernement), et certainement, à un
niveau plus microéconomique, à des redistributions entre producteurs (sectorielles
par exemple ou selon leur position dans les chaines de valeur) et entre
consommateurs, selon leurs expositions relatives aux mesures tarifaires.

Du point de vue des déficits
commerciaux américains, les effets ont été presque négligeables, la baisse des
importations en provenance de Chine étant compensée par la hausse des
importations en provenance d’autres pays (parfois limitrophes de la Chine, certains
producteurs ayant délocalisé leur production pour contourner la hausse des
droits de douane). D’un point de vue monétaire, l’augmentation des droits de
douane aux États-Unis doit en théorie également, si les changes sont flexibles,
conduire à une appréciation relative du dollar et à une dépréciation relative
de la monnaie chinoise. Ce faisant, les effets positifs pour les États-Unis de
telles mesures seraient atténués puisqu’une appréciation réduit la
compétitivité des biens produits aux États-Unis et renforce celle des produits
chinois. Jeanne (2020) montre que les mesures américaines de 2018 n’ont eu
presque aucun effet sur le dollar mais ont généré une dépréciation d’environ 5,5 %,
réduisant d’autant les effets négatifs des mesures unilatérales sur la balance
commerciale chinoise en permettant à la Chine d’accroître ses exportations vers
d’autres marchés.

Pour finir, nous proposons une
évaluation propre des raisons et effets d’une augmentation des droits de douane
(Auray, Devereux et Eyquem, 2020). Nous montrons que l’on peut considérer un modèle
à deux pays avec commerce de biens intermédiaires et fixation réaliste des prix
(sujets à rigidités et fixés dans la monnaie de l’acheteur (pricing-to-market), dans lequel existe
un équilibre non-coopératif de fixation endogène des droits de douane. Ce
dernier équilibre permet de quantifier les gains unilatéraux qui existent à
appliquer des droits de douane et les pertes associées à une guerre commerciale
totale (de représailles) si ces droits de douane devaient augmenter. Il établit
un niveau positif, empiriquement réaliste et endogène de droits de douane. Le
modèle est ensuite utilisé pour comprendre les possibles motivations et effets
agrégés d’une augmentation des droits de douane. Nous montrons qu’une augmentation
du degré d’impatience d’un des deux législateurs suffit à produire une
augmentation des droits de douane dans
les deux pays
, et ce de manière endogène. Nous simulons enfin les effets
d’une telle situation en adaptant les mesures prises par les États-Unis (cas
asymétrique) et conjointement par les États-Unis et la Chine (cas symétrique) au
modèle, ce qui correspond (dans le modèle) à une augmentation des droits de
douane comprise respectivement de 65 % et 100 % en 4 ans. Les droits
de douane passent donc de 4,65% initialement à 7,66% et 9,9% respectivement. Le
modèle prédit une baisse du PIB américain à long terme respectivement de 0,4% et
0,8%, soit un effet modéré de 0,1 (0,2) point de croissance par an sur la
période dans le cas asymétrique (symétrique). La consommation des ménages à
long terme baisse respectivement de 0,14% et 0,42%. Ces chiffres sur les effets
subis par les consommateurs sont identiques à ceux avancés par Fajgelbaum et al. (2020). Lorsqu’elles sont
unilatérales (appliquées aux États-Unis uniquement), les augmentations de
droits de douane tendent à apprécier le dollar en termes réels (de seulement 0,6%)
et ont un effet négligeable sur la balance commerciale (voir graphique 2).

Selon toutes les études
disponibles, on voit donc que l’objectif de rééquilibrage des balances
commerciales bilatérales et plus généralement de la balance commerciale des États-Unis
n’est pas atteint à la suite d’une augmentati on des droits de douane. Les
gains, si toutefois ils existent, sont faibles et liés à une possible amélioration
des termes de l’échange, qui tend toutefois à dégrader plutôt qu’à améliorer le
solde de la balance commerciale. Néanmoins, afin que ces (faibles) gains potentiels
se matérialisent, il convient que les partenaires commerciaux ne répliquent pas
eux-mêmes pas le biais d’augmentations de droits de douane ou d’autres mesures
non-tarifaires, ce qui n’est pas le cas en pratique. Si l’on devait finalement faire
le bilan de tous les coûts associés à ces guerres (en ajoutant par exemple le
temps passé par les services administratifs à discuter de telle ou telle mesure
ou encore des coûts de mise en application) il est presque certain qu’ils sont
supérieurs aux éventuels gains. Les guerres commerciales ont donc semble-t-il
peu d’intérêt du point de vue de la politique économique, surtout si leur
principal objectif est de réduire les déficits commerciaux bilatéraux.

Références

Auray Stéphane, Devereux Michael B. et Aurélien Eyquem, 2020,
« The Demand for Trade Protection over the Business Cycle », http://aeyq.free.fr/pdf/DFP_ADE.pdf

Bown Chad,
2019, « US-China Trade War: The Guns of August », https://www.piie.com/blogs/trade-and-investment-policy-watch/us-china-trade-war-guns-august

Fajgelbaum
Pablo D., Goldberg Pinelopi K., Kennedy Patrick J. et Amit K. Khandelwal, 2020,
« The Return to Protectionism », The
Quarterly Journal of Economics
, Volume 135, Numéro 1, Pages 1-55, https://doi.org/10.1093/qje/qjz036

Gourinchas Pierre-Olivier et Olivier Jeanne, 2013, « Capital
Flows to Developing Countries: The Allocation Puzzle », Review of Economic Studies, Volume 80,
Numéro 4, Pages 1484-1515, https://academic.oup.com/restud/article/80/4/1484/1578456

Gourinchas Pierre-Olivier et Hélène Rey, 2007, « From
world banker to world venture capitalist: US external adjustment and the
exorbitant privilege » in G7 Current
Account Imbalances: Sustainability and Adjustment
, University of Chicago
Press. Pages 11-66.

Jeanne
Olivier, 2020, « To What Extent Are Tariffs Offset by Exchange
Rates? », PIIE Working Paper,
20-1, https://www.piie.com/system/files/documents/wp20-1.pdf

Johnson Harry
G., 1953, « Optimum Taris and Retaliation », Review of Economic Studies, Volume 21, Numéro 2, Pages 142-153.




Quel pays développé gagne le plus lors d’une dévaluation de sa monnaie ?

Par Bruno Ducoudré, Iris Guezennec (Stagiaire à l’OFCE et Université Paris II Panthéon-Assas), Éric Heyer, Chloé Lavest (Stagiaire à l’OFCE et ENSAE ParisTech) et Lucas Pérez (Stagiaire à l’OFCE et ENS Paris-Saclay)

La multiplication récente des
mesures protectionnistes, les mouvements imprévisibles des taux de change et la
course à la compétitivité renouvelée impliquent de poursuivre les réflexions
portant sur l’impact macroéconomique de l’environnement international sur
l’évolution des économies. Plus précisément, les fluctuations de prix dans le
commerce international n’entraînent pas des variations symétriques des volumes
échangés et des prix facturés : deux pays peuvent réagir différemment à
une même variation des tarifs douaniers, des taux de change ou des prix à
l’échange.



Pour comprendre les enjeux liés à
ces variations de prix dans le commerce international, nous
évaluons, dans cet article, sur données
agrégées les élasticités-prix du commerce international (exportations et
importations) pour six grands pays développés : la France, l’Allemagne,
l’Italie, l’Espagne, le Royaume-Uni et les États-Unis. Ces estimations
actualisent les
travaux de Ducoudré et Heyer
(2014)
et
sont comparées à ceux de la Banque de France (Bussière, Gaulier
et Steingress, 2016)

et de la BCE (Dieppe, Padiella
et Willman, 2012)
. Si elles s’appuient pour l’essentiel
sur les données fournies par la comptabilité nationale, la demande adressée
pour chaque pays est issue d’une nouvelle base de données construite à l’OFCE
retraçant les flux de commerce de biens et services et les prix au niveau
mondial décomposé en 43 zones géographiques.

Concernant
les exportations en volume de biens et services (graphique 1), nous trouvons
que les élasticités-prix
des exportations italiennes et espagnoles affichent globalement un doublement
par rapport aux valeurs estimées en 2014 : ces deux pays affichent
respectivement une élasticité-prix de 1,2 et 1,74. Le Royaume-Uni est le pays
qui présente la baisse la plus prononcée par rapport à Ducoudré et Heyer
(2014), à 0,36 contre 0,73 précédemment. L’élasticité des exportations
britanniques est ainsi la plus faible parmi les pays considérés. Enfin, dans le
cas des États-Unis, l’élasticité est plus faible que celle obtenue par Ducoudré
et Heyer (2014), passant de 0,74 à 0,54. Elle reste toutefois plus élevée que
celle obtenue par la Banque de France qui était de 0,26. L’élasticité-prix des
exportations allemandes est la seule qui présente une stabilité temporelle
aussi marquée, avec des valeurs qui ne sont pas statistiquement différentes
entre 2014 et aujourd’hui.

Pour
pouvoir appréhender
les élasticités-prix du prix des exportations, il est nécessaire de
s’intéresser au comportement des firmes exportatrices. Face à un choc de
change, soit elles choisissent de reconstituer (respectivement comprimer) leurs
marges lorsque leur monnaie se déprécie (respectivement s’apprécie), soit elles
choisissent de répercuter l’intégralité des variations de change dans leurs
prix (complete exchange rate pass-through).
Une élasticité-prix de 0,5 reflète un comportement de prix des entreprises
médian entre une reconstitution intégrale des marges lorsque le change
s’apprécie et une stabilisation du prix à l’exportation exprimé en devises via une compression des marges. Nos
résultats (graphique 2) reflètent ce comportement pour la France (0,45),
l’Italie (0,46) et le Royaume-Uni (0,55).

Enfin
nous nous demandons quelles conséquences
aurait sur son commerce extérieur un gain de compétitivité-prix d’un pays par
rapport à l’ensemble de ses concurrents ? Afin de répondre à cette question,
nous simulons les effets d’un gain de compétitivité-prix de 10 % de chaque pays
par rapport à l’ensemble de ses concurrents dans un modèle incorporant les
équations présentées auparavant. Le choc intervient à la première période
(premier trimestre) et est maintenu tout au long de la simulation. Nous faisons
l’hypothèse que le pays considéré gagne en compétitivité-prix par rapport à
l’ensemble de ses partenaires, sans distinguer les partenaires dans et hors de
la zone euro. Ainsi, nous mesurons l’impact de ce gain sur les exportations et
les importations en volume ainsi que sur les prix des exportations et des
importations (hors énergies ; tableau).

Dans les cas des États-Unis et du
Royaume-Uni, le choc s’apparente à une dépréciation du taux de change contre
l’ensemble des autres monnaies. Ce n’est pas le cas pour les pays membres de la
zone euro : pour eux le choc correspond à la situation dans laquelle tous
les prix d’exportation des concurrents exprimés en euro augmenteraient de 10%.

Pour
chacun des pays étudiés, la condition dite « de Marshall-Lerner » ou
encore théorème des élasticités critiques est vérifiée (S>0). Une dévaluation (respectivement une appréciation) conduit
alors, toutes choses égales par ailleurs, à une amélioration (respectivement
dégradation) du solde commercial. Autrement dit, les effets positifs (négatifs)
des gains de compétitivité sur les volumes l’emportent sur les effets négatifs
(positifs) associés à la dégradation des termes de l’échange. En conséquence, tout gain de
compétitivité-prix d’un pays conduit à une hausse du volume des exportations de
ce pays et une baisse des importations, d’autant plus que S est élevé. En effet, toutes choses égales par ailleurs, à la
suite du choc, le prix relatif des exportations diminue. Cela augmente la
demande pour ses exportations. Cependant, le prix des exportations est
également affecté à la hausse par le comportement de pricing des
exportateurs qui ont tendance à rétablir une partie de leurs marges. De ce
fait, la hausse de la demande étrangère est atténuée par la hausse du prix
pratiquée par les firmes exportatrices. En ce qui concerne les importations, le
gain de compétitivité sur le marché national se traduit par une hausse des prix
d’importations et donc une baisse des volumes importés. On observe par ailleurs
que le prix des importations augmente mais proportionnellement moins que les
gains de compétitivité : la transmission des gains de compétitivité sur le prix
des importations est incomplète (incomplete pass-through).

À long terme, ce sont l’Espagne et l’Italie qui bénéficient le plus en
matière de volumes exportés. Le Royaume-Uni est le pays dont les exportations
augmentent le moins (tableau, colonne 1). Cela s’explique par les valeurs des
élasticités-prix des volumes d’exportation qui s’élèvent à 1,21 et 1,74 pour
l’Italie et l’Espagne respectivement et 0,36 pour le Royaume-Uni. D’autre part,
le Royaume-Uni est le pays dont l’élasticité du prix des exportations est la
plus élevée à la suite d’une dépréciation de 10 % de son taux de change
effectif nominal (5,39 contre 2,2 pour les États-Unis) (cf.
tableau, colonne 3). En ce qui concerne les
importations, on observe qu’à long terme, les quantités importées baissent
relativement plus en Espagne et au Royaume-Uni que dans les autres pays
(tableau, colonne 2). Cela s’explique par une élasticité-prix des importations
plus élevée dans ces deux pays : 0,92 pour l’Espagne et 0,99 pour le
Royaume-Uni contre 0,38 pour l’Allemagne et 0,70 pour la France.




Entrée des jeunes dans la vie active : quelles évolutions de leurs trajectoires professionnelles ces vingt dernières années ?

Par Xavier Joutard

Les premières années de vie active sont un moment clé pour la carrière professionnelle, d’autant plus en période de récession. Démarrer sa carrière dans un contexte économique très dégradé peut induire des stigmates persistants et impacter durablement les trajectoires professionnelles des jeunes sortant pour la première fois du système éducatif.



Cela peut concerner la « Génération
de 2010 », c’est-à-dire les jeunes sortis du système de formation en 2010.
Ces jeunes sont entrés sur un marché du travail ayant subi la Grande récession
de 2008. Moins de 3 ans après, ils ont été confrontés à une nouvelle crise, celle
des dettes souveraines européennes, et ont ensuite continué à évoluer sur un
marché du travail très dégradé.

De plus, cette génération, davantage
diplômée que les précédentes, se retrouve au cœur de transformations plus
structurelles du marché du travail : évolution des pratiques de recrutement
avec l’explosion des embauches sur contrats courts, nouvelles vagues
d’innovations technologiques liées à la numérisation et l’intelligence
artificielle, tertiarisation croissante des activités économiques, etc. 

Par rapport aux jeunes de la
« génération de 1998 », ayant eu la chance de s’insérer dans une
conjoncture plus favorable, quels résultats peut-on mettre en avant en
comparant leurs trajectoires professionnelles, au cours de leurs premières
années sur le marché du travail ? Peut-on observer des différences selon
le genre et les niveaux de formation ?

Un accès à l’emploi à durée
indéterminée plus tardif et moins fréquent pour les jeunes hommes les moins
diplômés de 2010

À l’aide des enquêtes Génération du Céreq (Centre d’études et de recherches sur les qualifications), on a reconstitué et comparé les trajectoires d’insertion de jeunes sur leurs 7 premières années d’activité : ces enquêtes permettent en effet de suivre des jeunes d’une même génération, sortant de formation initiale la même année et interrogés à 3 reprises, (3, 5 et 7 ans après leur sortie).  L’insertion des jeunes sortant du système éducatif sur le marché du travail s’est dégradée en vingt ans. Particulièrement pour les jeunes hommes sortant de formation initiale sans diplôme ou avec un seul diplôme du secondaire. Sept ans après leur entrée sur le marché du travail, seule une minorité des jeunes les moins qualifiés – disposant au mieux du baccalauréat – de la génération 2010 ont un emploi à durée indéterminée à temps complet (47 %, soit 20 points de moins qu’il y a 12 ans, cf. aires bleues des graphiques 1). Et le délai d’accession à un tel emploi s’est fortement rallongé :  il faut près de 5 ans en moyenne pour obtenir un premier CDI à temps complet pour un jeune homme peu ou non qualifié entré sur le marché du travail en 2010. Pour génération 1998, ce délai était de 2 à 3 ans (32 mois, cf. tableau I-1).

Une moindre dégradation de l’insertion des jeunes les plus qualifiés sur le marché du travail

Les jeunes plus qualifiés ayant
obtenu un diplôme du supérieur semblent moins impactés par des conditions
économiques dégradées en début de carrière : les taux d’insertion dans
l’emploi stable – CDI à temps partiel et complet – à horizon de 7 ans restent
toujours élevés pour les sortants de la génération 2010 : 77 % pour
les jeunes hommes et 71 % pour les jeunes femmes (cf. graphiques 3-B et
4-B). En revanche, ils mettent davantage de temps pour accéder au premier
emploi à durée indéterminée : 8 à 10 mois en moyenne de plus que la
génération 1998 (cf. tableau I-2). De plus, ils traversent plus souvent une
période de précarité, qui se traduit par un passage plus fréquent par un
contrat à durée déterminée au cours des 7 premières années de vie active :
68% (56%) des jeunes femmes (hommes) sont passées au moins une fois par un CDD
entre 2010 et 2017, soit une progression de 4 points par rapport à la
génération de 1998.

 Des analyses du Céreq ont également montré que les perspectives d’évolution de carrière et de salaire ont été dégradées pour les jeunes les plus qualifiés : plus grande difficulté à accéder au statut de cadre (Epiphane et al., 2019), progression des taux de déclassement professionnel (Di Paola et Moullet, 2018) et moindre « rentabilité » de leur diplôme avec des salaires inférieurs (Barret et Dupray, 2019).

Des trajectoires professionnelles devenues très proches entre les hommes et les femmes les moins qualifiés

Les trajectoires d’insertion s’étant
fortement dégradées pour les jeunes hommes les moins qualifiés, elles se sont
par conséquent très nettement rapprochées de celles des jeunes femmes les moins
qualifiées. Elles sont même aujourd’hui quasi-identiques selon le genre (cf.
graphiques 1-B et 2-B), alors que les jeunes femmes de la génération 1998
subissaient un taux d’emploi en CDI plus de 20 points inférieurs à celui de
leurs homologues masculins. Une différence subsiste toutefois entre les
genres : la part des CDI à temps partiels chez les jeunes femmes peu ou
non qualifiées (« aire jaune » dans les graphiques) reste largement
supérieure à celle des jeunes hommes.

En revanche, parmi les jeunes
diplômés les plus qualifiés, les écarts hommes-femmes restent marqués. 75 % des
jeunes hommes bénéficient de CDI à temps plein, après 7 ans d’expérience sur le
marché, contre 60 % des jeunes femmes, soit 15 points de plus. De plus, les
durées d’accès à un premier emploi de ce type sont plus longues de 8 mois pour
les jeunes femmes.

Références complémentaires :

Altonji J. G., Kahn L. B. et J. D.
Speer, 2016, « Cashier or Consultant? Entry Labor Market Conditions, Field of Study, and Career
Success », Journal of Labor Economics, 34(1), pp. 361-401.

Barret C.  et A. Dupray, 2019, « Que gagne-t-on à
se former ? Zoom sur 20 ans d’évolution des salaires en début de vie active », Céreq
Bref,
n° 372.

Couprie H. et X. Joutard, 2017,
« La place des emplois atypiques dans les trajectoires d’entrée dans la
vie active : évolutions depuis une décennie », Revue Française
d’Economie
, volume XXXII, pp. 59-93.

Couprie H. et X. Joutard, 2020, « Atypical
Employment and Prospects of Young Men and Women on the Labor Market in a Crisis
Context », mimeo.

Di Paola, V. et S. Moullet, 2018,
« Le déclassement, un phénomène enraciné »   dans « 20 ans d’insertion professionnelle
des jeunes, entre permanences et évolutions
 » coordonné par T.
Couppié, A. Dupray, D. Epiphane et V. Mora, Céreq Essentiels.  

Epiphane D., Mazari Z., Olaria M.
et E. Sulzer, 2019, « Des débuts de carrière plus chaotiques pour une
génération plus diplômée », Céreq Bref, n° 382.




Capitalisme, environnement et sciences économiques

par Xavier Ragot


Il faut
adapter nos modes de vie et notre économie à la transition énergétique pour
préserver l’environnement.  Le moins que
l’on puisse dire est que les essayistes et économistes divergent sur le moyen
d’y parvenir. Des questions fondamentales émergent dans le débat public :
le capitalisme est-il compatible avec la transition énergétique et la
protection de la biodiversité ? Comment les sciences économiques peuvent-elles
être utiles pour penser ce changement nécessaire ?



Deux livres
récents montrent la divergence des points de vue. Le livre de Christian
Gollier
« Le climat après la fin du moi », (édition PUF) et le
livre d’Eloi Laurent[1]
« Sortir de la croissance mode d’emploi », (édition LLL) s’opposent
sur l’angle d’analyse, mais proposent en fait des recommandations
complémentaires.  Christian Gollier
insiste sur la capacité d’adaptation des économies de marché et le besoin de
transformer tous les prix pour révéler les vrais coûts en matière d’émission de
CO2 et de dégradation de l’environnement. Il plaide logiquement pour un prix du
carbone élevé, de l’ordre de 50 euros la tonne aujourd’hui, mais surtout une
croissance modérée mais continue de l’ordre de 4 % par an.  Christian Gollier présente aussi l’ensemble
des changements comptables, financiers pour que le coût réel de la dégradation de
l’environnement soit intégré par tous les acteurs, entreprises, ménages et
Etats, dans leurs choix économiques.

Eloi
Laurent insiste sur la nécessité de changer d’indicateurs de progrès, afin de sortir
d’un indicateur simpliste de croissance (comme le PIB). Il montre comment construire
des indicateurs de bien-être incluant la question environnementale, susceptible
de guider l’action européenne, nationale, dans la suite des réflexions du
rapport Fitoussi-Sen-Stiglitz. De manière plus concrète, il montre comment les
territoires et les villes peuvent construire des indicateurs quantitatifs pour
guider le débat et l’action publics dans une stratégie de préservation de l’environnement
socialement juste.  Christian Gollier
veut changer les incitations privées, Eloi Laurent veut déplacer le débat
public et la politique publique.

Cette
présentation ne doit pas cacher une différence de tonalité entre les deux
livres. S’agit-il de réorienter la croissance ou de sortir de la croissance ? Faut-il
mobiliser les acteurs privés ou les acteurs publics ? La réponse à ces
questions importantes oriente les recommandations les plus pratiques. Je
reviens donc ici sur cet enjeu essentiel, afin de proposer une réponse aux deux
questions reliant capitalisme, transition environnementale et sciences
économiques.

Pour penser la possibilité même d’une adaptation du capitalisme à la question environnementale, il faut d’abord se tourner vers l’histoire et la géographie, la diachronie et la synchronie du capitalisme en d’autres termes.   L’histoire, tout d’abord, pour observer l’évolution du capitalisme au XXème siècle face à la question alors principale, qui était la question sociale. La géographie ensuite pour comparer la diversité des capitalismes.

Quelle a
été la grande transformation du capitalisme XXe siècle ? Le capitalisme
a-t-il maximisé la croissance par une prédation accrue sur la vie des
travailleurs ? Non, bien au contraire. Le capitalisme dans tous les pays
développés n’a pas maximisé la croissance. En effet, il a utilisé une partie
des gains de productivité pour réduire le temps de travail, contribuant à
l’invention de la consommation de masse et de la société des loisirs. La durée
annuelle du travail par travailleur était de 3000 heures en 1840, pour
atteindre aujourd’hui environ 1500 heures pour l’ensemble des actifs, soit une
réduction par deux. Ensuite, le capitalisme n’a pas maximisé l’accumulation du
capital, il a conduit à l’émergence d’une consommation de masse.  En effet, la maximisation de l’accumulation
du capital passe par l’investissement. Celle-ci représente moins de 20 %
de la valeur produite chaque année contre 80 % pour la consommation
totale, en France.  Pour mémoire le taux
d’investissement est supérieur à 40 % en Chine, essentiellement du fait de
soutiens publics. Pour prendre la mesure de cette évolution, le système
économique valorisant le temps de travail héroïque, en la personne de Stakhanov
et l’accumulation du capital avec des objectifs ambitieux du Plan n’était pas
le capitalisme. La bataille entre les deux systèmes économiques, capitalisme et
communisme, s’est faire en valorisant le loisir au sein du capitalisme et non
le travail.

Cette
transformation du capitalisme ne provient pas du système économique lui-même
mais de l’ensemble de législation, conflits sociaux, de l’émergence du
syndicalisme au début du XXème siècle, etc. L’intégration de la question
sociale au capitalisme n’est pas une stricte nécessité économique mais une volonté
politique et sociale.  L’observation du
XXème siècle ne peut amener à conclure que le capitalisme est intrinsèquement
progressiste, mais à la conclusion qu’il est politiquement plastique.  Ensuite, la comparaison entre les pays montre
une grande diversité des capitalismes, qu’ont étudié  les institutionnalistes et l’Ecole de la
Régulation, en particulier[2].  Pour faire court, que l’on puisse qualifier à
la fois la Suède et la Chine de capitalisme montre la diversité des compromis
sociaux compatibles avec une économie qualifiée de capitaliste. Devant une
telle diversité, l’on peut même se demander si le mot conserve encore une
efficacité intellectuelle.

C’est donc inexact
de penser que le capitalisme ne conduit qu’à la recherche que la croissance la
plus élevée.  La question consiste plutôt
à identifier quelles seront les forces sociales qui amèneront à transformer
notre système économique afin de placer au son cœur la question environnementale.  Comme pour la question sociale, tous les
aspects de l’économie sont concernés, le droit du travail, la fiscalité, la
politique économique la comptabilité d’entreprise, la finance, etc. C’est un
changement systémique du même ordre. Les livres de Christian Gollier et celui d’Eloi
Laurent convergent sur ce point et abordent la diversité de ces questions.  

 La seconde question
concerne l’utilité de la science économique elle-même pour la compréhension des
efforts nécessaires à la transition environnementale. Ici une précision est
essentielle, en écho avec l’approche historique mentionnée plus haut. Aucun
économiste sérieux ne pense que le but de l’économie doit être de maximiser la
croissance ou une mesure de celle-ci comme le PIB[3]. Au
contraire la science économique s’est construite contre cette vision
productiviste. Elle s’est construite sur l’idée que le bien-être est le but à
atteindre, pas la croissance. Ce dernier est certes toujours difficile à
mesurer, mais l’ensemble des objets matériels et des services ne sont que des
moyens. Plus encore l’objet de la science économique n’est pas l’abondance mais
la rareté.  Ainsi, si la société se donne
réellement comme but la réduction de son empreinte environnementale, la science
économique permettra, modestement mais utilement, d’identifier les leviers. Comme
pour toute discipline traitant des questions environnementales, l’économie
génère des intentions et des travaux parfois contradictoires, qu’il faut
utiliser à bon escient. Cependant, les sciences économiques seront un outil
puissant pour penser les transitions nécessaires. Soyons plus concret :
Faut-il introduire une taxe carbone, une taxe carbone aux frontières, ou
interdire certains biens ou déplacements en avion ?  Comment penser l’évolution du prix du carbone
ou le marché des droits à émission actuellement en Europe ?  Une contribution particulièrement utile de la
science économique à cette réflexion est l’étude menée par l’ADEME,
Beyond Ratings et l’OFCE, par Paul Malliet notamment
. Elle consiste à mesurer les effets d’une taxe carbone aux frontières
de l’Europe, sur les ménages français entre les plus pauvres et les plus
riches. L’approche tient aussi compte des territoires et des personnes pour
comprendre, et donc compenser, les effets d’un changement vers une consommation
compatible avec la transition énergétique. La science économique seule ne permettra
pas, bien sûr, de comprendre toutes les facettes de ce changement de société
mais elle y contribuera.  Est-ce à dire
que la science économique est exempte de toute critique face aux changements
climatiques ? Non. Comme l’a montré Katheline
Schubert
dans un article de la revue de l’OFCE,
l’économie de l’environnement est encore peu développée par rapport à d’autres
pans de l’économie.  On peut bien mieux
faire, être plus précis et plus interdisciplinaire.  L’expert dispose d’un grand nombre
d’indicateurs, le PIB, bien sûr, mais aussi les émissions de CO2 les
différentes formes d’inégalités, etc. Cependant, il est aussi de la
responsabilité de l’économiste de transformer ces éléments en des mesures
opérationnelles, utiles au débat politique et la décision publique. C’est cet
effort que fait Éloi Laurent en réfléchissant à des indicateurs pour guider
l’action publique mesurer les efforts accomplis ou, malheureusement, l’absence
d’efforts sur ce chemin difficile de la transition environnementale. Il est
aussi de la responsabilité de l’économiste de fournir des quantifications
monétaires des efforts nécessaires, c’est ce que fait Christian Gollier en
discutant les sentiers possibles du prix du carbone.

La question de la compatibilité du capitalisme et de
l’écologie n’est donc pas économique mais politique : Comment trouver les
compromis sociaux pour changer nos économies d’une manière socialement
acceptable ? Une condition est nécessaire dans tous les cas :
Débattre de tous ces aspects de la manière la plus large et compréhensible
possible. C’est ce que font brillamment ces deux livres.


[1] Voir la
vidéo du 4 décembre 2019 pour une présentation de l’ouvrage.

[2] Voir par exemple la discussion de la question
environnementale dans la théorie de la Régulation dans Robert Boyer, « Economie politique des capitalismes », La découverte, 2015.

[3] Paradoxalement, c’est peut-être Keynes qui donne parfois l’impression que la croissance est un objectif économique.  Ses considérations sont à comprendre dans le cadre de la crise de 1929, sa vision de long terme et du progrès est clairement au-delà de la croissance, comme le montre ses écrits sur la société désirable, dans sa « lettre à nos petits-enfants ».