Le casse-tête de l’inflation dans la zone euro : c’est la tendance, pas le cycle!

Par Thomas Hasenzagl, Filippo Pellegrino,
Lucrezia Reichlin, Giovanni Ricco

Que se passe-t-il avec l’inflation et la productivité dans la zone euro ?
La Banque centrale européenne semble avoir perdu la capacité de relever
l’inflation et les anticipations de prix ont glissé depuis la dernière
récession. Une grande partie du débat politique a porté sur l’aplatissement de
la courbe de Phillips. Pourtant, les estimations du processus conjoint
d’inflation et de production indiquent que les éléments les plus pertinents du
puzzle sont la diminution du potentiel de production et de l’inflation
tendancielle.



La dernière prévision d’inflation (HICP) de la BCE montre
une révision à la baisse brutale par rapport à ce qui avait été prévu il y a
deux ans (voir BCE, 2017, 2019). Par exemple, l’inflation pour cette année
était estimée à 1,5%, contre 1,2% aujourd’hui. Les chiffres correspondants pour
2020 sont respectivement de 1,7% et 1%.

En janvier 2018, dans notre billet de blog, nous avions
prévu que l’inflation globale de la zone euro serait de 1,1% cette année et
resterait proche de 1% pour les cinq prochaines années. Cette prévision était
basée sur notre modèle semi-structurel d’inflation américaine (Hasenzagl et al., 2018a) adapté aux données de la
zone euro. À l’époque, nous étions beaucoup plus pessimistes que la BCE, mais
conformes aux attentes du marché (Hasenzagl et
al
., 2018b).

Dans ce billet, nous posons deux questions. Premièrement,
avec l’avantage de près de deux ans de données supplémentaires, notre vision a-t-elle
changé ? Deuxièmement, qu’implique la réponse pour nos estimations de la
courbe de Phillips et de l’écart de production dans l’Union ?

La réponse à la première question est négative. Nos prévisions pour cette année sont conformes à celles prédites il y a deux ans et indiquent 1,48% pour le T4-2022. Ceci est proche de ce que la BCE prévoit pour 2021.

Pour répondre à la deuxième question, nous pouvons utiliser le modèle pour
obtenir une vue cohérente. En effet, notre modèle produit des estimations d’un
certain nombre des composantes structurelles – production potentielle, écart de
production, loi d’Okun, cycle de prix de l’énergie – et décompose l’inflation
en (i) un cycle expliqué par la courbe de Phillips qui connecte l’écart de
production aux prix, (ii) une composante liée aux prix du pétrole, et (iii) l’inflation
tendancielle identifiée comme une anticipation d’inflation à long terme.

La figure 2 présente notre estimation de l’écart de production par rapport
aux estimations du FMI, de la Commission européenne et de Bloomberg, et la
figure 3 montre notre taux de croissance de la production potentielle.

Notre mesure de l’écart de production est assez corrélée aux mesures
institutionnelles. Cela implique une tendance adaptative qui montre un déclin
constant depuis le début de notre échantillon au milieu des années 1980 et un
ralentissement supplémentaire persistant depuis la grande crise financière (la
croissance potentielle est maintenant estimée à 1%). Celles-ci, en accord avec
l’idée selon laquelle de profondes récessions créent une hystérèse dans l’activité
économique réelle (voir, par exemple, Galì, 2015). Nous attribuons le
ralentissement de la croissance moyenne de la production depuis la crise à la
tendance plutôt qu’au cycle. Cette opinion est également corroborée par
l’observation selon laquelle la récession de 2008 est associée à une baisse
persistante de l’investissement privé, ce qui est en contradiction avec les
régularités du cycle économique précédent (Caruso et al., 2019).

Notre modèle implique une courbe de Phillips relativement pentue par
rapport aux estimations de la littérature selon lesquelles, elle s’est affaiblie
ou a même disparu (voir, par exemple, Ball et Mazumder, 2011 ; FMI, 2013 et
Hall, 2013). Cependant, l’écart de production étant relativement faible et, à
l’heure actuelle, le prix de l’énergie ayant un effet neutre sur l’inflation
globale, la dynamique de l’inflation est expliquée en grande partie par sa
tendance. Le graphique 4 montre la décomposition de la composante cyclique de
l’inflation mesurée par l’IPCH en énergie (en rouge), le cycle économique (en
bleu) et le bruit (en jaune) et fait le bilan.

Cette vision de la dynamique macroéconomique de la zone
euro peut être résumée comme suit.

Nous avons toujours un écart de production positif qui
est proche du sommet (premier trimestre de 2020) et l’économie devrait
maintenant retrouver une croissance tendancielle estimée à environ 1%. La
baisse de l’inflation est principalement imputable à sa composante tendancielle
que nous identifions comme des anticipations de long terme. La courbe de
Phillips, bien que pentue, contribue peu à la hausse car la baisse de la
croissance de la production est due en grande partie à un ajustement à la
baisse du potentiel de production.

Bien que la discussion politique ait principalement porté
sur la courbe de Phillips et le cycle économique, il convient de comprendre les
tendances. Cela est vrai tant pour la production que pour l’inflation.

En ce qui concerne les implications politiques, le point
à retenir dans la zone euro devrait être le fait que les anticipations
d’inflation (la tendance) sont en baisse depuis le début de 2014 et que, malgré
une certaine volatilité, elle devrait rester inférieure à l’objectif pendant
longtemps. Le retard de l’action de la politique monétaire en 2012-2014 pourrait
être une explication. Il est intéressant de noter que nos estimations aux
États-Unis indiquent une tendance à la hausse de l’inflation (voir Hasenzagl et al., 2018b). Cette tendance est
également corroborée par la dynamique des anticipations d’inflation sur un
horizon de cinq ans par les prévisionnistes professionnels, illustrée à la
figure 5.

Un objet de réflexion intéressant est la compréhension
des causes communes de la baisse de la croissance de la production tendancielle
et de l’inflation tendancielle. La dette héritée et l’aversion pour le risque,
qui sont la conséquence de la grande crise, ainsi que des incertitudes liées à
une profonde transformation de nos économies, du changement climatique à la
technologie, en passant par le vieillissement, pourraient peser de manière
persistante sur la production et l’inflation. Cela nécessite une politique
monétaire et budgétaire non standard pour faire face aux tendances du PIB
nominal.

Notez également que la même prévision d’inflation aurait
pu être obtenue en appliquant au modèle un écart de production plus important
(et une tendance plus prononcée du PIB) mais une courbe de Phillips plus plate
(voir, par exemple, Jarociński et Lenza, 2018). Par conséquent, la question qui
se pose n’est pas de savoir quelle est la pente de la courbe de Phillips, mais
bien de savoir si nous croyons à un monde caractérisé par une courbe de
Phillips pentue et une croissance de la production potentielle en baisse, ou
dans un monde où la courbe de Phillips est plate et une croissance de la production
potentielle constante.

Ce billet a été publié en anglais sur le site de Vox.eu

Références

Ball, Laurence, et Sandeep
Mazumder, 2011, “Inflation Dynamics and the Great Recession”, Brookings Papers on Economic Activity,
42 (Spring): 337-381.

Caruso, Alberto, Lucrezia Reichlin,
Giovanni Ricco, 2019, “Financial and Fiscal Interaction in the Euro Area
Crisis: This Time was Different”, European
Economic Review,
119: 333-355.

European Central Bank, 2017, “ECB
Staff macroeconomic projections for the euro area”, décembre :

https://www.ecb.europa.eu/mopo/strategy/ecana/html/table.en.html

European Central Bank, 2019, “ECB
Staff macroeconomic projections for the euro area”, septembre :

https://www.ecb.europa.eu/pub/projections/html/ecb.projections201909_ecbstaff~0ac7cbcf7a.en.html#toc6

Galí, Jordi, “Hysteresis and the
European unemployment problem revisited”, ECB Forum on Central Banking, mai
2015.

Hall, Robert E., 2013, “The Routes into
and Out of the Zero Lower Bound”, Paper presented at the Global Dimensions of
Unconventional Monetary Policy Federal Reserve Bank of Kansas City Symposium,
Jackson Hole, Wyoming:

https://www.kansascityfed.org/publicat/sympos/2013/2013hall.pdf

Hasenzagl, Thomas, Filippo
Pellegrino, Lucrezia Reichlin, Giovanni Ricco, 2018a, “Low inflation for longer”,
janvier :

https://voxeu.org/article/low-inflation-longer

Hasenzagl, Thomas, Filippo
Pellegrino, Lucrezia Reichlin, Giovanni Ricco, 2018b, “A Model of the Fed’s View on Inflation”, CEPR Discussion Paper, No. 12564.

IMF, 2013, “The Dog that Didnt
Bark: Has Inflation Been Muzzled or Was It Just Sleeping?” In World Economic Outlook, avril 2013:
Hopes, Realities, Risks. Chapter 3.

Jarociński, Marek et Michele Lenza,
2018, “An Inflation‐Predicting Measure of the Output Gap in the Euro Area,” Journal of Money, Credit and Banking,
Blackwell Publishing, vol. 50(6), pages 1189-1224, septembre.




Quelles sont les marges de manœuvre pour les finances publiques françaises dans un univers de taux d’intérêt durablement bas ?

Par Eric Heyer et Xavier Timbeau

En France, comme dans l’ensemble des pays de l’OCDE, les taux d’intérêt souverains baissent et sont maintenant inférieurs à la croissance potentielle nominale. Les raisons avancées de cette baisse sont multiples : politiques monétaires ultra-expansionnistes, insuffisance de l’offre d’actifs sûrs par rapport à la demande, excès d’épargne privée, anticipations de croissance économique à la baisse. Les conséquences économiques le sont également : ce que cela implique pour les anticipations, l’investissement, la soutenabilité des intermédiaires financiers ou encore l’allocation des capitaux sur les actifs risqués. Nous nous intéressons ici au point de vue budgétaire et aux marges de manœuvre pour les finances publiques françaises à l’horizon 2030, ouvertes par la perspective de taux durablement bas.



Partant de la situation anticipée
pour 2021 dans
la dernière prévision de l’OFCE
, deux cas polaires sont considérés pour
la période 2022-2030 :

  1. Dans le premier, celui du statu quo, les taux d’intérêt auxquels emprunte l’Etat français restent bas. Ainsi, l’écart entre le taux souverain français à 10 ans et la croissance nominale resterait constant autour de -2 points. Compte tenu de la maturité de la dette française (supérieure à 7 ans), le taux apparent continuerait de baisser jusqu’à 1% en 2030 (graphique 1).
  2. Le second cas est une situation de « normalisation » du taux souverain qui, dès 2022, se stabiliserait en moyenne à 2,7%. Le taux apparent augmenterait alors progressivement tout au long de la période d’analyse comme l’illustre le graphique 2, jusqu’à 2,7% en 2030. Dans chacun des cas, un aléa est simulé autour des scénarios de référence.

A l’intérieur de ces deux cas
polaires, nous simulons l’incidence de la stratégie budgétaire de la
France :

  1. La
    première stratégie consiste à respecter les règles budgétaires du PSC, en procédant
    à des ajustements structurels de 0,5 point de PIB jusqu’à ce que le déficit
    public structurel soit de 0,4 point de PIB. Partant d’un déficit structurel en
    2021 de 1,5 point de PIB, cette stratégie impose 2 années d’ajustement de 0,5
    point (2022 et 2023), une année à 0,1 point (2024) et neutre ensuite.
  2. La
    seconde stratégie, plus proche de celle du gouvernement présent, consiste à
    recycler la réduction de la charge d’intérêt dans le soutien à l’activité. Ainsi,
    l’ajustement structurel est nul et le déficit structurel reste à 1,5 point de
    PIB jusqu’en 2030.

Un résumé des simulations est
présenté dans le tableau 1.

Trois résultats principaux
ressortent :

  1. Dans tous les cas, la dette publique baisserait à l’horizon 2030. Cette baisse serait faible (-3,5 points de PIB entre 2021 et 2030) – proche de la stabilité – si les taux se normalisent rapidement et qu’il n’y a pas d’ajustement budgétaire. Elle serait de plus de 10 points de PIB (soit plus de 1 point de réduction par an) dans un contexte de taux durablement bas et de respect des règles budgétaires ;
  2. Le non-respect de règles budgétaires permet de dégager 1 point de PIB de marges budgétaires primaires à l’horizon 2030 ;
  3. Des taux d’intérêt bas (par rapport à leur normalisation) permettent 1,7 point de PIB de marges budgétaires primaires à l’horizon 2030 ;

Enfin, dans le cas qui nous apparaît le plus probable, à savoir le maintien de taux durablement bas et l’absence d’ajustement budgétaire, la baisse de la dette publique serait limitée (graphique 3). L’incertitude usuelle ne remettrait pas en cause ce scénario, mais une crise majeure le rendrait évidemment caduque. On pourrait également opposer que les taux souverains bas sont le symptôme d’une crise latente. Notre optique est que cette crise est de fait inclue dans le scénario de croissance et que c’est au contraire le scénario de normalisation des taux qui devrait intégrer un rebond de l’activité plus important.




Political Acceptability of Climate Policies: Do we Need a ‘Just Transition’ or Simply Less Unequal Societies?

By
Francesco Vona

This blog
post is partly based on the policy paper published in the journal Climate
Policy: ‘Job
Losses and the Political Acceptability of Climate Policies: why the job killing
argument is so persistent and how to overturn it.

Concerns for a ‘just transition’ towards a
low-carbon economy are now part of mainstream political debates as well as of
international negotiations on climate change. Key political concerns centre on
the distributional impacts of climate policies. On the one hand, the ‘job
killing’ argument has been repeatedly used to undermine the political
acceptability of climate policy and to ensure generous exemptions to polluting
industries in most countries. On the other hand, the rising populist parties
point to carbon taxes as another enhancer of socio-economic inequalities. For
instance, the Gilets Jaunes (Yellow vest) movement in France is a classic
example of the perceived tension between social justice and environmental
sustainability. 



Demand for a fairer distribution of
carbon-related fuel taxes and of subsidies for electric vehicles mirrors the
political demand for income compensation to workers in ‘brown’ jobs displaced
by climate policies. Such increased demand for redistribution depends on the
fact that main winners of climate policies (e.g. those with the right set of
skills to perform emerging green jobs or with enough income to consider buying
a subsidized electric car) are fundamentally different from the main losers
(e.g. those who work in polluting industries and drive long distances with diesel
cars). Importantly, the identity of the winners and losers coincides with that
of the winners and losers of other, more pervasive, structural transformations,
such as automation and globalization. Indeed, the winners are wealthier, more
educated and living in nicer neighbourhoods than the losers. The spatial
sorting of winners and losers polarizes not only the perception of the costs
and benefits of climate policies, but leads also to the emergence of apparently
irrational behaviour. In several cases such as Taranto in Italy or Dunkirk in
France, employees in polluting activities, whose families are the first to be
exposed to such pollution, are willing to accept health risks to preserve their
jobs.

Absurd as it may appear, such opposition
against ambitious climate policies from the left-behind is the tip of the
iceberg of more fundamental problems of our societies, namely, the enormous
increase in income inequality. For both the left-behind and an increasingly
fragile middle class, it may be more important to satisfy basic needs such as
‘work’, ‘food’, ‘shelter’, ‘communicating’ than eating organic food or
supporting climate policies. For a given level of income per capita, citizens’
support for green policies is likely to be significantly lower the more unequal
the society because the median voter’s income may be just enough to satisfy the
basic needs mentioned above. Likewise, a lower level support for climate
policies is concentrated in regions that depend more on carbon-intensive
industries.

Fortunately, there are well-known solutions to
restore the right support to an ambitious plan to fight climate change.
Politicians can easily identify the right amount of subsidies to neutralize the
distributional effects of climate policies either on displaced workers, or on
most affected consumers. Several solutions have been discussed and implemented
ranging from direct transfers of the revenues of a carbon tax to recycling
schemes to reduce taxes on labour and capital. In its operational definition,
the just transition is thus a policy package whose aim is to mitigate the
negative distributional effects of climate policies for those at the bottom of
the income distribution.

There is, however, a powerful ethical argument
that undermines the viability of these well-known solutions. Why should a
worker displaced by a carbon tax have more rights than a worker displaced by a
robot? The ethical bases to justify the special status of any policies inspired
by the just transition are at best weak, and special policy solutions for
workers in ‘brown’ jobs may fuel the resentment of those left behind by
automation and globalization. An alternative and far more radical solution
appears to be to think at the high level of inequality of our societies as a
main constraint to fight climate change. The threat posed by growing tension
between inequality and environmental sustainability should thus push reforms of
our welfare and fiscal systems that protect the workers left behind by trade,
globalization and climate policies, thus weakening one of the main constraints
to ensure a broad political support to the low-carbon transition.

Read the full
paper
.

This post was first published on the Climate
Strategies and Climate Policy Blog




Les indicateurs d’inégalités relatives sont-ils biaisés?

Par Guillaume Allègre

La question des inégalités est
revenue au cœur des préoccupations des économistes. L’évolution, les causes,
les conséquences sont amplement discutées et débattues. Étrangement, les questions de
mesure semblent aujourd’hui relativement consensuelles[1].
Les économistes travaillant sur les inégalités utilisent à tour de rôle l’indice
de Gini de revenu disponible, la part du revenu détenue par les 10% les plus
aisés, le ratio inter-décile, … Toutes ces mesures ont pour caractéristique
d’être relatives : si l’on multiplie par 10 le revenu de toute la
population, l’indicateur n’est pas modifié. C’est le rapport de revenus entre
les plus aisés et les moins aisés qui compte. Peut-on mesurer les inégalités et
leur évolution autrement ?



L’observatoire
des inégalités
discute non seulement l’évolution du rapport de
revenus entre les plus et les moins aisés, mais également l’évolution de
l’écart de revenus : « En une
année, les 10 % les plus riches perçoivent en moyenne environ 57 000 euros, les
10 % les plus pauvres 8 400 euros. Une différence de 48 800 euros, équivalente
à un peu plus de 3,5 années de travail payées au Smic. L’écart a grimpé de 38
000 euros annuels en 1996 à 53 000 euros en 2011, puis a baissé pour revenir à
48 800 euros en 2017
. »  Mesurer
l’évolution de l’écart de revenus ne semble pas pertinent. Prenons deux
personnes de revenus de 500 et 1 000 euros, puis multiplions par 10 leurs
revenus : le rapport de revenus est stable, l’écart de revenus est
multiplié par 10. L’inégalité a-t-elle augmenté, a-t-elle été stable ou
a-t-elle diminué ? Selon la mesure de l’écart de revenus, elle a augmenté,
selon celle du rapport elle est stable. Selon nous, elle a peut-être diminué.

En effet, en France aujourd’hui,
l’écart de condition de vie, de mode de vie ou de bien-être, est peut-être plus
important entre une personne ayant un revenu de 500 euros, qui la met dans la
très grande pauvreté, et une personne ayant un revenu de 1 000 euros, qui la
met à la limite de la pauvreté qu’entre une personne ayant 5 000 euros de
revenus, que l’on peut qualifier de riche, et une personne ayant 10 000 euros de
revenus, que l’on peut qualifier de très riche. Ces deux dernières personnes
partagent en effet à peu près le même mode de vie, même si la dernière vit
probablement dans un logement un peu plus grand et mieux placé, et fréquente
des restaurants plus luxueux. Dit autrement, retirer 10% de revenus à une
personne très aisée a probablement moins d’effet que retirer 10% à une personne
à la limite du seuil de pauvreté. Une littérature importante sur l’aversion au
risque montre que les individus sont prêts à payer plus de 10% de leur revenu
lorsque celui-ci est élevé pour se protéger contre une baisse de 10% de leur
revenu lorsque celui-ci est faible. Ceci est d’ailleurs une des justifications de l’impôt progressif : on retire un
plus grand pourcentage aux plus aisés, mais le sacrifice est supposé égal car,
selon la théorie marginaliste, la capacité contributive croît plus vite que le
revenu (ou l’utilité croît moins que proportionnellement que le revenu).

Si l’on accepte cet argument, on
pourrait conclure qu’à niveau d’inégalités relatives constant (indice de Gini,
rapport de revenus entre les plus aisés et les plus pauvres), toutes choses égales par ailleurs, une
société plus riche serait en fait plus égalitaire, dans le sens où ses citoyens
ont un mode de vie ou un bien-être plus proche. L’intuition nous dit que ceci
est vrai pour les écarts importants de richesse (comme la multiplication par 10
des revenus de notre exemple). Si c’est le cas, il faut relativiser les
comparaisons d’inégalités relatives faites sur très longue période ou entre
pays développés et pays en voie de développement.  Lorsque Thomas Piketty
montre
que les 10% les plus aisés ont capté 50% du revenu entre 1780
et 1910, on pourrait alors conclure que les inégalités ont baissé durant la
période !

Milanovic
et Milanovic,
Lindert et Williamson
ont développé des concepts qui tiennent compte
de cet effet richesse dans une perspective historique de très
long-terme : la frontière des inégalités (inequality frontier) est l’inégalité maximale possible dans une
société en tenant compte du fait que la société doit garantir la subsistance
des plus pauvres (le revenu minimal pour vivre) : dans une économie avec
très peu de surplus (ou le reste à vivre moyen est faible), l’inégalité réalisable
maximale sera faible[2] ;
dans une économie très aisée, le coefficient de Gini réalisable maximal sera
proche de 100 pourcent[3].
Le ratio d’extraction est le Gini actuel divisé par le Gini réalisable
maximal. Plus une société est aisée, plus le coefficient de Gini réalisable
maximal sera faible, et plus – à Gini égal – 
le ratio d’extraction sera faible. On pourrait aussi calculer un « Gini
de reste à vivre » (au sens du revenu disponible moins le revenu
minimum de subsistance)[4].

Il peut être argué que lorsque l’on compare les inégalités dans deux sociétés de développement inégal, le ratio d’extraction est un meilleur indicateur d’inégalités que le Gini de revenu disponible[5] ou que les autres indicateurs d’inégalité relative. Une conclusion de Milanovic et al. : « ainsi, bien que l’inégalité dans les sociétés préindustrielles historiques soit équivalente à celle des sociétés industrielles actuelles, l’inégalité ancienne était beaucoup plus importante lorsqu’exprimée en termes d’inégalité réalisable maximale. Comparée à l’inégalité réalisable maximale, l’inégalité actuelle est bien inférieure à celle des sociétés anciennes ». D’après les auteurs, au début des années 2000, le Gini réalisable maximal était de 55,7 au Nigéria et de 98,2 aux États-Unis : la comparaison des inégalités entre les deux pays sera alors très différente selon que l’indicateur choisi est le Gini de revenus ou le ratio d’extraction. Par contre, il y aura peu de différences entre les États-Unis et la Suède (Gini réalisable maximal de 97,3) malgré une différence de revenu moyen de 45%. L’effet est en fait saturé puisque le revenu suédois correspond déjà à 40 fois le minimum de subsistance (400 dollars annuels en parité de pouvoir d’achat) et l’américain, 58 fois. Dans l’approche des auteurs, le minimum de subsistance est fixé en parité de pouvoir d’achat et est fixe entre les pays et dans le temps. Mais le minimum de subsistance est-il réellement de 400 dollars annuels en Suède aujourd’hui ? Lorsque l’on compare les inégalités aux États-Unis et en Suède aujourd’hui, ce minimum de subsistance est-il pertinent ? Prendre un minimum de subsistance nettement plus élevé pourrait changer la comparaison des inégalités, même dans les pays développés (à Gini de niveau de vie comparable, la Suisse est-elle en fait plus égalitaire que la France ?). Le problème qui se pose alors est d’établir un montant de revenu minimum de subsistance[6].

Le choix d’un indicateur
d’inégalités dépend de l’objectif poursuivi. Si l’idée est de comparer les
inégalités de condition de vie à travers le temps ou entre les pays, le Gini de
reste à vivre est peut-être pertinent. Par contre, si la crainte est que des
revenus trop élevés présentent un danger pour la démocratie (position notamment
développée par Stiglitz dans Le
prix de l’inégalité
), la mesure des  inégalités relatives telles que calculées par
la part du revenu captée par les 1% les plus aisés semble plus pertinente. 

Lorsque l’on compare des sociétés
proches en termes de développement, il existe d’autres limites, peut-être plus
importantes, à la comparaison des Gini de niveau de vie. À inégalités de
revenus identiques, un pays dont les dépenses publiques en santé, logement,
éducation, culture, etc. sont plus élevées, sera (probablement) plus égalitaire
(à moins que les dépenses publiques profitent proportionnellement davantage aux
plus aisés). La question du logement est également importante, celui-ci pesant
pour une très large part dans le budget des ménages : des loyers élevés,
dus à une offre de logement contrainte, augmentera les inégalités toutes choses
égales par ailleurs (les locataires sont aujourd’hui en moyenne plus pauvres). En
comparaison ou évolution, il est difficile de tenir compte de cet effet, car le
prix des logements peut refléter une meilleure qualité ou de meilleures
aménités. De plus, les inégalités entre propriétaires et locataires ne sont pas
prises en compte dans le calcul usuel du niveau de vie : à revenu égal, un
propriétaire ayant fini de rembourser son emprunt est plus aisé qu’un locataire
mais le loyer fictif dont bénéficie le propriétaire ne rentre pas dans le
calcul de son niveau de vie. Enfin, et sans vouloir être exhaustif, la question
de la durée du travail et de la production domestique complique également
l’équation : un écart de revenus peut être lié à un écart de durée du
travail, notamment si un des conjoints dans un couple (le plus souvent la
femme) est inactif ou travaille à temps-partiel. Or, le conjoint inactif peut
participer à la production domestique (notamment garder les enfants) non prise
en compte dans les statistiques : l’écart de niveau de vie avec le couple
bi-actif est plus faible que ce qu’implique l’écart de revenus. Les
statistiques ne prennent en général pas en compte cet effet car il est
difficile de donner une valeur à la production domestique.

On voit donc que la mesure du revenu
et du niveau de vie, et donc des inégalités est imparfaite. L’effet richesse (à
Gini de niveau de vie égal, une société plus riche est probablement plus
égalitaire toutes choses égales par ailleurs) est une limite, parmi d’autres
dont certaines probablement plus importantes lorsque l’on compare les économies
développées. Par contre, cet effet richesse pourrait être relativement important
si l’on veut comparer les inégalités de condition de vie entre la France de
1780 à celle de 1910 et a fortiori d’aujourd’hui.


[1]
Alors qu’elle était proéminente du début des années 1970 à la fin des années 1990 :
voir notamment les travaux d’Atkinson, Bourguignon, Fleurbaey et Sen.

[2]
Milanovic et al. donnent l’exemple
suivant : supposons une société de 100 individus dont 99 sont dans la
classe inférieure. Le minimum de subsistance dans cette société est de 10
unités et le revenu total de 1 050 unités. L’unique membre de la classe
supérieur reçoit 60 unités. Le coefficient de Gini associé à cette distribution
(le Gini réalisable maximal) est seulement de 4,7 pourcent.

[3]
En fait, le Gini réalisable maximal progresse vite : si dans la société
précédente, le revenu progresse à 2 000 unités et que le dictateur extrait
tout le surplus (1 010 unités), le Gini bondit à 49,5. 

[4]
Le Gini de reste à vivre, ou le ratio d’extraction partagent certaines
caractéristiques de l’indice
d’Atkinson
, notamment l’idée qu’il faille différencier les
inégalités parmi les plus aisés et parmi les plus pauvres. Néanmoins, l’indice
d’Atkinson reste un indicateur d’inégalités relatif : si tous les revenus
sont multipliés par 10, l’indicateur reste constant. L’indice satisfait
l’indépendance à la moyenne, ce qui est généralement recherché parmi les indicateurs
d’inégalité, mais que nous cherchons à dépasser ici.

[5]
Les deux indicateurs ne mesurent pas les mêmes concepts. D’une part, il peut
être intéressant d’utiliser plusieurs indicateurs mais d’autre part la
multiplication des indicateurs pose le problème de la lisibilité donc il faut
bien choisir. Le choix d’un indicateur s’appuie sur un jugement normatif
puisque, a minima implicitement, l’idée est de réduire les inégalités selon la
mesure choisie (il est consensuel parmi les économistes que, toutes choses égales par ailleurs, moins
d’inégalité est préférable). 

[6]
D’autant plus que ce revenu doit être cohérent dans le temps ou entre pays si
l’objectif est d’appréhender une évolution ou de faire une comparaison.