Inégalités et modèles macroéconomiques

par Stéphane Auray et Aurélien Eyquem

« Tous les modèles sont faux mais certains sont utiles ». Cette citation de Georges Box a souvent été utilisée pour justifier les hypothèses réductrices faites dans les modèles macroéconomiques. L’une d’elles a longtemps été critiquée : le fait que le comportement des ménages, bien que différents (hétérogènes) dans leurs caractéristiques individuelles (âge, profession, genre, revenu, patrimoine, état de santé, statut sur le marché du travail), puisse être approximé au niveau macroéconomique par celui d’un agent dit « représentatif ». Faire l’hypothèse d’un agent représentatif revient à considérer que l’hétérogénéité des agents et les inégalités qui en résultent importent peu pour les fluctuations agrégées.



Les économistes ne sont pas aveugles et savent bien que les ménages, les firmes ou les banques ne sont pas tous identiques. De nombreux travaux se sont intéressés aux effets de l’hétérogénéité des ménages sur l’épargne agrégée et par suite, sur les fluctuations macroéconomiques[1]. D’une autre façon, certains travaux proposent des modèles dits « à générations imbriquées » dans lesquels l’âge joue un rôle important[2].

Le plus souvent, dans ces modèles, les ménages transitent d’un état à l’autre (de l’emploi vers le chômage, d’un niveau de compétence et donc de revenu vers un autre, d’un âge vers un autre) et connaissent les probabilités de transition. En l’absence de mécanismes d’assurance (chômage, redistribution, santé), ces risques anticipés de transition produisent un risque anticipé de revenu ou de santé qui pousse les agents à épargner pour s’assurer. De surcroît, les différences de comportements d’épargne et de consommation sont susceptibles d’induire également des comportements différenciés en termes d’offre de travail. Enfin, les changements dans l’environnement macroéconomique (variation du taux de chômage, des taux d’intérêt, des salaires, des impôts et cotisations, des dépenses publiques, des dispositifs d’assurance existants) affectent potentiellement ces probabilités individuelles et les comportements microéconomiques qui en résultent. Les risques agrégés affectent donc chaque ménage de manière différente selon ses caractéristiques, ce qui génère des effets d’équilibre général et des effets redistributifs. Pourtant ces travaux relativement anciens se sont heurtés à deux obstacles.

Le premier est d’ordre technique : suivre dans le temps l’évolution de distributions d’agents est une tâche mathématiquement complexe. Bien sûr il est possible de réduire l’ampleur de l’hétérogénéité en se limitant à deux agents (ou deux types d’agents) : ceux ayant accès aux marchés financiers et ceux étant contraints de consommer leur revenu à chaque période[3], les actifs et les retraités, etc. Mais si ces modèles simplifiés permettent de comprendre et valider les grandes intuitions, ils demeurent limités notamment d’un point de vue empirique. Ils ne permettent pas, par exemple, d’étudier l’évolution des inégalités sur l’ensemble de la distribution des revenus ou des patrimoines de manière réaliste.

Le second est plus profond : plusieurs de ces travaux concluaient que les modèles à agents hétérogènes, bien que beaucoup plus complexes à manipuler, n’avaient pas de performances nettement supérieures aux modèles à agents représentatifs en termes de validation macroéconomique agrégée (Krusell et Smith, 1998). Certes, leur projet n’était pas d’étudier l’évolution des inégalités ou leurs effets macroéconomiques, mais plutôt la contribution de l’hétérogénéité des agents à la dynamique agrégée. De fait, le sujet des inégalités a longtemps été considéré comme étant orthogonal ou presque à l’analyse macroéconomique (du moins celle s’intéressant aux fluctuations) et comme relevant plutôt de l’économie du travail, de la microéconomie ou de la théorie des choix collectifs. Ainsi, les modèles à agents hétérogènes ont souffert pendant longtemps de cette image d’objet inutilement complexe dans l’analyse macroéconomique des fluctuations.

Ces dernières années, ces modèles connaissent un renouveau exceptionnel au point qu’ils semblent devenir le standard de l’analyse macroéconomique. Le premier obstacle a été levé par l’augmentation exponentielle de la puissance de calcul utilisée pour résoudre et simuler ces modèles, combinée au développement d’outils mathématiques puissants permettant de résoudre ces modèles plus facilement (Achdou et al. 2022). Le second obstacle a été levé par un triple mouvement que nous détaillons ci-dessous : la montée en puissance des travaux (notamment empiriques) montrant l’importance des inégalités de revenus et de patrimoines pour les questions relevant typiquement de la macroéconomie – au-delà de leur intérêt intrinsèque –; le développement d’outils de mesure des inégalités permettant un rapprochement avec l’analyse macroéconomique et le raffinement des hypothèses considérées dans les modèles à agents hétérogènes.

Tout d’abord, de nombreux travaux empiriques montrent que l’épargne de précaution joue un rôle majeur dans les fluctuations macroéconomiques (Gourinchas et Parker, 2001). Mais cette épargne de précaution et la sensibilité de l’épargne (et des dépenses des ménages) aux revenus ne sont pas identiques pour tous les ménages. En effet, les travaux empiriques suggèrent que la propension marginale à consommer (PMC) agrégée se situe entre 15% et 25% (Jappelli et Pistaferri, 2010), et que la PMC d’une grande partie de la population est supérieure à la PMC obtenue dans les modèles à agents représentatifs. Dans les modèles à agents représentatifs et en haut de la distribution des patrimoines, celle-ci est approximativement égale au taux d’intérêt réel, et donc très inférieure aux estimations empiriques (voir Kaplan et Violante, 2022). Comprendre à travers de solides fondements microéconomiques l’origine d’une PMC agrégée élevée est donc critique, notamment si l’on souhaite étudier de manière réaliste les effets des politiques macroéconomiques (monétaire, budgétaire, etc.) qui reposent sur des effets multiplicateurs liées à la distribution des PMC.

Ensuite, ces dernières années, une littérature abondante et de plus en plus étoffée empiriquement s’est développée sur les questions liées aux inégalités de revenus. Á la suite de l’article fondateur d’Atkinson (1970) puis de développements plus récents[4], nous disposons désormais de séries longues mesurant les inégalités de revenu avant et après impôts, les inégalités de patrimoine, sur l’ensemble de la distribution des ménages pour un grand nombre de pays. Ce que l’on appelle les comptes nationaux distributionnels (Distributional National Accounts) permet enfin de confronter de manière très fine les prédictions de modèles macroéconomiques à agents hétérogènes aux données microéconomiques ayant une cohérence totale avec le cadre de l’analyse macroéconomique.

Enfin, les modèles à agents hétérogènes eux-mêmes ont évolué. En effet, les modèles de « première génération » considéraient généralement un seul actif (le capital physique, autrement dit les actions des entreprises) et empêchaient les agents de s’endetter, ce qui les conduisait à épargner pour un motif de précaution. Ces hypothèses ne permettaient pas de comprendre pourquoi les PMC étaient élevées. Elles ne parvenaient pas à répliquer correctement la distribution observée des revenus et surtout des patrimoines. En réalité, les ménages ont accès à plusieurs actifs (épargne liquide, logement, actions) et la composition de leur richesse est très différente selon le niveau de patrimoine : les ménages commencent généralement à épargner sous forme liquide, puis investissent leur épargne dans l’immobilier en contractant des prêts bancaires, et enfin diversifient leur épargne (seulement pour les plus gros patrimoines, au-delà du 60e percentile de la distribution des patrimoines) en achetant des actions (Auray, Eyquem, Goupille-Lebret et Garbinti, 2023). Ce faisant, une grande partie de la population se retrouve endettée pour constituer un patrimoine immobilier, donc peu liquide. Bien qu’ayant des revenus importants, de nombreux ménages consomment donc presque tout leur revenu, ce qui réduit leur capacité d’auto-assurance via l’épargne. Cela accroît leur PMC (et donc la PMC agrégée) conformément aux observations empiriques (Kaplan, Violante et Weidner, 2014).

Ainsi, les macroéconomistes peuvent aujourd’hui intégrer pleinement l’analyse des inégalités de revenu, de patrimoine, de santé, au sein de modèles fondés sur des comportements microéconomiques plus réalistes. Ils peuvent réinterroger les consensus obtenus concernant la conduite des politiques monétaires[5] ou budgétaires[6] et en interroger les effets redistributifs. Ils sont également en mesure de quantifier les effets agrégés et redistributifs de politiques commerciales ou environnementales, qui sont/seront au cœur de leur acceptabilité politique. De nouveaux horizons pour des modèles moins faux et plus utiles.


[1] Voir notamment Bewley (1977), Campbell et Mankiw (1991), Aiyagari (1994), Krusell et Smith (1998), Castaneda, Diaz-Gimenez et Rios-Rull (1998).

[2] Voir les travaux d’Allais (1947) et de Samuelson (1958) puis entre autres de De Nardi (2004).

[3] Voir Campbell et Mankiw (1989) ; Bilbiie et Straub (2004) ; Gali, Lopez-Salido et Valles (2007).

[4] Voir Piketty (2001, 2003), Piketty et Saez (2003, 2006), Atkinson, Piketty et Saez (2011), Piketty, Saez et Zucman (2018) et Alvaredo et al. (2020).

[5] Kaplan, Moll et Violante (2018) ; Auclert (2019) ; Le Grand, Martin-Baillon et Ragot (2023).

[6] Heathcote (2005) ; Le Grand et Ragot (2022) ; Bayer, Born et Luetticke (2020)              .




Lessons From SVB for Economists and Policymakers[1]

Par Russell Cooper and Hubert Kempf

Time has passed since the March 10 Silicon Valley Bank bank run. Yet this may not be the end of the affair. On Monday March 18, 2023, the Financial Times reported that savers withdrew 60 billion dollars in the first quarter of 2023 from three large US financial institutions. From other reports, withdrawals continue.

It is time to reflect on the SVB failure and the ensuing policy responses. Though this was a US banking experience, the lessons extend across borders. In fact, as noted, some of the concerns over commitment are perhaps even more of a concern in Europe.



Lessons for economists: Enriching the theory of bank runs

Traditionally, bank runs have been addressed by economists through the lense of the work of Diamond and Dybvig (1983) model, hereafter DD. Last year, the committee for the Nobel prize in Economics made clear that this was a fundamental contribution to our understanding of banks and their inherent fragility. But models are abstractions and, based on our recent experience, the DD framework needs to be enriched to provide both an understanding of these events and the policy responses.

DD explains the illiquidity of banks and its consequences for banking fragility. Banks have a choice between short term liquid investment and long term illiquid investment. The returns are certain with the long term investment providing a higher return. All else the same, banks would prefer to invest deposits in these long term assets and thus earn higher returns.

But depositors, households in the model, have random liquidity needs. The bank meets these needs by investing some of its deposits in a liquid asset, just avoiding costly liquidations of the long term investment. The bank optimally selects its portfolio to meet the normal demand for liquidity of its depositors. The bank is solvent and sufficiently liquid. Normally.

But there is a chance that depositors will panic, turning the normal demand for liquidity into a bank run. In such a situation, the bank may be unable to meet the demand of all depositors even after liquidating its illiquid assets. In the end, the depositors, acting in their self interest, make the right choice: run on the bank when everyone else does. But collectively, there is a loss: a solvent bank failed due to its illiquidity.

In the DD framework, the problem of a run can be solved through the provision of deposit insurance. An iron-clad guarantee that the government will provide deposit insurance in the event of a run is sufficient to avoid the run. Theoretically this is known as a commitment assumption. What is important though is that the government’s commitment to deposit insurance includes a willingness to use taxation as needed to finance the deposit insurance.

Looking at the SVB experience, there are clearly some elements missing in the DD framework. We here highlight some important items upon which economists should reflect.

  1. Monetary policy impacts the value of liquid assets. In the DD model, the two assets’s returns are invariant and there is no market risk. In the real life, this is not so. The tightening of the Fed raised interest rates and thus lowered the prices of liquid assets. All else the same, the reduction of the value of liquid assets makes banks, such as SVB, more vulnerable to runs.
  2. Even with deposit insurance, there are depositors over the limit. In the standard version of the DD model, once there is credible deposit insurance, runs no longer happen as everyone is covered. But that is because it is assumed that all deposits are insured. The SVB episode taught us that this is not the case.
  3. In the standard DD model, banks have no access to equity if they become unstable. In the SVB episode there was an attempt to raise more equity to meet the needs to depositors. But this source of funding evaporated. The need to understand the interaction of the decisions of equity investors along with depositors is made clear by this episode.
  4. The standard interpretation of the DD model is that depositors are households. In the case of  SVB, they were largely firms, with loans from that same bank. Evidently, probably for incentive reasons, there was a link between making a loan to a firm and requiring funds to be deposited at a bank. This connection is absent from the standard DD model.

Lessons for Bank Regulators and the Treasury.

The policy response of the US government, involving bank regulators and the Treasury, to the SVB failure can be neatly summarized by two points:

  1. the cap on deposit insurance, that is, the upper limit on deposits entitled for insurance, is (apparently) gone and all depositors are protected;
  2. yet, taxpayers are not at risk.

This looks too good to be true. Hence an annoying concern creeps in: does this package really stabilize the US banking system? This is an important question which cannot be neglected or put aside as all too often the policies which are adopted to deal with one crisis sets in motion the next one.

Answering this question and thus assessing the policies put in place builds upon the lessons drawn from the DD model.

1. No cap anymore

The first part of the package apparently extends deposit insurance to everyone, without limit.[2] Given that the run at the SVB was in part driven by uninsured depositors, this appears to be an easy way to stabilize the banks. But it should be emphasized that it came after the crisis, undermining the credibility of the whole deposit insurance scheme.

While the response to the SVB run did not take away deposit insurance, the extension to supposedly uninsured depositors made clear that the guidelines for the provision of deposit insurance are, just that, guidelines. Clearly the US government seems willing to decide after the fact exactly what insurance to provide. Raising doubts about the credibility of deposit insurance is a potential cost to this intervention.

And this is related to the relaxation of the cap. A cap limits the funds that are transferred from the relatively poor households to rich depositors through taxation, either direct or indirect. An increase in the cap means more redistribution towards the rich (more rich people are compensated by the public insurance scheme). All else the same, this reduces the credibility of promised deposit insurance, either in whole or perhaps just through the adoption of a cap ex post.

2. No Taxpayer at Risk

About the second point, here is a quote from the US President Joe Biden:

“First, all customers who had deposits in these banks can rest assured — I want to — rest assured they’ll be protected and they’ll have access to their money as of today. That includes small businesses across the country that banked there and need to make payroll, pay their bills, and stay open for business.

No losses will be — and I want — this is an important point — no losses will be borne by the taxpayers. Let me repeat that: No losses will be borne by the taxpayers. Instead, the money will come from the fees that banks pay into the Deposit Insurance Fund.”

Normally, one would think that in the event of a run, taxpayers have to bear some of the burden of providing deposit insurance. If the government has to provide say $10 trillion in deposit insurance in a systemic run, then a source for this must be taxation. It could be immediate taxation or debt financing of the deposit insurance today with taxes coming in the future.[3]

If, under the current US plan, taxpayers are off the hook for financing deposit insurance, then where will the resources come from? Could the answer be through the resources of the Federal Deposit Insurance Corporation (FDIC)? The fund is created through contributions of member banks. Depositors of these banks receive protection through this fund.

But the unfortunate reality is that the resources of this fund are small relative to potential depositor needs. From the FDIC, the fund has a target to be able to protect 2% of the deposits in the US. This is surely enough money if one bank fails. It is far from enough if all banks fail.

The FDIC states that its insurance is backed by “ … the full faith and credit of the United States government.” This is a good thing given the relatively small size of the actual funds at its immediate disposal. But this backing is what the recent policies of the US government have taken off the table. If no taxpayers are at risk, then there must be no tax revenue that will flow to the FDIC in the event of a run. That is fine, as long as the run is not too large.

The problem here is that a small run can become a big run due to contagion. Imagine there is a run and a bank is shutdown, requiring some FDIC insurance payments. To make the point directly, suppose that those payments alone required the 2% of the deposit insurance fund. This means that the remaining deposits in all other banks are not longer insured. This is a recipe for additional runs.

This prospect raises the question of the financing of this extended insurance. If taxpayers are protected (as claimed by President Biden) and deposit insurance coverage is extended, the fund of the FDIC is simply inadequate. So, with taxpayers out of the equation, it seems that this promise of full insurance is empty: no runs are prevented.

What if taxpayers were not protected and instead the FDIC had the backing of the US government? That means the government would raise taxes or issues debt (so raising future taxes) in response to a run. If this was credible, then that would be enough to avoid the run.

Is this promise credible? That is, would the government actually go ahead and raise taxes to pay off depositors?

This is exactly the question we have analyzed in our joint research. [4] We argue that the taxation needed to finance deposit insurance may entail a redistribution from poor (Main St.) to rich (Wall St.). The magnitude of this redistribution depends on the relatively size of the deposits being insured and the progressivity of the tax system. If the tax system is not very progressive (we study the case of a lump-sum tax), then the provision of deposit insurance does imply that the rich get a lot more from their deposits being insured compared to the poor. This may be socially undesirable. If so, this means that in the event of a run the government may not have the incentive to provide the promised deposit insurance.

A commitment problem exists in the US system even with deposit insurance provided at the federal level. In Europe this problem is magnified by three factors: (i) country specific deposit insurance schemes, (ii) cross border flows of deposits and loans and (iii) the lack of a central Treasury to provide a fiscal backstop for deposit insurance.

Lessons for Monetary Policy

Lastly, there is the issue of monetary policy and the role of central banking. Two issues require attention.

The first one is about the impact of tighter monetary policy on the fragility of banks. The monetary authority needs to keep this in mind. If the Fed (or the ECB) chooses to “fight” inflation through high interest rates, the resulting reduction in the value of government debt impacts the balance sheets of banks. This additional (perhaps new) channel of monetary policy needs to be taken into account in making assessments of the effects of higher interest rates. It looks pretty clear that the central bankers in advanced countries recently tended to downplay this channel, focusing instead on fighting the surge in inflation. It might end up in being an adventurous challenge. If the current state develops into a full-fledged banking panic, central banks will have to rapidly shift to an extremely accommodative policy, as in 2008. But, this time, it will be in an inflation-prone sequence.

The second issue is about the policy mix. Answering a question from Simon Rabinovitch, US economics editor for The Economist, Jerome Powell, the chairman of the Fed, said depositors “should assume” they are safe. Around the same time Janet Yellen, the treasury secretary, said that expanding insurance to all depositors is not under consideration. As the editor-in-chief of the magazine wrote,

“They can’t both be right ! “

This is disturbing for two reasons. The first is, as we said above, that claiming that depositors “should feel safe” is ambiguous enough to be a clear sign of the unwillingness to commit and therefore spread defiance toward the banking sector, or at least to its weaker part.

The second reason is that the plurality of opinion from the two top policymakers in the US is weakening further the trust in the solidity of the US banking sector. The willingness of the Treasury secretary not to lift the cap on deposit insurance is understandable. The dimension of a bank panic (a generalized bank run, not targeting one particular bank but the entire banking system) cannot be foreseen ex ante. It may be so large that it would create havoc on the financial system and in case of a pledge to insure all deposits an unsustainable burden on the federal Treasury. But it also shows that the claim by Biden that the no tax will be used to insure banks is shallow. On the opposite, the assertion by Jerome Powell that depositors should feel safe is both a tentative to instill optimism in the depositors and play on their beliefs and a way to put pressure on the Federal Treasury pointing to its responsibility (and not the Fed) in the case of a run or a panic. The combination of both claims is a further example of the impossibility to commit and the need to insure bank deposits. The contradictions between the two statements prove that the cooperation between the two major public authorities concerned by the stability of the banking system is likely not to be smooth and harmonious.

Going Forward

To sum up, after the SVB debacle, it is not clear where we stand with the provision of deposit insurance in the US even though the stability of the banking system requires clearly stated and credible policies. To achieve this objective, the sound advice of economists should be searched for rather than the quick solutions provided by the political process.


[1] This is a revised and expanded version of “Lessons From SVB” posted on Substack by Russell Cooper on April 16, 2023. https://cooperecon.substack.com/p/lessons-from-svb

[2] Recent testimony by Treasury Secretary Yellen appears to take a step back, linking the provision of deposit insurance above caps to the determination of systemic risk.

[3] Of course the FDIC can respond by replenishing its fund by demanding more contributions from the remaining banks. But this itself will hasten the instability, putting more banks in trouble.

[4] Cooper, Russell, and Hubert Kempf. “Deposit Insurance and Bank Liquidation without Commitment: Can We Sleep Well?” Economic Theory 61, no. 2 (2016): 365–92. http://www.jstor.org/stable/24735338.




Le travail en crise : une question autant économique que sociale

par Jean-Luc Gaffard

Perte de sens du travail, absence de motivation, recherche de l’épanouissement personnel constituent des éléments de langage qui sont devenus courants dans les médias et donnent lieu à nombre de réflexions sociologiques et philosophiques. En outre, le remplacement de l’homme par la machine est de nouveau prédit en écho des bouleversements technologiques qui ont pour nom aujourd’hui intelligence artificielle. La réduction du nombre d’emplois qui en résulterait alimente le discours sur la fin du travail et le droit à la paresse remis au goût du jour.



Curieusement, l’analyse économique n’est guère appelée en soutien de la réflexion sinon pour dénoncer les méfaits du marché tout entier tourné vers l’accumulation de richesses au bénéfice d‘un petit nombre de privilégiés. Pourtant, si l’on se départit de ce discours convenu qui se limite à la dénonciation d’un coupable commode, le capitalisme ou la finance, les questions légitimes sur la place du travail dans l’économie et la société pourraient trouver des réponses moins simplistes, prenant appui sur la théorie et l’histoire économiques.  

L’état des lieux

Avant toute chose, il importe de préciser quelques faits saillants qui caractérisent la situation actuelle du travail et de l’emploi et résultent de mécanismes à la fois économiques et sociaux. Ces faits témoignent de l’atteinte portée à la capacité de redéploiement d’une économie confrontée à des transformations structurelles en l’occurrence initiées par les transitions écologique et digitale.

D’un point de vue d’analyse économique, le rapport au travail change profondément dans une économie en situation de croissance et de plein emploi pour une durée significativement longue. Les gains de productivité permettent hausse des salaires, diminution séculaire du temps individuel de travail et, corrélativement, augmentation du temps de loisir. De nouvelles activités deviennent possibles qui répondent à d’autres aspirations que pécuniaires en même temps que de nouvelles exigences se font jour sur les conditions et le contenu du travail. Ce que d’aucuns appellent le capitalisme paradoxal prend place[1] : il repose sur l’augmentation conjointe du temps de travail et du temps de loisir. L’augmentation du temps global de travail est essentiellement fondée sur la croissance de la population en âge de travailler, l’immigration et la hausse des taux d’activité de fractions importantes de la population, en l’occurrence la population féminine quand s’opère la bascule du travail domestique non rémunéré vers un travail dont la rémunération vient augmenter le produit intérieur brut. L’augmentation du temps de loisir ouvre la voie à de nouvelles activités marchandes et stimule la croissance. S’il est vrai que la baisse de la durée individuelle du travail, l’amélioration des conditions de travail, la hausse des salaires sont le fruit des luttes sociales sanctionnées par les progrès du Droit du travail et le Droit de la protection sociale, il est non moins vrai que ces avancées ont assuré la viabilité d’économies de marché intrinsèquement instables.

Cette évolution séculaire des situations et des comportements est inévitablement contrariée dans une économie qui connaît un chômage de masse durable et (ou) une montée du dualisme du marché du travail qui se manifeste par la polarisation des emplois et des salaires. Le changement du rapport au travail n’a plus le caractère volontaire que l’on pouvait lui prêter pour la simple raison que le travail en étant source de revenus est la condition du développement des activités hors emploi et que ce lien est menacé. La solution du partage du travail est doublement illusoire : réduire le temps de travail individuel et augmenter corrélativement le nombre des emplois risque de se traduire par une chute de la productivité et une diminution du revenu global ; en l’absence de compensation, une diminution des revenus individuels toucherait les salariés les plus pauvres qui devrait renoncer à des consommations correspondant pour certaines d’entre elles à des besoins premiers.

La source des problèmes

Ce constat appelle à revenir à la source des problèmes. Le chômage des travailleurs les moins qualifiés et le dualisme du marché du travail sont la conséquence de la mondialisation et de la désindustrialisation qui l’a accompagnée dans un contexte où les managers exécutifs des grandes entreprises ont quelque peu perdu de vue que les salaires étaient une composante essentielle de la demande globale.

Une trappe à inégalités primaires de revenus et basses qualifications a vu le jour et s’est approfondie. Les travailleurs licenciés des activités industrielles en déclin se sont reportés, faute de temps et de moyens financiers, sur des emplois de service peu qualifiés et souvent précaires. Des exonérations de cotisations sociales sur les bas salaires ou l’introduction d’un impôt négatif ont favorisé la création d’emplois peu qualifiés. Des emplois publics, possiblement en surnombre, souvent à caractère administratif, ont pu constituer un palliatif. Il reste que tous ces emplois ont pour seule dimension positive d’être source de revenus. Ils ont en commun d’offrir peu de possibilités de progression aussi bien en termes de salaire que de qualification. En outre, nombre de ces emplois sont affectés de conditions de travail dégradées le plus souvent liées à leur nature qui implique une forte exposition aux risques physiques et psycho-sociaux.

Concrètement, il est difficile de parler d’un changement du rapport au travail si l’on entend par là un nouveau comportement des salariés alors qu’est en cause le fait que nombre d’emplois proposés restent peu valorisants pour ceux qui les occupent. C’est plutôt de revendication tout à fait classique qu’il faudrait parler, une revendication qui porte à la fois sur le montant des salaires, sur les conditions de travail et sur le partage entre temps dédié au travail et temps dédié aux loisirs, ce dernier incluant le temps passé en retraite, une revendication d’autant plus forte que s’installe une inflation durable.

Mais là n’est peut-être pas le point important si l’on se projette à moyen ou long terme. Un piège s’ouvre : celui d’une économie contrainte par de faibles gains de productivité et une faible croissance. Cette économie peut se trouver aux prises avec une hausse des financements de transferts par l’État qui atteignent des pourcentages significatifs du montant des salaires[2], une hausse de la dette publique et une hausse du déficit extérieur, situation dont la soutenabilité peut être questionnée. L’échec est celui de la transition pourtant rendue nécessaire sans doute par l’évolution de la mondialisation mais aussi par la crise écologique et la révolution digitale.

Le chemin alternatif

Le chemin alternatif est celui d’un renouvellement des relations de travail en accord avec l’objectif de transition écologique et digitale.

Redonner du sens à la relation de travail passe avant toute chose par la création de nouveaux emplois qualifiés qui justifie une hausse des salaires en même temps qu’elle assure une hausse de la productivité du travail et garantit le financement de la protection sociale. Une nouvelle industrialisation (ou une réindustrialisation) est le véritable objectif. Elle repose sur le choix des entreprises de s’engager à réaliser des investissements à long terme et à renouveler la relation de travail qui s’est dégradée pour une grande partie des travailleurs confrontés à un management des ressources humaines excessivement fondé sur la performance individuelle à court terme, quand ce n’est pas sur l’externalisation des tâches confiées à des sous-traitants, voire aux autoentrepreneurs des plateformes numériques.

Les entreprises engagées durablement et efficacement dans de nouveaux investissements doivent être organisées autour de coalitions d’intérêts, ceux des actionnaires, des banquiers, des salariés, des clients et des fournisseurs, coalitions dont l’objectif est de faire partager à ces parties prenantes un même récit de l’avenir à moyen ou long terme. S’agissant du travail, les engagements portent sur le développement de contrats longs, l’intéressement des salariés aux résultats, l’apprentissage interne des nouvelles qualifications, et dans les grandes entreprises la codétermination des choix objectifs stratégiques.

De tels engagements sont la condition de la viabilité des changements structurels associés aux transitions digitale et écologique. Aussi faut-il subordonner les aides publiques au développement de nouvelles technologies conformes à ces engagements. C’est ce qu’initie notamment la récente législation américaine, l’Inflation Reduction Act, qui lie les aides aux conditions de rémunération et de travail des salariés. Le propos n’est pas d’introduire un droit à l’épanouissement au travail perçu comme une contrainte imposée aux employeurs mais bien de changer le rapport au travail en réinventant les conventions qui lient les parties constituantes de l’entreprise et structurent le rapport salarial. À certains égards, il s’agit de renouer avec l’initiative de Ford de verser de « hauts » salaires, progressivement élargie avec l’indexation des salaires sur les gains de productivité du travail pendant la période dite des trente glorieuses, dont le véritable objectif est de soutenir la demande face à une offre elle-même croissante, autrement dit d’établir un fondement macroéconomique de la microéconomie.

Le fondement macroéconomique de la microéconomie

Aujourd’hui, c’est moins d’un retour en arrière qu’il s’agit que d’un retour vers le futur. Dans les années 1970 et 1980, la doctrine dominante a voulu doter la macroéconomie d’un fondement microéconomique dont les maître-mots étaient l’optimisation intertemporelle des utilités individuelles et la flexibilité du marché du travail. Cette flexibilité n’était autre que le retour à la flexibilité du taux de salaire en réaction aux déséquilibres du marché du travail avec, comme justification, que leur rigidité à la baisse était la véritable cause d’un chômage que l’on entendait implicitement qualifier de chômage volontaire. Le travail redevenait un flux et une marchandise comme une autre sans que l’on s’arrête sur sa vraie nature de fonds de services dont l’usage s’inscrit dans la durée, sans considérer le temps nécessaire de construction et d’utilisation de ce fonds, sans envisager les irréversibilités liées à sa structuration en multiples qualifications dont l’évolution prend du temps[3].

Sous couvert d’une soi-disant avancée théorique, se cache la vieille idée dénoncée par Keynes selon laquelle, au contraire de la doctrine revenue à la mode, la rigidité des salaires relevait d’un comportement rationnel des travailleurs et des managers exécutifs et avait, entre autres, comme vertu d’enrayer la déflation. La fixation des salaires était par ailleurs et avant tout conventionnelle c’est-à-dire n’obéissait pas à la productivité marginale du travail. La flexibilité retrouvée du marché du travail n’a eu d’autre effet que de conduire à la polarisation des emplois et des salaires, autrement dit à un dualisme préjudiciable à la productivité et à la croissance.

Sortir de ce piège suppose de reconnaître à nouveau au contrat de travail sa vertu première qui est d’inscrire la relation de travail dans la durée et de permettre ainsi une adaptation des qualifications à l’évolution des métiers, un enrichissement des tâches pour répondre aux nouveaux contenus des emplois requis par les avancées techniques et scientifiques, bref de reconnaître au travail sa qualité de fonds de service. C’est cette flexibilité entendue comme la capacité de s’adapter sur une durée suffisamment longue dont l’économie a besoin. C’est de cette flexibilité qu’il faut attendre une plus grande créativité et une plus grande satisfaction au travail.

Cette évolution n’a rien de spontanée. Elle dépend de transformations nécessaires dans le management de l’entreprise, pas seulement celui des ressources humaines, dont l’objectif est de lui permettre de se projeter à long terme. La question du travail ne peut pas être dissociée de celle de la finance. Keynes expliquait que le chômage est d’abord la conséquence de dysfonctionnements de la finance quand la décision des détenteurs de capitaux conduit à des taux d’intérêt trop élevés au regard du taux de profit attendu des investissements productifs. Aujourd’hui chômage et précarité ont beaucoup à voir avec un management tributaire des performances boursières de l’entreprise à très court terme. Aussi le rétablissement du plein emploi et le versement de salaires à la hauteur des gains de productivité dépendent-ils de la patience des banques et des actionnaires prêts à engager des volumes de capitaux importants pour des périodes suffisamment longues. La production prend du temps – elle suit l’investissement – c’est la raison pour laquelle celui-ci ne sera mis en œuvre que si la patience des détenteurs de capitaux rend possible d’embaucher à long terme.

Cette évolution dépend aussi de transformations nécessaires de l’action publique. Celle-ci ne saurait davantage être réduite à une redistribution de revenus et à des substitutions d’activités visant à pallier les conséquences sociales du dualisme. Elle devrait être tournée vers l’augmentation des taux d’activité des jeunes et des seniors, le développement de la formation professionnelle et de la recherche, autrement dit une politique de l’offre envisagée, non dans la perspective de réduire le coût du travail, mais dans celle d’en augmenter le niveau de qualification et de répondre aux besoins de main d’œuvre des entreprises engagées dans des investissements à long terme.


[1] L’expression et l’observation sont d’O. Passet (« Le capitalisme paradoxal : augmenter le temps de travail et le temps de loisir » XerfiCanal 15-03-2023).

[2] Ce point est souligné par O. Passet qui parle de socialisation de l’économie (« Les ménages de plus en plus financés par les États » XerfiCanal 20 mars 2023)

[3] Voir N. Georgescu-Roegen (The Entropy Law and the Economic Process, Harvard University Press), 1971; M. Amendola et J.-L. Gaffard, Out of Equilibrium Oxford, Clarendon Press 1998 ;  J.-L. Gaffard, M. Amendola et F. Saraceno, Le temps retrouvé de l’économie, Paris, Odile Jacob.




États-Unis : les ménages continuent de puiser dans leur sur-épargne

par Christophe Blot

Selon le Bureau of Economic Analysis, la croissance américaine au premier trimestre 2023 a atteint 0,3 %, niveau légèrement supérieur à ce que nous avions anticipé[1]. Cette première estimation traduit la résilience de l’économie malgré la forte hausse de l’inflation qui ampute le pouvoir d’achat des ménages et le resserrement monétaire qui se traduit par un renchérissement des conditions de crédit et une baisse de la valeur des actifs boursiers. Comment expliquer cette situation conjoncturelle ? L’économie américaine peut-elle résister au resserrement monétaire ? Tout dépendra sans doute de l’évolution du taux d’épargne des ménages américains.



La publication des comptes pour le premier trimestre 2023 indique que la croissance a été principalement tirée par la demande intérieure hors stocks qui contribue à hauteur de 0,8 point tandis que les stocks ont joué très négativement (-0,7 point de contribution) et que le commerce extérieur a eu un effet quasi-neutre. Le moteur de la croissance reste la consommation des ménages qui a progressé de 0,9 % en rythme trimestriel[2]. Une telle situation pourrait surprendre dans la mesure où l’inflation rogne le pouvoir d’achat des ménages[3]. Même si elle est en repli depuis plusieurs mois, l’inflation mesurée par l’évolution du déflateur de consommation progressait encore de 4,9 % en glissement annuel au premier trimestre. Pour autant le pouvoir d’achat des ménages affiche une progression de 1,9 % au premier trimestre en raison de la bonne tenue de l’emploi et des salaires mais également d’une baisse des impôts[4]. Outre l’effet négatif de l’inflation, l’économie américaine est également freinée par le resserrement monétaire amorcé il y a un an par la Réserve fédérale[5]. L’effet de ce resserrement devrait s’amplifier. Depuis le milieu des années 1950, les récessions outre-Atlantique ont été souvent précédées d’un changement d’orientation de la politique monétaire (graphique 1). La corrélation n’indique pas forcément que la politique monétaire est seule responsable de ces récessions mais la théorie économique suggère clairement que la politique monétaire a joué un rôle via un effet négatif sur la demande intérieure[6]. De fait aujourd’hui, l’effet de la hausse des taux pourrait déjà avoir impacté les dépenses en investissement-logement qui continuent de baisser au premier trimestre.

La résilience de l’économie américaine dépendra cependant en grande partie de l’évolution de la consommation des ménages dont la dynamique a largement contribué à la reprise post-Covid. Depuis 2019, le revenu disponible des ménages (RdB) a progressé de 18,5 % en valeur reflétant à la fois le dynamisme des salaires au cours de la période mais également la politique généreuse de transferts menée par les administrations Trump puis Biden en 2020-2021[7]. Alors que les transferts représentaient en moyenne 19 % du RdB des ménages entre 2011 et 2019, cette part est montée à 24 et 25 % respectivement en 2020 et 2021. Il en a résulté une augmentation du taux d’épargne des ménages qui s’est élevé à 16,8 % du RdB en 2020 avec un pic à 26,4 % au deuxième trimestre dans un contexte où la consommation fut également contrainte (tableau). Sur l’année 2022, les mesures exceptionnelles prises pendant la crise sanitaire sont arrivées à terme et les ménages ont moins épargné, ce qui a permis d’amortir la baisse de pouvoir d’achat résultant de la poussée inflationniste. Le taux d’épargne est redescendu à 3,7 % alors que le RdB réel diminuait de 0,1%. Au premier trimestre 2023 le taux d’épargne s’établit à 4,8 %, en hausse par rapport au trimestre précédent. Sur l’ensemble de l’année, nous anticipons un taux d’épargne moyen de 4,1 %, ce qui implique une réduction du stock de sur-épargne qui avait atteint un pic à plus de 2 100 milliards de dollars, soit 12,9 % du RdB (graphique 2)[8]. Nous prévoyons certes un ralentissement mais pas de récession avec une croissance annuelle du PIB de 1,4 %. En effet, même si le gain de revenu disponible a été en partie rogné par l’inflation[9], l’épargne liquide – dépôts, comptes d’épargne et titres des fonds commun de placements monétaires – des ménages a augmenté de 36 % entre 2019 et 2022. Cette hausse reflète le placement, sous forme d’épargne liquide, des transferts reçus pendant la crise mais aussi sans doute des gains réalisés par les ménages par la cession d’autres actifs financiers. La résilience de la croissance dépendra de la capacité des ménages à amortir le choc et donc de leur comportement d’épargne. Les transferts ont certes été plutôt orientés vers les classes moyennes mais les liquidités existantes aujourd’hui pourraient être plus concentrées sur les classes les plus aisées. C’est pourquoi nous anticipons cette légère remontée du taux d’épargne sur l’année 2023. Toutefois, il resterait inférieur au niveau observé en 2019 de telle sorte que la consommation serait le principal moteur de la croissance.


[1] Voir « États-Unis, pilotage à hauts risques », dans la Revue de l’OFCE, n° 180.

[2] Les dépenses publiques – consommation et investissement – ont été également dynamiques (+1,3 % et +0,5 % respectivement) mais contribuent de fait assez peu à la croissance : +0,2 point chacun.

[3] Nous anticipions en effet une croissance trimestrielle de la consommation des ménages de 0,3 %.

[4] Le revenu disponible brut nominal a progressé de 3 % sur le premier trimestre 2023 contre une prévision à 1,5 %.

[5] Voir « Le marché du travail américain résistera-t-il au resserrement monétaire ? », OFCE Le Blog du 20 avril 2023.

[6] En 1974, la récession est effectivement précédée d’un resserrement monétaire mais elle est également consécutive au premier choc pétrolier et à la fin du régime de Bretton-Woods qui ont déstabilisé l’économie mondiale. En 2008-2009, l’ampleur de la récession s’explique par la crise financière globale. La politique monétaire a sans doute joué le rôle de déclencheur en provoquant l’ajustement du marché immobilier dans un contexte de fortes vulnérabilités. Pour autant, la contribution de la politique monétaire, indépendamment de l’effet d’amplification financière, est incertaine.

[7] La contribution des salaires à la progression du revenu disponible brut nominal s’élève à 15,4 points et celle des transferts à 5,2 points.

[8] En pratique, cela n’implique pas que le taux d’épargne continuera de baisser en 2023 mais qu’il se maintiendra à un niveau inférieur à celui de 2019. La référence au taux d’épargne pourrait néanmoins biaiser notre estimation de la sur-épargne Covid. Sur une période plus longue (2000-2019), le taux d’épargne moyen s’élève à 6 %. Notre hypothèse pour 2023 reste néanmoins celle d’un taux d’épargne inférieur.

[9] Le déflateur de la consommation a effectivement augmenté de 14,1 % entre le quatrième trimestre 2019 et le premier trimestre 2023.




L’intelligence artificielle Made in France à la recherche de ses grands groupes industriels

par Johanna Deperi, Ludovic Dibiaggio, Mohamed Keita et Lionel Nesta

Perçue comme la promesse de machines « intelligentes », l’intelligence artificielle (IA) est annoncée comme la source de bouleversements industriels à la mesure des révolutions majeures du XXe siècle. Ces enjeux justifient la multiplicité des politiques nationales et l’ampleur des investissements des principaux acteurs de l’IA. Á la suite des États-Unis, l’ensemble des pays industrialisés et certains pays émergents ainsi que les géants industriels se sont lancés dans des stratégies offensives annonçant des plans d’investissements considérables[1]. En nous appuyant sur PATSTAT, la base de données unique et exhaustive en matière de brevets, nous présentons ici deux singularités de la France, développées dans un Policy brief publié sur le site de l’OFCE.



La première singularité française est que sans être un leader mondial de l’innovation incorporant de l’intelligence artificielle, la France montre une activité modérée mais significative dans ce domaine

Le graphique 1 classe les 10 premiers pays producteurs de brevets. Avec respectivement 30% et 26% des brevets IA, les États-Unis et la Chine dominent la production mondiale d’innovations incorporant de l’IA. L’Union européenne et le Japon représentent tous deux 12%. Ainsi quatre brevets IA sur cinq émanent de ces quatre zones géographiques.  La Corée du Sud représente 6% des brevets IA.  Au sein de l’Union européenne, l’Allemagne est le pays le plus actif dans le domaine de l’IA. La France apparaît au septième rang mondial avec 2,4% de la production de brevets IA. Les 10 premiers pays comptabilisent 90% et les 20 premiers presque 97%.

Si l’on prend en compte la population, la Corée du Sud se singularise en produisant plus de 1 000 brevets IA par million d’habitants. Avec environ 800 brevets par million d’habitants, le Japon et les États-Unis se distinguent également par leur forte intensité en brevets IA.  Avec 234 brevets par million d’habitants, l’Europe se montre peu active. Mais ceci cache une forte disparité entre pays. Les Pays-Bas (574 brevets par million d’habitants), l’Allemagne (475) mais également la Finlande (748) et la suède (701) se montrent les plus actifs. Á l’inverse, l’Italie (72), l’Espagne (69), le Portugal (39), de même que les anciens pays de l’Est accusent un net retard. Avec 312 brevets par million d’habitants, la France se classe 15e au niveau mondial et garde une position médiane dans le monde et en Europe.

Une analyse plus fine révèle que la France est spécialisée en apprentissage automatique, en apprentissage non supervisé et en modèles graphiques probabilistes et aussi dans le développement de solutions liées aux sciences médicales, aux domaines des transports et de la sécurité. Cela traduit une chaîne de valeur IA en France faiblement intégrée. Cela vient pour l’essentiel d’un manque d’intégration dans les phases de la chaîne de l’innovation situées en aval.

La seconde singularité française est relative à la place importante de sa recherche publique qui contraste avec le retard affiché des grands groupes industriels français 

Le graphique 2 présente les principales organisations privées et publiques productrices de brevets IA.  L’aspect le plus saillant est l’absence de grands groupes français du classement mondial (le premier grand groupe Français, Thalès, se classe 37e au niveau mondial), conjointement à la présence significative des institutions publiques de recherche. Par exemple, le CNRS se classe 2e avec 891 brevets, le Commissariat à l’Énergie Atomique (CEA) et l’Institut Pasteur sont respectivement 4e et 5e, l’INSERM occupe la 7e place, l’INRIA la 8e et l’Institut Curie la 9e place. On compte donc six institutions françaises parmi les dix principaux organismes de recherche européens.  Aussi, la France se distingue par une forte présence de sa recherche publique dans la production d’innovation incorporant de l’IA.

Une analyse des réseaux de collaborations à partir des co-brevets, c’est-à-dire les brevets appartenant à plusieurs organisations, révèle notamment que les réseaux français apparaissent comme étant essentiellement intra-nationaux et faiblement ouverts à l’international et à la mixité institutionnelle. Ils s’opposent aux autres réseaux d’innovation américains, chinois, japonais ou encore allemands plus ouverts à la mixité institutionnelle et à l’international.

Que retenir de ce rapide tour d’horizon ? Au vu de la performance remarquable des institutions françaises de recherche publique et dans la mesure où l’IA est un domaine basé sur la science, il n’y a pas lieu d’être pessimiste. La base scientifique est avérée. Mais le retard affiché des grands groupes industriels français, relativement aux acteurs majeurs mondiaux, nous laisse perplexes. Nous craignons que la France ne devienne un laboratoire mondial de l’IA, située en amont des activités d’innovation proprement dites, supportant les coûts fixes et irrécouvrables liés à chaque microprojet, sans trouver le relais nécessaire au niveau local. En bref, notre crainte est que l’intelligence artificielle made in France se trouve à terme sans débouché national et devienne un exportateur technologique net, sans les effets en aval de captation de la valeur ajoutée et de création d’emplois.


[1] Le rapport de l’OCDE, Identifying and Measuring Developments in Artificial Intelligence: Making the Impossible Possible, (OCDE, 2020) en est une excellente illustration.