Salaire minimum en Allemagne : un petit pas pour l’Europe, un grand pas pour l’Allemagne

par Odile Chagny  (Ires) et Sabine Le Bayon

Après plusieurs mois de débats parlementaires, le salaire minimum entrera progressivement en vigueur en Allemagne entre 2015 et 2017.  Ce débat n’a que peu modifié le projet de loi présenté en avril dernier et issu de l’accord de coalition entre le SPD et la CDU. Le montant du salaire minimum s’élèvera en 2017 à 8,5 euros bruts de l’heure, soit environ 53% du salaire horaire médian.  Dans un pays qui garantit constitutionnellement aux partenaires sociaux leur autonomie à déterminer les conditions de travail, la rupture est majeure. Pour autant, l’importance de l’introduction du salaire minimum ne se situera pas tant dans les effets de relance de la croissance en Allemagne et en zone euro que l’on peut en attendre, que dans le tournant opéré du point de vue de la conception de la valeur du travail, dans un pays qui a historiquement toléré que celle-ci pouvait différer selon le statut de celui (ou celle) qui l’exerce[1].

La loi sur le salaire minimum en Allemagne est l’aboutissement d’un long processus initié au milieu des années 2000 et qui a conduit à un relatif consensus sur la nécessité de mieux protéger les salariés du dumping salarial en vigueur dans certains secteurs ou certaines entreprises. Contrairement à la France où le SMIG (puis le SMIC) a été institué dès 1951, l’Allemagne n’avait pas de salaire minimum légal interprofessionnel. La mise en place de ce salaire minimum par l’Etat, pourtant contraire au principe d’autonomie des partenaires sociaux, est le signe que les différents acteurs reconnaissent désormais explicitement que le système de négociations collectives ne permet plus de garantir des conditions de travail décentes pour un nombre croissant de salariés, notamment ceux qui ne sont pas couverts par des conventions collectives mais aussi les salariés travaillant dans des secteurs où l’affaiblissement des syndicats est tel que les minima de branche se situent à des niveaux excessivement bas.

L’intervention de l’Etat constitue donc un vrai bouleversement dans le système de relations professionnelles. Cependant cette dernière se veut seulement ponctuelle. Les partenaires sociaux garderont en effet un rôle prépondérant, et ce pour plusieurs raisons :

  • D’ici la fin de l’année 2014, ils peuvent négocier des accords de branche visant à faire converger d’ici fin 2016 les minima vers 8,5 euros, dans les secteurs où ils sont inférieurs à ce seuil[2].
  • Une fois la loi en vigueur, ce sont eux qui décideront, dans le cadre d’une commission bipartite, de l’évolution de ce salaire minimum tous les deux ans. La commission se réunira pour la première fois en 2016 et la première revalorisation interviendra éventuellement en 2017.
  • De plus, les accords de branche qui fixent les conditions de travail (grilles salariales, congés, horaires maxima…) seront plus facilement étendus à l’ensemble des salariés d’une branche (car la loi sur le salaire minimum vise aussi à renforcer les procédures d’extension des conventions collectives, très rarement utilisées à l’heure actuelle). Le résultat des négociations concernera donc plus de salariés.

L’application du salaire minimum interprofessionnel se fera par étapes. En 2015, seuls les salariés non couverts par une convention collective seront concernés. Pour les autres, soit ce plancher de salaire s’applique déjà, soit il s’appliquera progressivement dans le cadre des négociations de branche. C’est par exemple le cas dans le secteur de la viande et des abattoirs où, en janvier 2014, les partenaires sociaux ont signé un accord prévoyant l’entrée en vigueur au 1er juillet 2014 d’un salaire minimum de 7,75 euros, et qui sera revalorisé à 8,6 euros en octobre 2015. Dans la branche de l’intérim également, un accord d’octobre 2013 a porté le niveau du salaire minimum à 8,5 euros en janvier 2014 dans les anciens Länder et prévoit de l’introduire en juin 2016 dans les nouveaux Länder.

Les débats concernant les exceptions ont été houleux mais finalement peu de personnes seront hors du champ d’application du salaire minimum : certains jeunes (apprentis, stagiaires en études), les chômeurs de longue durée durant les six premiers mois suivant la reprise d’un emploi. Concernant les travailleurs saisonniers (environ 300 000 emplois), très présents dans le secteur agricole, le salaire de 8,5 euros s’appliquera bien, mais l’employeur pourra déduire le coût de l’hébergement et de la nourriture. Cela devrait tout de même limiter le dumping salarial dans ce secteur, même si le respect de la loi sera plus difficile à contrôler.

La question n’est pas tant celle des exceptions qui sont mises en avant par divers protagonistes (la confédération syndicale DGB, Die Linke et les Verts les critiquent, le patronat et certains conservateurs les jugent trop limitées) que l’application concrète de la loi.

Car l’impact de la loi sur le salaire minimum dépendra tout d’abord de la définition et du champ retenus pour les éléments de rémunération et le temps de travail, deux points laissés jusqu’ici en suspens. Or, selon que l’on prend en compte ou non les heures supplémentaires et d’autres éléments variables de rémunération, que l’on se base sur la durée du travail contractuelle ou effective, les enjeux et la portée de la loi seront très différents. Pour 2012, selon les définitions retenues, la fourchette d’estimation du nombre de personnes potentiellement concernées par le salaire minimum allait ainsi de 4,7 à 6,6 millions, soit un écart de 40%.

Ensuite, les moyens mis en place au niveau de l’inspection du travail pour contrôler l’application de la loi devront être conséquents puisqu’à l’heure actuelle, 36% des salariés percevant moins de 8,5 euros brut par heure n’ont pas de durée du travail fixée dans leur contrat de travail, ou bien effectuent des heures supplémentaires non rémunérées. Les contrôles de l’inspection du travail seront donc primordiaux, d’autant plus que 70% des salariés qui perçoivent moins de 8,5 euros de l’heure travaillent dans des établissements sans conseil d’établissement[3], ce qui rend le contrôle de l’application du droit particulièrement ardu. Enfin, le risque est élevé de voir augmenter le recours au travail indépendant payé à la tâche (i.e. sans durée du travail prévue) au détriment des contrats salariés classiques, ou aux embauches en mini-jobs, emplois pour lesquels il n’est tout simplement pas obligatoire de fixer une durée du travail et dont les salariés ne paient ni cotisations sociales salariés ni impôt sur le revenu.

Sur un plan plus macro-économique, et contrairement à ce qu’espèrent plusieurs partenaires européens de l’Allemagne, l’effet de l’introduction du salaire minimum sur la demande intérieure devrait être limité, non seulement car il est loin d’être établi que la législation s’applique réellement partout, mais aussi du fait d’un impact limité sur le revenu des ménages. A la suite de l’augmentation de leur taux marginal d’imposition et de la baisse de leurs prestations sociales, le revenu effectif des ménages concernés par le salaire minimum n’augmenterait que d’un quart seulement de la hausse initiale de leur salaire. Concernant les 1,3 million d’« Aufstocker », ces personnes qui cumulent revenus du travail et allocation de solidarité destinée aux personnes dans le besoin et aux chômeurs de longue durée (réforme Hartz IV), leur nombre ne baisserait que de 60 000[4].

L’impact sur la compétitivité devrait différer largement selon les secteurs. Selon Brenke et Müller (2013), la masse salariale globale progresserait de 3 %. A l’exception de l’industrie agro-alimentaire, dont la compétitivité reposait sur un dumping salarial important et qui devrait ressentir assez nettement la mise en place d’un salaire minimum (sauf en cas de contournement de la loi sous une forme ou une autre), les entreprises industrielles exportatrices, où les salaires sont globalement élevés (INSEE, 2012), seraient peu affectées par l’introduction d’un salaire minimum. Il n’en reste pas moins qu’elles en subiraient indirectement les effets, puisqu’elles ont externalisé un certain nombre d’activités durant la dernière décennie dans des entreprises de services où les coûts sont plus faibles. Dans beaucoup d’entreprises, le niveau élevé des marges devrait cependant leur permettre de limiter les augmentations des prix de production. Pour les secteurs  intensifs en main-d’œuvre (coiffure, taxi…) non délocalisables, les prix devraient en revanche sensiblement augmenter, ce qui pourrait limiter l’impact positif en termes de pouvoir d’achat sur les salariés bénéficiant du salaire minimum.

Si les effets de l’introduction du salaire minimum devraient rester relativement limités sur le plan macro-économique, en particulier en termes de relance pour la zone euro, il ne faudrait pas passer à côté du signal fort en termes d’économie politique. Car la mise en place d’un salaire minimum de large portée – les exceptions seront finalement très circonscrites – et interprofessionnel – le plancher s’appliquera à toutes les branches – renvoie avant tout à cette idée qu’un salarié doit pouvoir vivre de son travail et que ce n’est pas nécessairement à l’Etat de subventionner les bas salaires sous forme de prestations sociales pour préserver la compétitivité des salariés peu qualifiés notamment. C’est ainsi que M. Sigmar Gabriel, président du SPD et ministre de l’Economie du nouveau gouvernement de coalition, déclarait en février 2014 au Bundestag, que le salaire minimum n’était pas tant important pour ce qui concerne son niveau ou la date de son entrée en vigueur, que parce qu’il renvoie à cette question centrale de l’économie sociale de marché que « tout travail doit avoir sa valeur».

 

Ce billet paraît parallèlement à la publication d’un article consacré à ce sujet: Chagny O. et S. Le Bayon, 2014 : « L’introduction d’un salaire minimum légal : genèse et portée d’une rupture majeure », Chronique internationale de l’IRES, n°146, juin.

 


[1] Selon le principe qu’un retraité, un étudiant ou une femme au foyer n’ont pas nécessairement besoin de couverture sociale et travaillent essentiellement pour un revenu d’appoint.

[2] Le secteur des livreurs de journaux constitue une exception dans la mesure où c’est l’Etat qui a fixé dans la loi une augmentation progressive des minima vers 8,5€ en 2017.

[3] Les conseils d’établissement assurent la représentation des salariés dans les entreprises d’au moins 5 salariés. Ce sont eux qui déterminent les conditions d’application des conventions collectives.

[4] Ce qui renvoie à différentes caractéristiques du système socialo-fiscal allemand : taux marginaux d’imposition élevés pour le second apporteur de revenu en lien avec le quotient conjugal, taux marginal d’imposition plus élevé qu’en France pour les bas revenus et, pour les bénéficiaires de l’allocation de solidarité Hartz IV taux d’imputation élevé (80 % au-dessus de 100 euros) des revenus du travail sur l’allocation. Pour plus d’informations, voir Brenke et Müller (2013) et Bruckmeier et Wiemers (2014).




L’« effet ricardien » : à prendre avec précaution !

par David Ben Dahan et Eric Heyer

La dégradation des finances publiques influence-t-elle le comportement de consommation des ménages ? Une étude récente de l’Insee tente d’y répondre en estimant économétriquement les déterminants du taux d’épargne sur des données annuelles allant de 1971 à 2011. Les résultats mènent les auteurs de cette étude à attribuer les variations récentes du taux de consommation des ménages français à la politique budgétaire et à l’état des finances publiques. Ainsi leur modèle conclut-il à l’existence significative d’un « effet ricardien » : constatant la dégradation des finances publiques au cours de la crise, les ménages auraient anticipé une hausse future des impôts, les conduisant à épargner davantage au cours de la période récente. Notons que cet effet n’est que temporaire : les résultats économétriques de l’Insee indiquent que ce dernier aurait pesé sur la consommation des ménages à court terme mais s’estomperait rapidement et disparaîtrait à long terme. Les ménages seraient donc « ricardiens » … mais à court terme uniquement !

Cet oxymore peut être dû au fait que, sur la période étudiée par l’Insee, les déterminants standards de la consommation que sont l’inflation, les taux d’intérêt et le taux de chômage n’ont pas d’effet. Ainsi donc, pour l’Insee, les ménages français formeraient des anticipations rationnelles de court terme, mais ne constitueraient pas d’« épargne de précaution » contre les risques liés à la dégradation du marché du travail. Or, en période de récession, la dégradation des finances publiques allant de pair avec une hausse conséquente du chômage, l’ « effet ricardien » et l’ « épargne de précaution » entrent en concurrence, rendant leur distinction délicate (graphique 1).

graph1bis_eh_stagiaire_0807

Il est à noter à cet égard que la stabilité des paramètres estimés par l’Insee n’est pas assurée sur la période 1970-2011 : la non-significativité du taux de chômage est levée lorsque l’on débute la période d’estimation plus tard, à compter de 1975, et cette variable devient fortement significative à partir de 1978. C’est la raison pour laquelle nous avons reproduit l’analyse de l’Insee en débutant l’estimation en 1978. Les résultats issus de la modélisation du taux de consommation des ménages par un modèle à correction d’erreurs (MCE), selon trois spécifications différentes synthétisées dans le tableau 1, peuvent être résumés de la manière suivante :

  1. A l’instar des résultats de l’Insee, aucun « effet ricardien » ne ressort significativement à long terme sur la période 1978-2011. A court terme, cet effet sort très légèrement significatif (à 10 % dans l’équation 1) ;
  2. Lorsque l’on intègre dans l’analyse le taux de chômage, ce dernier sort significativement à court et long terme (équations 2 et 3) ;
  3. Lorsqu’ils sont mis en parallèle avec l’épargne de précaution, l’ « effet ricardien » perd son pouvoir explicatif de court terme (équation 2).

 

Tab1_eh_stagiaire_0807

 

Nos estimations montrent que l’augmentation des déficits n’entraîne pas de baisse de la consommation et que la hausse du taux d’épargne observée entre 2008 et 2011 s’expliquerait par une « épargne de précaution » due à la forte dégradation du marché du travail.

Ce résultat conforte par ailleurs l’analyse menée dans d’autres travaux de l’OFCE sur l’importance des multiplicateurs budgétaires.




Comment lire le cas Alstom

par Jean-Luc Gaffard

La situation d’Alstom a défrayé la chronique depuis que les dirigeants de l’entreprise ont annoncé leur intention de céder la branche énergie à General Electric et de procéder à une restructuration ressemblant fort à une vente à la découpe. Les pouvoirs publics ont vivement réagi devant ce qu’il jugeaient être un fait accompli, sollicitant un autre repreneur, en l’occurrence Siemens, dans la perspective de créer une ou des entreprises européennes dans des secteurs jugés stratégiques, à l’image d’Airbus. Avant de se rallier à la solution General Electric, entretemps améliorée tant sur la somme déboursée pour le rachat qu’en ce qui concerne les modalités de la future organisation industrielle. Ces péripéties, pour importantes qu’elles soient, ne doivent pas masquer une réalité plus générale, celle d’une désindustrialisation qui, entre autres, prend la forme du démantèlement de certaines grandes entreprises et qui résulte de l’incohérence d’une  gouvernance propre à ce qu’est devenu le capitalisme français.

La désindustrialisation est généralement attribuée soit à la concurrence des pays à bas salaires et donc au coût excessif du travail, soit à l’insuffisance des investissements innovants et donc au défaut de compétitivité hors-prix. Les solutions recherchées, relevant de politiques publiques, oscillent entre la baisse des coûts salariaux et le soutien à la R&D, le plus souvent sans se préoccuper des conditions de gouvernance des entreprises. L’accent est mis sur le fonctionnement des marchés de travail que l’on voudrait rendre plus flexibles et sur celui des marchés financiers que l’on juge ou souhaite efficients, sans véritablement prendre en considération la vraie nature de l’entreprise. Or celle-ci s’inscrit dans un réseau complexe de relations entre les différentes parties prenantes que sont les managers, les salariés, les banquiers, les clients et les fournisseurs. Ces relations ne sont pas réductibles à des relations de marché grevées d’imperfections qui produiraient de mauvaises incitations et qu’il faudrait corriger pour aller vers plus de flexibilité. Elles participent d’engagements contractuels à plus ou moins long terme souscrits entre les différentes parties prenantes dans l’entreprise, qui dérogent à l’état de pure concurrence, alors même qu’ils sont essentiels à la réalisation des investissements longs porteurs d’innovation et de croissance. De la durée de ces engagements dépendent, en effet, la performance moyenne des entreprises, la structuration de l’industrie et finalement l’industrialisation de l’économie.

Les difficultés d’Alstom, après celles rencontrées par d’autres comme Pechiney ou même Rhône Poulenc aujourd’hui disparues, témoignent de cette réalité organisationnelle. Avec un chiffre d’affaires à peine égal au quart de celui de Siemens et au cinquième de celui de General Electric, la taille de l’entreprise dans ses différentes activités est apparue à ses dirigeants largement insuffisante pour faire face aux contraintes de la concurrence. Déjà en 2004, il a fallu que l’Etat intervienne pour la recapitaliser avec l’accord de la Commission européenne, lui évitant la faillite. L’entreprise s’est alors vue dans l’obligation de se séparer de certaines activités et de procéder à une diminution drastique des emplois. Aujourd’hui, la seule voie qui s’ouvre est celle d’une nouvelle restructuration avec l’espoir de sauver compétences et emplois en les apportant à une entité plus grande et plus efficace tout en résorbant les dettes accumulées. Ce qui ne pouvait apparaître comme un démantèlement ultime au bénéfice de l’un ou l’autre des concurrents ayant su développer les bonnes stratégies loin des recommandations des thuriféraires de ce que l’on a appelé un temps la nouvelle économie. En l’occurrence, le bénéficiaire sera General Electric. Cette ultime solution intervient faute pour Alstom d’avoir pu bénéficier dans un passé récent et plus ancien d’engagements financiers longs qui lui auraient permis de conduire une stratégie efficace de croissance.

Ce mécompte révèle, après bien d’autres, l’incohérence advenue au sein du capitalisme français entre son organisation industrielle et son organisation financière, déjà dénoncée dans un ouvrage de 2012 par Jean-Louis Beffa (La France doit choisir, Paris : Le Seuil). Le nouveau modèle financier, inspiré du modèle anglo-saxon, ne semble plus à même de répondre aux besoins d’entreprises matures, engagées dans des activités pour lesquelles les investissements sont lourds et longs à mettre en place et qui sont sujettes à des cycles de performance liés aussi bien aux fluctuations de la demande qu’aux contraintes des processus d’innovation. Le défaut d’engagement qui s’en est suivi ne pouvait que pousser à des démantèlements que l’on aurait tort d’assimiler à une modularité accrue de la production industrielle qui serait le fruit de l’introduction des nouvelles technologies de la communication et de l’information et que valoriseraient les marchés financiers comme a semblé le penser le dirigeant d’Alstom de la fin des années 1990 plaidant pour une entreprise sans usines.

Dans ces conditions, le redressement productif ne saurait passer par des interventions forcément ponctuelles des pouvoirs publics visant plus ou moins explicitement la création au demeurant peu crédible de champions nationaux ou européens. Il requiert des réformes structurelles portant, non sur les règles de fonctionnement des marchés, mais sur les modes de gouvernance impliquant notamment de réviser l’organisation du système financier.

Ces réflexions sont prolongées et développées dans la « Restructurations et désindustrialisation : une histoire française », Note de l’OFCE, n° 43 du 30 juin 2014.

 

 




Le capital-logement ne contribue-t-il vraiment pas aux inégalités ?

par Guillaume Allègre et Xavier Timbeau

Dans une réponse au Capital au XXIe siècle, Odran Bonnet, Pierre-Henri Bono, Guillaume Chapelle et Etienne Wasmer (2014) tentent de montrer que la conclusion du livre en termes d’explosion des inégalités de patrimoine « n’est pas plausible ». Les auteurs pointent une incohérence dans la thèse de Thomas Piketty : le modèle d’accumulation du capital serait implicitement un modèle d’accumulation du capital productif, ce qui serait incohérent avec le choix d’inclure le capital immobilier à sa valeur de marché dans la mesure du capital. Correctement évalué, le ratio capital sur revenu serait resté stable en France, en Grande-Bretagne, aux Etats-Unis et au Canada, ce qui contredirait la thèse de l’ouvrage de Thomas Piketty.

Nous répondons, dans la Note de l’OFCE n°42, 25 juin 2014 (« Welcome to Nouillorc : Le capital-logement ne contribue-t-il vraiment pas aux inégalités? »), que les auteurs minimisent la contribution du logement aux inégalités. En particulier, nous ne pensons pas que l’évolution des prix de l’immobilier ait des « effets de second ordre (effets redistributifs réels) et atténués ». Comme souvent, le désaccord s’explique en partie par une absence de consensus sur ce qui compte vraiment en matière d’inégalités : les inégalités de patrimoine ? De revenus ? De consommation ? Ou encore la dynamique potentiellement divergente de ces inégalités ? Le désaccord s’explique aussi par le type de modèle utilisé. Les auteurs utilisent un modèle dynastique dans lequel les biens immobiliers sont transmis de parents à enfants puis aux petits-enfants. Dans ce modèle, les variations de prix de l’immobilier n’ont pas d’effet réel. Ce modèle n’est pas pertinent pour rendre compte des inégalités engendrées par l’immobilier dans une société où les personnes sont mobiles et ont des projets de vie différents de ceux de leurs parents.

La bulle immobilière risque d’entretenir une dynamique inégalitaire. La propriété dans les métropoles devient en effet de plus en plus un club fermé pour aisés, ce qui partitionne les jeunes entre ceux dotés en capital social, éducatif ou financier, et qui peuvent accéder à la propriété et ceux qui ne peuvent que louer, ou déménager vers des territoires moins dynamiques, avec la conséquence de réduire encore plus leur accès aux différents types de capital. Ne vaudrait-il pas mieux construire suffisamment pour que chacun trouve à se loger à un prix en lien avec les aménités offertes ? Comment penser que la seconde situation n’est pas plus égalitaire que la première ?

Pour en savoir plus : Allègre, G. et X. Timbeau, 2014 : « Welcome to Nouillorc : Le capital-logement ne contribue-t-il vraiment pas aux inégalités ? », Note de l’OFCE, n°42 du 25 juin 2014.




Une assurance chômage pour la zone euro ?

Par Xavier Timbeau

Dans la dernière parution de la Direction générale du Trésor,  Lettre Trésor-Eco, n° 132, juin 2014 (Ministère des Finances et des Comptes publics et Ministère de l’Économie du Redressement productif et du Numérique), Thomas Lellouch et Arthur Sode développent le mode de fonctionnement et les mérites d’une assurance chômage commune à la zone euro. Ils en précisent les modalités d’application, par grandes étapes, qui en assurent la neutralité entre Etats membres. Ils plaident pour des politiques de l’emploi et du marché du travail harmonisées, conduisant à long terme à un taux de cotisation unique dans la zone euro :

– « La mutualisation au niveau de la zone euro d’une composante de l’assurance chômage permettrait de doter la zone euro d’un instrument de solidarité nouveau, à même de donner une véritable incarnation à l’Europe sociale tout en renforçant la stabilisation de la zone dans son ensemble …

– Ce socle commun indemniserait par exemple les chômeurs de moins d’un an (la composante la plus cyclique) à hauteur de 50 % de leur salaire passé, avec un financement reposant sur une base harmonisée (par exemple la masse salariale). Il serait complété par une indemnisation nationale en fonction des préférences de chaque État, et assurerait ainsi le maintien du niveau actuel de l’indemnisation …

– Une modulation des taux de cotisation de chaque État membre en fonction de son niveau de chômage, avec des mises à jour régulières en fonction des tendances passées, assurerait une neutralité budgétaire ex ante entre États membres …

– À plus long terme, et après une convergence des taux de chômage entre les différents États membres, un système marquant une solidarité accrue entre États membres pourrait être envisagé, avec un financement via un taux de cotisation unique… ».

Une solidarité nouvelle, mais trois problèmes se posent…

L’assurance chômage est un important stabilisateur automatique. Sa mutualisation par les États membres de la zone euro aurait permis d’importants transferts au cours de la crise que nous venons de traverser. Suivant le schéma proposé par les auteurs (mutualisation de la composante la plus cyclique), l’Espagne aurait pu bénéficier de presque 35 milliards d’euros à la fin 2012, provenant essentiellement de l’Allemagne et de la France. Ce n’est pas de nature à annuler le déficit public de l’Espagne, mais cela aurait contribué à ce qu’il soit moins important.

Un tel dispositif pourrait avoir un rôle majeur pour éviter les crises de dette souveraine par lesquelles le crédit d’un État est asséché. Il introduirait une solidarité et des transferts neutres au cours des cycles, mais réactifs à la conjoncture.

Trois problèmes se posent cependant : le premier est que les systèmes d’assurance chômage sont le fruit de compromis sociaux nationaux, bien perçus et en cohérence avec le reste des politiques nationales sur le marché du travail, actives ou non. Une assurance chômage européenne s’ajoutant sur les systèmes nationaux pourrait conduire à de la confusion et la remise en cause de l’équilibre national. Le dialogue social en serait perturbé, puisque les partenaires sociaux disposeraient d’une ressource potentielle dont ils ne sont pas responsables, sans compter que les autorités européennes, ou les pays partenaires, pourraient estimer avoir leur mot à dire. Or, l’assurance chômage est souvent un sujet sensible comme l’illustre la question des intermittents en France en ce début d’été 2014.

Ceci pourrait être résolu en limitant la mutualisation à des transferts macroéconomiques, indépendamment des modalités nationales. Mais, et c’est le second problème, pour éviter que les transferts entre Etats ne deviennent pérennes, il faut équilibrer les transferts sur le « cycle économique ». Cela demande une procédure d’identification de ce cycle, partagée par les parties prenantes.. L’expérience récente de la crise, ou encore celle du calcul des déficits structurels, montre que c’est loin d’être acquis. Une autre option serait de « recharger » le dispositif avant d’y recourir, en accumulant des contributions avant un retournement majeur pendant quelques années. Il suffirait alors d’en limiter l’usage à ce qui a été accumulé pour résoudre les conflits. Mais alors, le dispositif n’a plus aucun intérêt face à une crise systémique. Le jour où le matelas a fondu, les rois sont aussi nus qu’avant. Au mieux on retarde la crise, au pire on l’aggrave.

Une dernière option est de renoncer à l’équilibre des transferts a priori (ou par la mécanique de fonctionnement), en le laissant au fil de l’eau se polariser dans un sens ou dans un autre et d’en assurer la convergence asymptotique. Mais alors, le dispositif peut conduire à une situation de transfert structurel non désirée qui pourrait précisément le remettre en cause.

L’Espagne a ainsi un chômage élevé, largement au-dessus de son taux structurel ; entrer dans un dispositif de transfert assis sur les écarts entre le chômage courant et le chômage structurel ne peut que se faire à l’équilibre, ou bien demande de prendre le risque d’un transfert initial durable.

C’est alors que surgit le troisième problème, la gouvernance. Il est difficile de concevoir un tel dispositif sans qu’il implique au moins potentiellement des transferts importants entre États. Comment justifier ces transferts sans représentation commune légitime ? Et, comment éviter que ces transferts ne soient l’instrument d’un contrôle de l’ensemble de la politique macroéconomique. La mise en place de l’Union bancaire rappelle que cette difficulté est centrale. De même, le refus de l’Espagne de se soumettre aux conditions posées dans le cadre d’un programme d’assistance classique (UE/FMI) indique bien qu’en l’absence d’une solidarité sincère et légitime, les bénéficiaires des transferts seront tout aussi méfiants que les payeurs.




Pourquoi un taux d’intérêt négatif ?

Christophe Blot et Fabien Labondance

Comme anticipé, la Banque centrale européenne (BCE) a dégainé le 5 juin 2014 un arsenal de nouvelles mesures non-conventionnelles. Cela afin d’enrayer la dynamique déflationniste dans laquelle se trouve la zone euro. Parmi les mesures annoncées, la BCE a notamment décidé d’appliquer un taux d’intérêt négatif aux facilités de dépôts. Cette proposition inédite mérite une explication.

Il faut rappeler que depuis juillet 2012, le taux des facilités de dépôts était de 0 %. Il passe dorénavant à -0,10 %, de telle sorte qu’une banque déposant des liquidités auprès de la BCE verra son dépôt réduit de ce taux d’intérêt négatif. Avant de voir quelles seront les répercussions de cette mesure, il est utile de préciser le rôle des facilités de dépôts. L’action de la BCE s’appuie sur les prêts octroyés aux établissements de crédits de la zone euro via les opérations principales de refinancement (MRO pour main refinancing operations) ou les opérations de refinancement à plus long terme (LTRO pour long term refinancing operations). Avant la crise, ces opérations étaient conduites à taux variables, suivant une procédure d’enchères. Elles sont réalisées à taux fixe depuis octobre 2008. Le taux des opérations de refinancement doit permettre à la BCE d’influencer le taux pratiqué par les établissements de crédits pour les prêts interbancaires (EONIA pour Euro overnight index average), puis, par ce biais, l’ensemble des taux bancaires et des taux de marché. Pour éviter une trop forte volatilité de l’EONIA, la BCE met deux facilités à disposition des banques : facilités de crédits, par lesquelles elles peuvent emprunter auprès de la BCE pour une durée de 24 heures, et facilités de dépôts permettant de laisser des liquidités en dépôts auprès de la BCE pour une durée de 24 heures. Ainsi, en cas de crise de liquidités, les banques ont la garantie de pouvoir prêter ou emprunter via la BCE, moyennant un taux d’intérêt plus élevé pour les facilités de crédits, ou plus faible pour les facilités de dépôts. Ces taux permettent alors d’encadrer les fluctuations de l’EONIA comme l’illustre le graphique 1.

IMG1_CBFL_2006

En pratique, jusqu’à la faillite de Lehman Brothers en septembre 2008, les banques n’avaient que très peu recours aux facilités de dépôts, témoignant d’un fonctionnement normal du marché interbancaire. Depuis, la situation a radicalement changé, et le montant des dépôts laissés auprès de la BCE a fluctué de manière plus ou moins grande selon les incertitudes liées à la crise des obligations souveraines (graphique 2). Le paroxysme de la crise, au printemps 2012 coïncide avec les montants maxima déposés par les banques qui disposaient d’un excès de liquidité. Pendant une période de trois mois, environ 800 milliards d’euros (l’équivalent d’un peu moins de 10% du PIB de la zone euro), rémunérés à 0,25 %, étaient déposés par les banques européennes. Dans un contexte de crainte d’éclatement de la zone euro et d’incertitude sur la situation financière des agents financiers et non-financiers, les banques ont déposé des montants très faiblement rémunérés auprès de la BCE. Elles ont fait ce choix plutôt que d’échanger ces excès de liquidité sur le marché monétaire, ou de soutenir l’activité par l’octroi de crédits aux entreprises ou par l’acquisition de titres financiers. Il a fallu attendre les déclarations de Mario Draghi de juillet 2012 annonçant qu’il mettrait tout en œuvre pour soutenir la zone euro (« Whatever it takes »), pour voir la confiance revenir et ces montants diminuer. C’est aussi le moment où le taux est passé à 0 %, réduisant un peu plus l’incitation à utiliser les facilités de dépôts. D’emblée, les dépôts diminuèrent de moitié, passant de 795,2 à 386,8 milliards d’euros. Depuis, ils diminuent graduellement mais restent élevés, notamment au regard de leur rémunération nulle. Ainsi, la dernière semaine de mai 2014, les dépôts s’élevaient encore à 40 milliards d’euros (graphique 2).

blot

 

Ce constat a donc poussé la BCE à proposer des taux négatifs afin d’inciter les banques commerciales à réallouer ces montants. Gageons que dès l’application de ce taux négatif, les dépôts deviendront rapidement nuls. Pour autant, l’impulsion attendue ne sera que de 40 milliards d’euros et il en faudra davantage pour soutenir l’activité réelle. A n’en pas douter, cette seule mesure de la BCE n’a pas convaincu les marchés qu’elle avait pris la mesure de la situation.

La BCE a donc une nouvelle fois fait preuve d’activisme afin d’endiguer les risques qui pèsent sur la zone euro. Cette réaction peut être comparée à celle des autres institutions européennes qui ont eu des difficultés à prendre la mesure de la profondeur de la crise. En poussant la comparaison au-delà de la zone euro, il est aussi frappant de voir que les réactions de la Réserve fédérale et de la Banque d’Angleterre ont été plus rapides, alors même que le risque de déflation était moindre aux Etats-Unis et au Royaume-Uni. Cet activisme n’est peut-être pas étranger au dynamisme retrouvé de la croissance dans ces pays.  L’action de la BCE est donc la bienvenue. Il faut maintenant espérer qu’elle permettra de prévenir le risque de déflation qui pèse sur la zone euro, risque qui aurait pu être évité si les gouvernements de la zone euro n’avaient pas mené des politiques d’austérité budgétaire généralisée, et si la BCE s’était montrée moins attentiste.

 

 

 




La dévaluation fiscale française ou quand l’Achille français s’évertue à rattraper la tortue allemande

par Sarah Guillou

Dans les années 1980, dans le cadre du mécanisme de change du SME, la France avait à plusieurs reprises procédé à des réalignements monétaires assimilables à des dévaluations – en 1981, en 1982, en 1983 puis en 1986. L’Allemagne de son côté adoptait une rigoureuse – déjà ! – stratégie de désinflation compétitive qui, disait-on alors, conduisait à discipliner ses entreprises qui ne pouvaient compter sur des avantages temporaires obtenus par la dévaluation monétaire rendant les produits exportés compétitifs. Elles étaient contraintes de procéder aux investissements qui construisaient leur compétitivité hors-prix future. Ce qu’elles ont fait …

La France, au même moment, récoltait de ses dévaluations une inflation importée et les entreprises connaissaient une moindre incitation à investir dans la compétitivité hors-prix. L’arrimage au deutsche mark puis l’Union monétaire furent alors présentés comme les moyens de sortir la France de cette stratégie sans fin de dévaluation inflationniste. Avec retard, la France finissait par se ranger à la stratégie de désinflation compétitive allemande et par renoncer à la dévaluation monétaire. Les années 1990 furent celles de la stratégie du franc fort.

Aujourd’hui, les termes du débat semblent inversés, bien que la position de la France soit toujours celle d’Achille qui court après la tortue allemande. Une nouvelle forme de dévaluation compétitive a la cote : pas celle du taux de change, car l’euro s’inscrit dans un mécanisme de marché qui détermine sa valeur, mais celle qui passe par une baisse du coût du travail supporté par les entreprises, financé en partie par une hausse de la TVA. On parle alors de dévaluation fiscale. Ainsi, P. Aghion, G. Cette et E. Cohen dans « Changer de Modèle » la défendent au motif qu’il faudrait « penser autrement »[1]. Le gouvernement s’y attache également à travers le Crédit Impôt Compétitivité Emploi (CICE) et ses projets de diminution des cotisations sociales incluses dans le Pacte de stabilité 2015-2017.

En quoi une baisse du coût du travail est-elle assimilable à une dévaluation, dite « fiscale » ? Pour rappel, une dévaluation monétaire se traduit par une baisse des prix domestiques relativement aux prix étrangers parce que la valeur de la monnaie domestique est diminuée relativement à une unité de monnaie étrangère. Une dévaluation de l’euro, si elle était possible, ce serait un montant d’euros plus élevé pour acheter un dollar et donc, en conséquence, une voiture européenne à 10 000 euros verrait sa contrepartie en dollars plus faible et deviendrait plus attractive pour un acheteur américain détenant toujours la même somme en dollars dans son portefeuille. Plus généralement, une dévaluation assure que le coût de production des entreprises domestiques devient moins cher relativement à leurs concurrentes étrangères et les premières disposent alors d’un avantage de coût et d’un accroissement de compétitivité. D’où le terme de dévaluation compétitive.

En baissant le coût du travail à la charge des entreprises, on suppose que cela baissera les prix des produits exportés (et des produits et services incorporés) – et ceci alors même que le coût du travail ne couvre pas la totalité du coût de production. En augmentant la TVA sur l’ensemble des produits, le prix des produits importés de leur côté augmente. L’effet dévaluation – c’est-à-dire la baisse du prix domestique par rapport au prix étranger – ne se produira que si le prix du concurrent reste constant. Donc, à condition qu’il ne procède pas à la même politique au même moment ! Par ailleurs cela aura vraiment un impact sur la compétitivité si le différentiel de prix, préexistant à la politique de dévaluation fiscale,  est plus que compensé par la baisse du coût du travail.

À cela s’ajoutent deux interrogations. Tout d’abord, on ne connaît pas l’élasticité des prix au coût du travail. En d’autres termes, on ne sait pas dans quelle mesure les entreprises répercutent la baisse des charges patronales sur les prix. Ensuite, les études sur le marché du travail montrent que les salaires ont une élasticité positive au coût du travail. Autrement dit, à moyen terme et surtout pour les salaires élevés, la baisse des charges sociales pesant sur les salaires se traduira par une hausse des salaires.

Des effets de moyen terme sont alors mobilisés pour défendre la politique de dévaluation fiscale. La baisse des charges patronales redonne des marges de manœuvre dans un premier temps, ou plutôt de trésorerie, pour conduire les entreprises à investir, dans un second temps, justement grâce au rétablissement de leurs marges. Au passage, cet effet exclut le précédent – c’est-à-dire la baisse des prix – ou sera maximum si la baisse des prix ne se produit pas. Il est cependant possible que les marges dégagées soient un effet secondaire de la baisse des prix qui augmente les ventes, tout en augmentant le profit unitaire dans une structure de coût à rendements d’échelle croissants, même si cela ne concerne que peu d’entreprises. Supposons à présent que les marges dégagées se traduisent par des investissements. Cela peut améliorer leur compétitivité hors-prix (la qualité intrinsèque des produits) dans le futur. Ce second aspect de la dévaluation fiscale est souvent mis en avant en parallèle avec le constat que les entreprises françaises, et l’industrie manufacturière en particulier, souffrent de conditions fiscale et réglementaire handicapantes dans la concurrence internationale et souffrent d’un déficit de qualité de leurs produits. Mais ici les analyses macroéconomiques ne peuvent plus être mobilisées et on connaît beaucoup moins bien les ressorts microéconomiques en termes de compétitivité hors-prix de l’impact de la baisse des charges.

Terminons à présent avec ses effets attendus à plus long terme. Comme le soulignent en note de bas de page Aghion et alii page 58, les effets de la dévaluation fiscale sont temporaires. En effet, comme la dévaluation monétaire, la dévaluation fiscale conduira à une augmentation des salaires en raison du mécanisme précisé plus haut. Par ailleurs, si le financement de cette baisse des charges se traduit par une baisse du pouvoir d’achat des ménages en raison de la hausse de la TVA, ceux-ci pourraient également exiger une hausse de leurs salaires nominaux. La baisse des prix relatifs gagnée dans un premier temps sera annulée à long terme par la hausse des salaires. Les auteurs pourraient argumenter de la quasi-déflation européenne pour évincer cet effet collatéral de la dévaluation. Ils défendent plutôt l’intervalle qui redonnera du souffle aux entreprises. En fait, les auteurs défendent ce qui ne relève pas de l’effet direct de la dévaluation mais de son effet indirect sur le niveau d’investissement grâce à l’augmentation des marges.

Or, c’est d’ailleurs sans doute l’objectif du CICE puisqu’il vise l’impôt et non les charges patronales directement, au contraire du pacte de responsabilité dont l’objectif est prioritairement l’emploi. En accordant un crédit d’impôt, le CICE cherche à dégager des marges pour l’investissement afin de conquérir une compétitivité hors-prix. Le problème est que l’amélioration de la compétitivité n’a rien d’assurée (voir Guillou et Treibich, Note de l’OFCE, n° 41 du 19 juin 2014 sur le CICE et la compétitivité) et que le double objectif de ce crédit d’impôt (emploi et compétitivité) compliquera la décision des entreprises.

Pour reprendre la suggestion faite par Aghion et alii, le souvenir des dévaluations compétitives françaises des années 1980 peut nous conduire à « penser vraiment autrement », c’est-à-dire à cesser d’appliquer des politiques que les autres ont déjà appliquées. Penser autrement consisterait à anticiper la concurrence du futur plutôt qu’à répliquer une politique que les autres pays ont engagée, ce qui n’est évidemment pas si simple. Et l’intérêt de l’ouvrage de Aghion et alii est d’embrasser un ensemble de réformes qui, simultanément, pourraient bien engager la France dans une autre trajectoire. Mais entamer une dévaluation fiscale alors que tous les pays européens vont potentiellement le faire ou l’ont déjà fait sera largement insuffisant, voire dangereux si elle génère une course au « moins-disant social ». Elle ne se justifie que parce que l’intégration européenne exige un certain alignement des conditions de coût des entreprises, donc en raison de la concurrence fiscale. Un train de retard fiscal dans un marché européen intégré est très coûteux, certes, mais l’Achille français ne rattrapera pas la tortue allemande partie en avance sur le terrain de la compétitivité avec l’arme de la dévaluation fiscale.

Une meilleure stratégie serait de prendre un train d’avance. Il faut anticiper, à défaut de pouvoir harmoniser les conditions fiscales des entreprises. L’Allemagne a anticipé la concurrence des pays émergents et a procédé à la TVA sociale ou dévaluation fiscale. Une politique qui changerait de « modèle » devrait anticiper la concurrence de demain en Europe et dans le monde. Or, cette concurrence ne se fera pas sur le coût du travail. Preuve en sont les orientations des pays à faible coût relatif du travail qui substituent de plus en plus de capital au travail. Ainsi la Chine est devenue déjà le plus gros acheteur mondial de robots industriels (Financial Times, 1er Juin 2014). La concurrence future se construira autour de la poursuite de deux tendances déjà en place : la division des processus de production accélérée par les possibilités technologiques et le remplacement du travail par la technologie. L’essentiel de la valeur ajoutée se concentrera en amont de la production, dans la conception et/ou en aval dans les services associés. Autrement dit, il faut aussi que le gouvernement s’intéresse au coût du capital, notamment en termes de coût d’opportunité de l’investissement.

La question du coût du travail est le problème de l’emploi des moins qualifiés (évidemment absolument important en soi), mais n’est pas au cœur de la question de la compétitivité. A s’efforcer de régler les problèmes du présent, le coût du travail, on risque de manquer les investissements qui assureront le futur. La France cessera-t-elle d’être l’Achille qui court après la tortue allemande ? Une des façons de résoudre le paradoxe de Xénon serait d’inventer un gouvernement qui s’inscrive dans la continuité. A défaut, il nous faut rompre avec une stratégie de rattrapage et opter pour un « modèle » plus conquérant.

 


[1] C’est précisément le titre du premier chapitre du livre de P. Aghion, G. Cette et E. Cohen, Changer de modèle, Ed. Odile Jacob, 2014.




Que sait-on de la fin des unions monétaires ?

par Christophe Blot et Francesco Saraceno

Les résultats des élections européennes ont été marqués par une forte abstention et par un soutien croissant aux partis eurosceptiques. Ces deux éléments reflètent un mouvement de défiance vis-à-vis des institutions européennes, dont témoignent également les enquêtes de confiance et l’amplification du débat sur le retour aux monnaies nationales. La controverse sur la sortie de la zone euro d’un pays ou sur l’éclatement de l’union monétaire est née de la crise grecque en 2010. Elle s’est ensuite largement accentuée tandis que la zone euro s’enfonçait dans la crise. La question de la sortie de l’euro n’est donc plus un tabou. Si l’expérience de la création de l’euro fut un événement inédit dans l’histoire monétaire, celle d’un éclatement le serait tout autant. En effet, une analyse des précédents historiques en la matière montre qu’ils ne peuvent servir de point de comparaison pour la zone euro.

Bien que l’histoire des unions monétaires offre apparemment de nombreux exemples de scission, peu sont comparables à l’Union monétaire européenne. Entre 1865 et 1927, l’Union monétaire latine posait bien les jalons d’une coopération monétaire étroite entre ses Etats membres. Cet arrangement monétaire s’est développé dans le cadre d’un régime d’étalon métallique instituant un principe d’uniformisation monétaire et une garantie que les monnaies battues par chacun des Etats membres pourraient circuler librement au sein de l’espace monétaire. En l’absence d’une monnaie unique créée ex-nihilo comme l’est aujourd’hui l’euro, la dissolution de l’Union intervenue en 1927 a peu d’intérêt dans le débat actuel. De fait, les spécialistes des unions monétaires qualifient plutôt ce type d’expérience « d’aires de standards communs ». Une étude d’Andrew Rose (voir ici) de 2007 fait état de 69 cas de sortie d’union monétaire depuis la fin de la Seconde Guerre mondiale laissant penser que l’éclatement de la zone euro n’aurait rien d’unique. Pourtant, l’échantillon de pays ayant quitté une union monétaire ne permet pas vraiment de tirer des enseignements probants. Un nombre élevé de ces cas concerne des pays ayant acquis leur indépendance politique dans le cadre du processus de décolonisation. Il s’agit par ailleurs de petites économies en développement dont les situations macroéconomique et financière sont très différentes  de celles de la France ou de la Grèce en 2014. Les expériences plus récentes d’éclatement de la zone rouble – après l’effondrement de l’URSS –, ou de la Yougoslavie, ont concerné des économies peu ouvertes commercialement et financièrement sur le reste du monde. Dans ces conditions, les conséquences sur la compétitivité ou sur la stabilité financière d’un retour aux monnaies nationales, et des éventuels ajustements de taux de change qui suivent, sont sans commune mesure avec ce qui se produirait dans le cas d’un retour au franc, à la peseta ou à la lire. La séparation peu troublée de la République tchèque et de la Slovaquie en 1993 portait également sur des économies encore peu ouvertes. Finalement, l’expérience la plus proche de celle de l’UEM est très certainement l’Union austro-hongroise, créée entre 1867 et 1918, puisqu’on y retrouve une banque centrale commune chargée de contrôler la monnaie mais pas d’union budgétaire[1], chaque Etat disposant pleinement de ses prérogatives budgétaires sauf pour ce qui concerne les dépenses militaires et celles afférentes à la politique étrangère. Il faut ajouter que l’Union en tant que telle ne pouvait pas s’endetter, le budget commun devant nécessairement être équilibré. Si cette union avait noué des relations commerciales et financières avec de nombreux autres pays, il n’en demeure pas moins que son éclatement est intervenu dans le contexte très particulier de la Première Guerre mondiale. C’est donc sur les ruines de l’Empire austro-hongrois que se sont constituées de nouvelles nations et de nouvelles monnaies.

Force est donc de constater que l’histoire monétaire nous apprend peu de choses dès lors qu’il s’agit d’envisager la fin d’une union monétaire. Dans ces conditions, les tentatives d’évaluation d’un scénario de sortie de l’euro sont soumises à une incertitude que nous qualifions de radicale. Il est toujours possible d’identifier certains des effets positifs ou négatifs d’une sortie de l’euro mais aller au-delà en essayant de chiffrer précisément les coûts et les bénéfices d’un scénario d’éclatement ressemble plus à un exercice de fiction qu’à une analyse scientifique robuste. Du côté des effets positifs, on pourra certes toujours objecter que les effets de compétitivité d’une dévaluation peuvent être quantifiés. Eric Heyer et Bruno Ducoudré se livrent à cet exercice à propos d’une éventuelle baisse de l’euro. Mais qui pourra bien dire de combien se déprécierait le franc en cas de sortie de la zone euro ? Comment réagiraient les autres pays si la France sortait de la zone euro ? L’Espagne sortirait-elle également ? Mais dans ce cas, de combien la peseta se dévaluerait ? Le nombre et l’interaction de ces variables dessinent une multiplicité de scénarios qu’aucun économiste ne peut prévoir en toute bonne foi, et encore moins évaluer. Les taux de change entre les nouvelles monnaies européennes seraient de nouveau déterminés par les marchés. Il peut en résulter une situation de panique comparable à l’épisode de crise de change qu’ont connus les pays du SME (système monétaire européen) en 1992.

Et quid de la dette des agents, privés et publics, du(des) pays sortant(s) ? Les juristes se partagent sur la part qui serait convertie ope legis dans la(les) nouvelle(s) devise(s), et celle qui resterait dénommée en euros, alourdissant l’endettement des agents. Il est donc probable que la sortie serait suivie d’une prolifération de recours en justice, dont l’issue est imprévisible. Après la crise mexicaine en 1994, et encore lors de la crise asiatique en 1998, toutes les deux suivies par des dévaluations, on observa une augmentation de l’endettement des agents, y compris des gouvernements. La dévaluation pourrait donc accroître les problèmes de finances publiques et créer des difficultés pour le système bancaire puisqu’une part significative de la dette des agents privés est détenue à l’étranger (voir Anne-Laure Delatte). Au risque d’un défaut sur la dette publique pourraient donc s’ajouter de multiples défauts privés. Comment mesurer l’ampleur de ces effets ? L’accroissement du taux de défaut ? Le risque de faillite de tout ou partie du système bancaire ? Comment réagiraient les déposants face à une panique bancaire ? Ne souhaiteraient-ils pas privilégier la valeur de leurs avoirs en conservant des dépôts en euros et en ouvrant des comptes dans des pays jugés plus sûrs ? Il s’ensuivrait une vague de ruées sur les dépôts, qui menacerait la stabilité du système bancaire. On pourra alors prétendre qu’en retrouvant l’autonomie de notre politique monétaire, la banque centrale mènera une politique ultra-expansionniste, que l’Etat bénéficiera de marges de manœuvre financières, mettra un terme à l’austérité et protégera le système bancaire et l’industrie française, que les contrôles des capitaux seront rétablis afin d’éviter une panique bancaire… Mais, encore une fois, prévoir comment un processus d’une telle complexité se déroulerait relève de l’astrologie… Si l’exemple argentin[2], fin 2001, est cité en référence pour argumenter qu’il est possible de se remettre d’une crise de change, il ne faut pas non plus oublier le contexte dans lequel la fin du « currency board » s’est déroulée[3] : crises financière, sociale et politique profondes qui n’ont pas vraiment de point de comparaison, à l’exception peut-être de la Grèce.

Dans ces conditions, il nous semble que toute évaluation du coût ou des bénéfices d’une sortie de l’euro conduit à un débat stérile. La seule question qui mérite d’être posée relève du projet politique et économique européen. La création de l’euro fut un choix politique, sa fin éventuelle le sera également. Il faut sortir d’une vision sclérosée d’un débat européen qui oppose les partisans d’une sortie de l’euro à ceux qui ne cessent de vanter les succès de la construction européenne. De nombreuses voies de réformes sont envisageables comme le prouvent certaines initiatives récentes (Manifeste pour une union politique de l’euro) ou les contributions rassemblées dans le numéro 134 de Revue de l’OFCE intitulé « Réformer l’Europe ». Il est urgent que l’ensemble des institutions européennes (la nouvelle Commission européenne, le Conseil européen, le Parlement européen mais également l’Eurogroupe) s’emparent de ces questions et relancent le débat sur le projet européen.

 


[1] Pour une analyse plus détaillée des rapprochements pouvant être faits entre l’Union monétaire européenne et l’Autriche-Hongrie, voir Christophe Blot et Fabien Labondance (2013) : « Réformer la zone euro : un retour d’expériences », Revue du Marché Commun et de l’Union européenne, n° 566

[2] Il faut noter que l’Argentine n’était pas en union monétaire mais en régime dit de « currency board ». Voir ici pour une classification et une description des différents régimes de change.

[3] Voir Jérôme Sgard (2002) : « L’Argentine un an après : de la crise monétaire à la crise financière », Lettre du Cepii, n° 218.




Quelles options pour la BCE ?

par Paul Hubert

Tous les yeux sont actuellement tournés vers la BCE dont les déclarations récentes indiquent qu’elle se préoccupe du risque déflationniste dans la zone euro. Le nouveau recul de l’inflation au mois de mai à 0,5 %, en rythme annuel rappelle que ce risque s’accroît, ce qui pourrait amener la BCE à agir, lors de la réunion mensuelle du Conseil des Gouverneurs qui se tient aujourd’hui, ou dans les mois à venir. Ce post présente un court résumé des options possibles et disponibles pour la BCE.

1. Réduire le taux d’intérêt directeur (main refinancing operations rate, ou taux MRO) actuellement à 0,25%. Le consensus sur les marchés financiers se situe autour d’une réduction de 10 à 15 points de pourcentage, ce qui permettrait de réduire un peu plus le coût du financement pour les banques qui dépendent encore des liquidités de la BCE. Cette mesure aurait cependant un impact marginal sur les taux des opérations de refinancement (MRO et LTRO, opérations dites de refinancement à plus long terme), ce qui influencerait peu les conditions de financement et aurait donc peu d’avantages pour les banques espagnoles et italiennes (principales utilisatrices de cette option).

2. Réduire le taux d’intérêt des dépôts (deposit facility rate) de zéro à des taux négatifs (à nouveau de 10 à 15 points de pourcentage). Cette option est anticipée en grande partie par les marchés financiers. Un taux d’intérêt négatif sur les dépôts devrait également être accompagné d’une modification de la politique des réserves excédentaires de la BCE en plafonnant le montant des réserves excédentaires des banques commerciales au bilan de la BCE ou en appliquant le même taux négatif aux réserves excédentaires. Sans cela, les banques transfèreraient tout simplement leur fonds du compte de dépôts vers les réserves excédentaires. Une combinaison de ces deux politiques devrait conduire à un taux Eonia plus faible, entre zéro et 0,05%. Ainsi, l’incitation des banques à laisser leurs liquidités à la BCE serait réduite afin de stimuler la distribution de crédits au secteur non financier.

3. Une extension de la politique de provision de liquidités en quantité illimitée à taux fixe (fixed-rate full allotment) de mi-2015 à fin 2015 ou même mi-2016, est majoritairement considérée comme une option facile et rapide qui fournirait une assurance supplémentaire sur les marchés avant les échéances de LTRO de début 2015. Ce type de mesure garantirait la liquidité du système bancaire mais pourrait avoir un impact limité sur l’activité et l’inflation tant que les banques préféreront placer leurs liquidités auprès de la banque centrale.

4. La BCE annonce la fin de la stérilisation du programme SMP (Securities Markets Programme, programme d’achats d’obligations souveraines des pays en difficulté de la zone euro). Les marchés paraissent divisés sur cette question. La BCE n’a pas réussi à attirer une demande suffisante pour stériliser complètement cette opération lors des huit dernières semaines. Cela ajouterait 164,5 milliards d’euros (le montant cible du SMP) de liquidités au système et conduirait le taux Eonia à zéro ou même en territoire négatif et pourrait réduire la volatilité apparue ces derniers mois. Cette mesure réduirait donc également le taux des refinancements interbancaires, ce qui reviendrait peu ou prou à la première option.

5. Un programme de LTRO conditionnel et ciblé pourrait voir le jour. Cela consisterait à copier le programme de financement ciblé (Funding for Lending Scheme -FLS-) mis en place par la Banque d’Angleterre dans lequel un financement peu cher est accordé aux banques en échange de l’octroi de nouveaux prêts à l’économie réelle. Cela prendrait cependant du temps à mettre en place et encore plus à produire un effet réel sur l’économie mais serait probablement la mesure la plus efficace pour stimuler l’activité car elle permettrait de peser sur les conditions de refinancement au-delà des opérations interbancaires.

En tout état de cause, la situation économique de la zone euro, aussi bien pour les perspectives des entreprises que pour la situation sur le marché de l’emploi, appelle à une réaction forte de la BCE pour éviter que la zone euro ne rentre en déflation. L’effet de signal pourra être tout aussi important que la mesure concrètement mise en œuvre par la BCE. En se montrant active à l’issue de la réunion d’aujourd’hui, la BCE montrera sa détermination à lutter contre le risque déflationniste, ce qui pourra au moins modifier les anticipations des agents. Si toute action de la BCE est la bienvenue, il reste que la situation économique actuelle résulte également des politiques budgétaires restrictives qui pèsent sur l’activité (voir également ici).




Pourquoi lire Piketty ?

par Jean-Luc Gaffard

L’ouvrage de Thomas Piketty, « Le Capital au XXIe siècle », a reçu un extraordinaire accueil à la mesure du travail empirique effectué, mais aussi du problème politique abordé, celui de l’accroissement spectaculaire des inégalités aux Etats-Unis. Paul Krugman et Joseph Stiglitz notamment, tous deux inquiets des tendances observées dans la société américaine, et pour qui elles sont une menace pour la démocratie, voient dans les travaux de Piketty la confirmation de leurs craintes.

Fort de l’impressionnante masse des données accumulées et d’une solide connaissance historique que renforce la lecture de grands romans de la littérature française et anglaise, Piketty prédit l’avènement d’une seconde Belle Epoque, en fait le retour à un capitalisme patrimonial basé sur l’héritage, quand revenu et capital se concentrent entre les mains du centile supérieur de la population, quand le ratio du capital au revenu augmente significativement. Plus fondamentalement, il entend souligner l’existence d’une tendance séculaire à la stagnation et au creusement des inégalités, inscrite dans l’observation d’un taux de rendement du capital durablement supérieur au taux de croissance de l’économie, un peu à la façon dont Marx insistait sur l’existence d’une baisse tendancielle du taux de profit. Le XXe siècle, et plus particulièrement la période qui suit la Deuxième Guerre mondiale, caractérisée par une forte croissance associée à la réduction des inégalités et un poids moindre du capital par rapport au revenu, n’auraient alors été qu’une parenthèse maintenant refermée. La thèse défendue est que la société capitaliste aurait renoué avec une croissance faible et des inégalités croissantes nourries par la transmission des patrimoines plus que par la rémunération des talents individuels.

L’ouvrage, toutefois, est ambivalent. Un fossé existe entre la grande richesse des données rassemblées et la simplicité revendiquée de la théorie censée en rendre compte. D’un côté, un modèle trop simple, fondamentalement a-institutionnel, retient un taux de croissance définitivement exogène et ignore l’hétérogénéité du capital, faisant de la répartition une donnée technique sans influence en retour sur la croissance elle-même. D’un autre côté, la richesse des données et les intuitions qui y sont associées incitent à réfléchir sur les tenants et aboutissants de la répartition des revenus et des patrimoines pour lui redonner une place centrale dans la théorie économique et lui restituer sa dimension sociale.

En fait, il est une conviction qui parcourt le livre : le taux de croissance, quelque puissent être les politiques économiques mises en œuvre, redeviendrait faible parce que le rattrapage ne serait plus de mise et parce que le potentiel de gains de productivité serait largement épuisé. L’héritage deviendrait, alors, d’autant plus prégnant dans la distribution des richesses qu’il alimenterait le creusement des inégalités. Ce pessimisme fondamental justifie la simplicité revendiquée de l’explication théorique. S’il fallait le partager, il faudrait, toutefois, mieux l’étayer en s’interrogeant sur les causes et les effets de la formation des rentes et en rompant avec une analyse néo-classique de la croissance décidément sans véritable pertinence au regard du sujet traité. L’évolution de la répartition des revenus et des richesses n’a rien de naturel, mais répond à des choix politiques et à des normes sociales. La question est, alors, de savoir si les choix et les normes des années de l’âge d’or ont encore un sens, en fait si le politique peut encore contrebalancer les forces de ce qu’il faut bien appeler le déclin et qui menaceraient les sociétés capitalistes modernes.

Ainsi le défi est-il implicitement lancé qui naît de par la lecture de Piketty. Il est d’élaborer une analyse qui, suivant une intuition que l’on doit aux économistes classiques, reposerait sur l’idée que l’augmentation du poids de la rente distinguée du profit, alimenterait la hausse des achats d’actifs improductifs ou de biens de luxe au détriment de l’accumulation de capital, et constituerait le véritable obstacle à la croissance.

Ces différents éléments sont développés dans la Note de l’OFCE, n°40 du 2 juin 2014, « Le capital au XXIe siècle : un défi pour l’analyse’ », qui fait suite au document de travail de Guillaume Allègre et Xavier Timbeau publié précédemment (voir le billet du blog ici).