Pas de surprise du côté de la Fed*

par Christine Rifflart

Sans grande surprise, lors de sa réunion des 29 et 30 octobre, le Comité de politique monétaire de la Réserve fédérale des Etats-Unis a décidé de maintenir ses mesures non conventionnelles et de laisser inchangé son taux des fonds fédéraux. Depuis la fin de l’année 2012, la Réserve fédérale procède en effet à des achats massifs de titres (obligations publiques et titres de dette hypothécaire) au rythme de 85 milliards de dollars par mois. L’objectif est de faire pression sur les taux longs et soutenir l’activité, y compris sur le marché immobilier.

Par ailleurs, la Réserve fédérale, engagée dans une stratégie de transparence et de communication qui vise à ancrer les anticipations des investisseurs, n’a fait que confirmer le maintien du taux entre 0 et 0,25 % aussi longtemps que le taux de chômage sera supérieur à 6,5 %, que l’inflation anticipée à l’horizon d’ 1 à 2 ans ne sera pas supérieure d’un demi-point à l’objectif d’inflation de long terme, fixé à 2 %, et que les anticipations d’inflation de long terme resteront stables. Selon nos prévisions d’octobre (voir Etats-Unis : la croissance plafonnée), le taux de chômage, de 7,2 % en septembre pourrait atteindre 6,9 % fin 2014. Enfin, l’inflation, à 1,5 % au troisième trimestre 2013, ne dépasserait pas 1,8 % en 2014. Dans ces conditions, aucune hausse n’est attendue avant le deuxième semestre 2015. La politique restera donc particulièrement accommodante.

Les incertitudes portaient davantage sur le retrait effectif des mesures non conventionnelles qui maintiennent les taux longs à des niveaux artificiellement bas. Annoncé en mai dernier, l’arrêt ou la réduction de ces mesures est attendu par les marchés, ces mesures n’ayant pas vocation à durer. Entre mai et septembre 2013, les investisseurs privés ou publics étrangers avaient anticipé le début du retrait et s’étaient défaussés d’une partie de leurs titres. Cet afflux de titres avait fait chuter les prix et entraîné une hausse d’un point des taux longs publics en quelques semaines. Mais la fragilité de la croissance, l’insuffisance des créations d’emploi et surtout l’exercice de communication dans lequel se sont lancées les Banques centrales pour rassurer les marchés financiers ont éloigné au fil des mois, la date d’application de ce retrait des achats. Les taux longs ont à nouveau baissé, et encore plus ces dernières semaines après la crise budgétaire d’octobre.

Si, rétrospectivement, il apparaît que l’anticipation d’un retrait des mesures non conventionnelles était prématurée, il n’en demeure pas moins que la question du timing se pose. Dans son communiqué, le Comité précise que la décision dépendra des perspectives économiques tout autant que de l’évaluation coût / bénéfice du programme. Or, le paysage économique ne devrait pas s’améliorer dans les prochains mois. Si le Congrès parvient à un accord budgétaire avant le 13 décembre, celui-ci se fera assurément sur la base de coupes dans les dépenses publiques. Ce nouveau choc budgétaire viendra freiner encore la croissance et pénaliser davantage le marché du travail. L’émission de nouveaux titres de dette, contrainte en 2013 par le plafond légal de la dette, progresserait alors très lentement en 2014 du fait des ajustements budgétaires. Face à cette modération de l’offre de titres, la Réserve fédérale pourrait réduire ses achats au profit des autres investisseurs. L’équilibre sur le marché des titres pourrait alors être maintenu sans baisse brutale du prix des actifs.

Cette normalisation des instruments de politique monétaire ne devrait pas tarder. Mais elle n’est pas sans risque car une brusque hausse des taux longs n’est pas exclue. Les marchés sont volatiles et l’épisode des mois de mai et juin l’a rappelé. Mais une grande partie du mouvement est déjà intégré par les marchés. La Réserve fédérale devra donc amplifier sa stratégie de communication (en annonçant à l’avance par exemple la date et l’ampleur du retrait) si elle veut réussir le difficile exercice d’équilibriste de maintien d’une politique monétaire très accommodante tout en levant progressivement ses mesures exceptionnelles de bas taux d’intérêt. On fait l’hypothèse que l’exercice sera réussi. Les taux longs publics de 2,7 % au troisième trimestre 2013, ne devraient pas dépasser 3,5 % à la fin de 2014.

________

*Ce texte s’appuie sur l’étude « Politique monétaire : est ce le début de la fin ? » à paraitre prochainement dans les perspectives 2013-2014 de l’OFCE pour l’économie mondiale.




Les énergéticiens voient rouge avec le vert

par Sarah Guillou et Evens Salies [1]

 

Le marché commun de l’énergie fait-il la part trop belle aux sources d’énergies renouvelables (SER) ? C’est ce que pensent les neuf énergéticiens auditionnés au Parlement européen en septembre dernier. Selon eux, atteindre 20% d’énergie d’origine renouvelable dans la consommation finale d’énergie de l’UE d’ici 2020 aurait des répercussions négatives sur le secteur de l’énergie électrique : détérioration des résultats financiers des énergéticiens et de la sécurité d’approvisionnement en électricité. On ne peut nier que depuis la fin des années 1990, la politique de l’UE en faveur des SER est très active dans ce secteur. Les instruments suggérés par la Commission européenne (CE) aux Etats membres pour atteindre l’objectif des 20% sont nombreux (voir la Directive 2009/28/CE) : tarifs d’achat garantis de l’électricité produite à partir de SER, crédit d’impôt, … Aussi, en 2011, l’ensemble de ces mesures a-t-il permis à l’UE-27 d’atteindre 22% d’électricité produite à partir de SER, hydroélectricité incluse (Eurelectric, 2012)[2].

En quoi cette politique porte-t-elle préjudice aux producteurs historiques et à la sécurité d’approvisionnement ? Rappelons quelques faits stylisés de la consommation et du pilotage de la production d’électricité. La consommation est en moyenne plus faible la nuit (période dite de « base ») qu’en journée où elle passe par un ou deux pics (périodes appelées « pointes »). L’électricité n’étant pas stockable, le moyen le moins coûteux de répondre au passage base-pointes est d’utiliser les centrales selon leur « ordre de mérite ». Un producteur faisant appel à plusieurs sources d’énergie les sollicite ainsi de la moins flexible (démarrage lent, coût marginal faible) à la plus flexible (démarrage rapide, coût marginal élevé). En théorie, l’empilement est/était le suivant : nucléaire-charbon pour la base, nucléaire-charbon-gaz en pointe[3]. C’est durant les pointes, où les prix de gros peuvent s’envoler, que les producteurs gagnent le plus d’argent. De son côté, la production des centrales à SER est contingente aux aléas météorologiques (« l’intermittence ») : ces centrales ne produisent que lorsque la ressource primaire associée (vent, soleil, etc.) est suffisante ; elles sont alors prioritaires pour satisfaire la consommation d’électricité.

L’intégration des SER dans le parc de production modifie l’ordre de mérite. L’empilement précédent devient éolien-nucléaire-charbon pour la base, éolien-nucléaire-charbon-gaz en pointe ; du vent est donc substitué à un peu d’uranium, de charbon et de gaz. Sachant que le coût marginal de production des centrales à SER est proche de zéro, leur intégration, pourtant minime dans le mix énergétique, fait baisser le prix moyen sur les marchés de gros. Par conséquent, avec l’intégration des SER, les centrales à énergies fossiles sont moins bien rémunérées. De leur côté, les centrales à SER bénéficient toujours d’un tarif d’achat garanti (en France, 8,2 c€/kWh pour l’éolien, entre 8 et 32 c€/kWh pour le photovoltaïque, …)[4]. Le manque à gagner est plus grand durant les périodes de pointe de consommation. Les producteurs sont moins incités à investir dans la construction de centrales à énergie fossile qui sont pourtant nécessaires pour produire durant ces périodes. D’où un risque pour la sécurité d’approvisionnement : avec un écart potentiellement réduit entre les capacités disponibles et la demande en pointe, le risque que l’écart réel entre la production et la consommation soit négatif est alors plus grand.

Une solution possible est la création d’un « marché de capacités ». Sur ce marché, la mise à disposition bien à l’avance de la capacité de production d’une centrale entraîne une rémunération, même s’il n’y pas de production effective. Ce type de marché intéresse les neuf énergéticiens, dans la mesure où ils sont dotés en centrales électriques à gaz et/ou sont vendeurs de gaz, qui sont celles sollicitées en période de pointe. En France, la loi de NOME de 2010 prévoit la mise en place d’un tel marché pour la fin 2015.

Notons par ailleurs qu’une part significative des centrales à énergie fossile n’étant pas en fin de vie physique, l’intégration des SER ajoute des capacités à un marché européen de l’énergie électrique déjà en état de surcapacité. Cette situation de surcapacité est aggravée par la crise économique qui touche la demande d’énergie. Elle concerne surtout les centrales à gaz déjà concurrencées par les centrales à charbon devenues plus rentables depuis l’importation du surplus de charbon américain, évincé par le gaz de schiste. L’excès d’offre contribue cependant à contenir les prix de l’électricité.

Au final, l’audition des neuf énergéticiens au Parlement européen révèle deux difficultés majeures de toute politique de transition énergétique. La première est le coût de l’ajustement au nouveau mix énergétique. Les énergéticiens, tels les neuf, se plaignent (à juste titre) que ce coût met en péril leur rentabilité et certains seront contraints de fermer des sites de production, voire de les démanteler, pour y faire face (Eon en Allemagne). Les consommateurs, de leur côté, financent entre autres l’obligation de rachat – en France, via la contribution au service public de l’électricité (700 millions d’euros en 2010). Le coût de l’ajustement est incontournable et même nécessaire à l’ajustement : c’est parce qu’elles ont à supporter un coût supplémentaire que ces entreprises modifieront leur portefeuille énergétique. La deuxième difficulté se résume en une question : comment concilier le soutien aux SER et la sécurité d’approvisionnement ? Si la politique énergétique participe bien d’une amélioration de la qualité de l’air, elle semble encore inefficace dans la gestion de la sécurité d’approvisionnement qui constitue tout autant un bien public.

La CE s’oriente vers des solutions de coopération. À l’instar du développement coordonné de l’interconnexion des réseaux nationaux mené par les gestionnaires des réseaux de transport, elle s’interroge sur la faisabilité d’un marché commun d’échanges de capacité de productions d’électricité. La CE souhaiterait également que les Etats membres se coordonnent pour la fixation des tarifs d’achat garantis. En effet, ces tarifs peuvent créer des effets d’aubaine, notamment pour les équipementiers (voir Guillou, S., 2013, Le crépuscule de l’industrie solaire, idole des gouvernements, Note de l’OFCE No. 32). Il reste à trouver des mécanismes qui entraîneraient une gestion coordonnée de la sécurité d’approvisionnement électrique de l’UE tout en faisant une place aux SER. L’audition des énergéticiens au Parlement européen devrait susciter une réflexion plus générale sur la sécurité d’approvisionnement dans l’UE, toutes sources d’énergie confondues.

 


[1] Nous remercions Dominique Finon, Céline Hiroux et Sandrine Selosse. Toute erreur est de notre seule responsabilité.

[2] Le chiffre des 20% couvre un nombre de secteurs plus grand que le secteur de l’énergie électrique.

[3] Ce principe était surtout valable avant la libéralisation des marchés de gros, où un producteur verticalement intégré décidait des centrales à démarrer pour répondre à une demande nationale.

[4] Les tarifs d’achat garantis ont été mis en place afin que les technologies de production de l’électricité à partir de SER qui n’étaient pas encore matures ne soient pas désavantagées.




France : moins d’austérité, plus de croissance

par Eric Heyer

Ce texte résume les perspectives 2013-2014 de l’OFCE pour l’économie française.

En 2013, l’économie française devrait croître de 0,2 % en moyenne annuelle, ce qui lui permettrait de retrouver en fin d’année son niveau de production atteint six ans plus tôt, soit celui de fin d’année 2007. Cette performance médiocre est très éloignée du chemin qu’aurait dû normalement emprunter une économie en sortie de crise.

Le potentiel de rebond de l’économie française était pourtant important : une croissance spontanée moyenne de près de 2,6 % l’an sur  la période 2010-2013 était possible et aurait permis à la France d’annuler la perte de production accumulée au cours des années 2008-2009. Mais cette « reprise » a été freinée, principalement par la mise en place de plans d’économies budgétaires en France et dans l’ensemble des pays européens. Pour la seule année 2013, cette stratégie budgétaire aura amputé l’activité en France de 2,4 points de PIB.

La prise de conscience de l’existence de multiplicateurs budgétaires élevés a été tardive : elle a eu lieu une fois que les plans d’austérité eurent produit leurs effets négatifs sur la croissance. A la fin mai 2013, elle a poussé les autorités européennes à offrir un délai supplémentaire à six pays de l’Union, dont la France, en vue de corriger leur déficit excessif. L’allègement des exigences de la Commission constitue un ballon d’oxygène et permet au gouvernement d’amoindrir les mesures d’austérité pour 2014. Selon le budget présenté à l’automne 2013, l’effet interne de l’austérité serait ainsi atténué de 0,5 point entre 2013 et 2014, et puisque nos partenaires mènent eux aussi des politiques moins restrictives, un supplément de demande externe est anticipé. Au total, c’est donc près d’un point de croissance qui serait regagné en 2014 par rapport à 2013, grâce à l’allègement de la rigueur et ce, malgré des multiplicateurs budgétaires toujours élevés.

Dans ces conditions, la croissance devrait être de 1,3 % en 2014 en moyenne annuelle. En s’établissant à un rythme toujours inférieur à son potentiel, la croissance attendue accentuera le retard de production accumulé depuis 2008 et continuera à dégrader le marché du travail. Le taux de chômage en France métropolitaine augmenterait légèrement pour s’établir à 10,9 % fin 2014.

La contrepartie à l’allègement de la rigueur est un déficit public plus élevé que ce qui avait été initialement programmé. Le déficit public s’établirait à 3,5 % du PIB en 2014, après avoir atteint 4,1 % en 2013 et la dette brute des administrations publiques frôlerait 95 % du PIB l’année prochaine.




La zone euro écartelée

par Céline Antonin, Christophe Blot, Sabine Le Bayon et Danielle Schweisguth

Ce texte résume les perspectives 2013-2014 de l’OFCE pour l’économie de la zone euro.

Après six trimestres de baisse, le PIB de la zone euro a renoué avec la croissance au deuxième trimestre 2013. Ce redémarrage de l’activité est un signal positif que corroborent également les enquêtes de conjoncture. Il montre que la zone euro a cessé de s’enfoncer dans les profondeurs de la dépression. Il serait cependant prématuré de conclure que la reprise est enclenchée, car ce niveau de croissance trimestriel (0,3 %) est insuffisant pour entraîner une décrue significative du chômage. En octobre 2013, le taux de chômage se stabilise à un niveau record de 12 % de la population active. Surtout, la crise laisse des stigmates et crée de nouveaux déséquilibres (chômage, précarité et déflation salariale) qui seront autant de freins à la croissance à venir, en particulier dans certains pays de la zone euro.

Plusieurs facteurs permettent d’anticiper un redémarrage de l’activité qui devrait perdurer au cours des prochains trimestres. Les taux d’intérêt souverains de long terme ont baissé, notamment en Espagne et en Italie. Cela témoigne de l’éloignement de la menace d’un éclatement de la zone euro et ce, en partie grâce au soutien conditionnel annoncé par la BCE il y a un peu plus d’un an (voir Amis des acronymes : voici l’OMT). Surtout, l’austérité budgétaire devrait s’atténuer parce que la Commission européenne a accordé des délais supplémentaires à plusieurs pays, dont la France, l’Espagne ou les Pays-Bas, pour résorber leur déficit budgétaire (voir ici pour un résumé des recommandations formulées par la Commission européenne). Par les mêmes mécanismes que nous avions décrits dans nos précédentes prévisions, il résulte de cette moindre austérité (-0,4 point de PIB d’effort budgétaire en 2013 contre -0,9 en 2013  et -1,8 en 2012) un peu plus de croissance. Après deux années de récession en 2012 et 2013, la croissance s’établirait à 1,1 % en 2014.

Cependant, cette croissance sera insuffisante pour effacer les traces laissées par l’austérité généralisée mise en œuvre depuis 2011 et qui a précipité la zone euro dans une nouvelle récession. En particulier, les perspectives d’emploi ne s’améliorent que très lentement car la croissance est trop faible. Depuis 2008, la zone euro a détruit 5,5 millions d’emplois et nous n’anticipons pas une franche reprise des créations nettes d’emploi. Le chômage pourrait diminuer dans certains pays mais cette baisse s’expliquera principalement par des retraits d’activité de chômeurs découragés. Dans le même temps, la réduction de l’austérité ne signifie pas qu’il n’y aura plus d’austérité. A l’exception de l’Allemagne, les efforts de consolidation budgétaire se poursuivent dans tous les pays de la zone euro. Qu’elle passe par la réduction des dépenses publiques ou par une hausse de la pression fiscale, les ménages supporteront l’essentiel du fardeau de l’ajustement. Dans le même temps, la persistance d’un chômage de masse continuera à alimenter les pressions déflationnistes déjà à l’œuvre en Espagne ou en Grèce. Dans ces pays, l’amélioration de la compétitivité qui en résulte stimulera les exportations, mais au prix d’une demande interne de plus en plus affaiblie. La paupérisation des pays du sud de l’Europe va donc s’accentuer. En 2014, la croissance dans ces pays sera de nouveau inférieure à celle de l’Allemagne, l’Autriche, de la Finlande ou de la France (tableau).

Par conséquent, la zone euro deviendra de plus en plus hétérogène, ce qui pourrait cristalliser les opinions publiques des différents pays contre le projet européen et rendra la gouvernance de l’union monétaire encore plus difficile tant que les intérêts nationaux divergeront.

Tab_Post-17-02




La crise sur un plateau

par Xavier Timbeau

Ce texte résume les perspectives 2013-2014 de l’OFCE pour l’économie mondiale.

Six années après le début de la crise financière et économique, l’accélération attendue de la croissance mondiale en 2014 (tableau 1) aurait pu laisser espérer la fin du marasme. Certes, la crise des dettes souveraines en zone euro est terminée, ce qui constitue une étape importante, mais, au-delà de quelques chiffres positifs, rien n’indique que la crise est finie. L’activité en zone euro a atteint un plateau et les mécanismes à l’origine de la crise des dettes souveraines dans la zone – la crainte du défaut sur les dettes publiques ou privées – peuvent faire replonger à tout instant les économies, des États-Unis comme de l’Europe, du Royaume-Uni comme celle du Japon.

tab1prev_blog2210

 

La crise est globale et présente des caractéristiques peu ou jamais observées dans le passé. Ainsi, les taux d’intérêt souverains sont exceptionnellement bas, sauf dans les pays dont les marchés financiers doutent, mais dont le poids dans la masse globale de dette publique est faible. Cela indique une situation de trappe à liquidité où la politique monétaire conventionnelle a atteint ses limites et où la capacité des institutions monétaires à énoncer un avenir auto-réalisateur est cruciale. Or, comme pendant la crise de 1929, le débat fait rage sur cette capacité et suscite beaucoup d’interrogations quant à la sortie de crise. La politique monétaire est au cœur de cette incertitude : les mesures extraordinaires mises en place retiennent-elles les économies au bord du gouffre ? Les retirer est-il opportun ? Ou bien n’a-t-on fait qu’improviser un pis-aller dont les conséquences inflationnistes seront la source d’une prochaine crise ?

L’activité économique, mesurée par le PIB de l’ensemble de la zone euro, ne se contracte plus. Pour autant, la situation de sous-activité ne se résorbe pas. Or, tant que les économies restent en situation de sous-activité, les effets de la crise persistent et se diffusent au cœur des sociétés. Que l’on observe le PIB par tête, les écarts de production ou le chômage, les indicateurs nous décrivent un plateau, largement en deçà de 2007. Ainsi, la persistance du chômage au-dessus de son niveau d’équilibre gonfle-t-elle les cohortes de chômeurs non-indemnisés ou de longue durée. Le niveau élevé du chômage pèse sur la cohésion sociale et menace les sociétés bâties sur l’intégration par le travail. Les chômeurs sont renvoyés vers les solidarités familiales ou vers les filets de protection sociale, eux-mêmes soumis à la consolidation budgétaire. Les jeunes entrant sur le marché du travail retardent leur accès à l’emploi et porteront longtemps les stigmates de ce chômage initial sur leurs salaires ou leurs carrières.

Mais le chômage a une incidence plus large. La peur de perdre son emploi, de voir son entreprise fermée ou délocalisée se diffuse à ceux qui ont un emploi et dont les salaires finissent par être affectés ou qui sont contraints d’accepter des conditions de travail dégradées. C’est ainsi que l’Europe du Sud s’engage dans la déflation salariale et, par le jeu de la concurrence, y entraînera les pays voisins.

Cette absence de reprise ne doit pas surprendre. Un programme généralisé et massif de consolidation budgétaire a été conduit dans les pays développés. Le cumul des impulsions de 2008 à 2013 permet de faire le bilan de la stimulation des économies pendant la récession de 2008/09 puis de la consolidation qui a suivi (tableau 2).

tab2prev_blog2210

 

Le débat sur les multiplicateurs budgétaires, à partir des analyses empiriques basées sur des modélisations structurelles ou l’examen systématique des épisodes historiques, valide la causalité allant des impulsions budgétaires vers les écarts de production. Une grande part de l’écart de production en 2013 résulte de la consolidation budgétaire. Il n’y a pas d’effet permanent de la crise sur l’activité, mais la conséquence d’une austérité budgétaire sans précédent.

Les pays développés se sont engagés dans cet effort de consolidation sous la pression des marchés financiers, relayée par les autorités européennes. La crainte de difficultés pour financer la dette publique (dont le renouvellement se fait dans des proportions importantes chaque année et dont la maturité  est de l’ordre de 10 ans dans les pays développés), voire la crainte de perte de l’accès au financement, s’est matérialisée par une hausse des taux souverains et n’a pas laissé beaucoup de possibilités aux États. Pour regagner du crédit, il fallait prouver sa capacité à réduire son déficit, quel qu’en soit le prix. La consolidation qui en a résulté n’a été faite que de façon préventive. Les exemples grec, mais aussi portugais, espagnol ou italien illustreraient le risque à ne pas avoir des finances publiques ordonnées. Pour certains, dont les économistes de la Commission européenne, c’est en fait la consolidation massive engagée dans les pays membres qui a permis de mettre fin à la crise de la zone euro. Il existe pourtant une explication alternative et lourde de sens quant à l’opportunité de la consolidation budgétaire : le rôle pris par la Banque centrale européenne et les engagements solidaires implicites des pays de la zone euro ont été plus convaincants que les politiques économiques qui ont prolongé et aggravé la récession.

Le désendettement public et privé des économies est la clef de la sortie de la crise. Il nécessite une stratégie claire et raisonnable combinant retour de l’activité et réduction du chômage, maintien des taux d’intérêt souverains à un niveau bas et consolidation budgétaire à un rythme bien tempéré. Cette stratégie demande une maîtrise du calendrier, une constance dans la politique suivie, une coordination entre États et entre agents économiques au sein des États. En zone euro, elle repose sur un engagement crédible des Etats membres vers l’assainissement budgétaire à moyen terme et un engagement de la Banque centrale européenne pour que les écarts de taux soient réduits au maximum. La discipline budgétaire par les marchés ne fonctionne pas, il faut lui opposer la volonté politique de la stabilité économique.




La zone euro est-elle sortie de récession ?

Par Philippe Weil

Le Euro Area Business Cycle Dating Committee du Centre for Economic Policy Research (CEPR) de Londres s’est penché le 9 octobre dernier à l’OFCE sur cette épineuse question (voir ici la composition de ce comité que je préside). La mission du comité est d’établir une chronologie des récessions et expansions dans la zone euro, inspirée de celle, remontant à 1854, que le National Bureau of EconomicResearch a fixé pour les Etats-Unis.

Une telle chronologie présente deux intérêts.

Le premier intérêt est qu’elle permet aux économistes de s’interroger sur les caractéristiques de la conjoncture européenne. Les récessions sont-elles de durée courte ou longue ? Fréquentes ou rares ? Profondes ou légères ? La zone euro évolue-t-elle de concert avec l’économie américaine ? Le ralentissement de l’activité économique dû à la crise financière est-il inhabituel (plus persistant que d’ordinaire, plus marqué) ? Sans une définition précise du calendrier des hauts et des bas de l’activité économique et sans un portrait-robot des fluctuations conjoncturelles, on ne peut apporter de réponse à ces questions pourtant élémentaires.

Le second intérêt de cette chronologie est que son établissement exige de se pencher sur toutes les composantes de l’activité économique : le PIB, bien sûr, mais aussi la consommation, l’investissement et surtout l’emploi (nombre de personnes en emploi, nombre d’heures travaillées). Selon l’exercice de datation du CEPR, une expansion est en effet une période où l’activité économique, dans toutes ses facettes, croît de façon significative. Ce n’est donc pas nécessairement un épisode d’au moins deux trimestres consécutifs (et encore moins d’un seul trimestre !) d’augmentation du PIB. Par exemple, le comité de datation du CEPR a identifié comme une récession de la future zone euro la période courant du premier trimestre de 1980 au troisième trimestre de 1982 alors que le PIB réel avait crû durant plusieurs trimestres pendant cette période et qu’il était plus élevé à la fin de la récession qu’au début ! Les coupables en étaient l’investissement et l’emploi qui avaient fortement décliné pendant cette période.

Pour rajouter à la complexité de l’exercice de datation, il faut se rappeler qu’il doit composer avec une dure réalité : les statistiques économiques nous parviennent avec retard et sont ensuite révisées, parfois significativement, au cours du temps. Contrairement aux météorologistes qui connaissent la température au sommet de la Tour Eiffel en temps réel, les économistes n’ont en effet aucune idée, par exemple, du niveau du PIB du mois ou du trimestre courant. Les premières estimations ne sont publiées qu’après plusieurs mois (par exemple, le premier flash estimate du PIB de la zone euro pour le troisième trimestre de 2013 ne sera publié par Eurostat que le 14 novembre 2013) et il arrive que des taux de croissance qui semblent positifs d’après les premières estimations se révèlent, après révisions ultérieures, négatifs – ou vice-versa. En se penchant sur tous les déterminants de l’activité économique (notamment l’emploi), et pas seulement sur le PIB, le comité pare (jusqu’à présent avec succès) à cette imperfection des données et évite de déclarer l’existence, par exemple, d’une récession qui ne serait qu’un mirage statistique effacé après révision ultérieure des données. Ainsi, le comité n’avait pas déclaré en septembre 2003 l’existence d’une récession entre 2001 et 2003 alors que les données montraient à l’époque une baisse du PIB (mais jamais, il est vrai, pendant deux trimestres consécutifs). Il avait conclu à l’existence d’une pause prolongée dans un épisode d’expansion. Bien lui en a pris, car les révisions ultérieures du PIB ont effacé ces trimestres de déclin de l’activité économique (voir graphique 1). Son diagnostic était donc avisé.

graph1_2210PWblog

Revenons à la zone euro telle que nous l’observons en octobre 2013. Elle a connu un pic d’activité au troisième trimestre 2011 et, depuis son entrée en récession à cette date, elle a connu une croissance trimestrielle faiblement positive au deuxième trimestre de 2013. La première estimation du troisième trimestre 2013 ne sera connue, comme je l’ai indiqué plus haut, que le 14 novembre prochain. Certes, plusieurs indices concordants indiquent que l’activité sera orientée à la hausse et que les perspectives macroéconomiques pour 2014 sont plus favorables. Mais le comité de datation a néanmoins observé le 9 octobre dernier qu’il était prématuré, à la date où il s’est réuni, de conclure que la zone euro était sortie de récession. En effet, ni la durée ni l’ampleur de la reprise putative de l’activité économique ne sont suffisantes pour conclure d’ores et déjà à la fin de la récession. Ce jugement n’est pas basé sur l’absence, pour l’instant, de deux trimestres consécutifs de croissance du PIB car tel n’est pas le critère, mécanique, qui guide la réflexion du comité. Il ne reflète pas non plus un pessimisme quelconque sur les perspectives économiques pour 2014 car le comité ne fait pas de prévision. L’évaluation du comité repose simplement sur l’examen de l’ensemble des données disponibles le jour de sa réunion. Le comité n’exclut pas que la zone euro ne connaisse qu’une pause dans la récession commencée il y a un an.

 graph2_2210PWblog




Taxis vs VTC : la victoire du lobby contre l’innovation ?

par Guillaume Allègre *

L’affaire est entendue : en imposant aux voitures de tourismes avec chauffeur (VTC) un délai de 15 minutes entre la réservation et la prise en charge du client, le lobby des taxis aurait gagné une bataille contre l’innovation[1], réussissant ainsi à préserver une rente. C’est peut-être Nicolas Colin, inspecteur des finances et co-rédacteur d’un rapport sur la fiscalité de l’économie numérique, qui présente l’argument de la victoire du lobbying contre l’innovation de la façon la plus convaincante et divertissante (« Les fossoyeurs de l’innovation »).

Pour rappel, depuis quelques années, des start-up (Voitures jaunes, Uber, SnapCar, LeCab…) proposent des services de voitures avec chauffeur, réservables sur smartphone après téléchargement d’une application. Le service rendu semble apprécié par les clients de VTC : le prix est connu à l’avance, la voiture attend sans surcharge, on peut suivre la voiture commandée sur son écran, la course est prépayée. Face à ces nouveaux entrants, les taxis dénoncent une concurrence déloyale. En effet, non seulement la profession est très réglementée[2] mais ils doivent aussi payer une licence (230 000 euros à Paris, 400 000 euros à Nice en 2012) pour avoir le droit de stationner dans la rue et prendre des clients à la volée, seuls avantages qu’ils ont par rapport aux VTC depuis la déréglementation des VTC en 2009[3]. Or, à l’heure où la plupart des clients potentiels de services de taxis sont équipés de smartphone qui permettent la géolocalisation, on peut redouter que la valeur de ce droit supplémentaire (prendre les clients dans la rue qui lèvent le bras, plutôt que de se géolocaliser) s’effondre. Selon les sociétés de taxis, les VTC contournent ainsi l’esprit de la loi en pratiquant la réservation immédiate.

Il n’est pas inutile de rappeler à ce stade que le débat sur la réglementation des taxis ne date ni d’hier ni du rapport Attali pour la libération de la croissance. A Paris, les historiens font remonter les premiers services de « voitures de louage avec cocher » à 1612 (sur cette partie historique, voir « Régulation des taxis, a tale of two cities »). La première régulation date de 1657 lorsque Louis XIV accorde un monopole au Sieur de Givry. A Londres, la première réglementation date de 1635 et répond à la demande des bateliers qui dénonçaient une concurrence déloyale alors qu’ils avaient jusque-là un monopole de fait sur le transport de passagers entre la City et Westminster : le roi impose alors aux carrosses des courses de plus de trois miles (la distance entre la City et Westminster est de 2,3 miles). Depuis le milieu du XVIIème siècle, l’histoire des taxis à Paris et à Londres oscille entre réglementation et dérégulation, monopoles accordés et inventions de nouveaux services pour contourner ces monopoles : en 1664, Piquet de Sautour reçoit le monopole des calèches à un cheval ; en 1665, le Marquis de Crenan celui des « Chaises à la Crenan », véhicules légers à deux roues (Margairaz, cité par Darbéra). Disons qu’Uber et SnapCar ressemblent étrangement à ces chaises à la Crenan et autres calèches à un cheval.

Le meilleur rapport qualité/prix des VTC est-il dû à des gains de productivité liés à l’innovation ou au fait qu’ils n’ont pas à payer des licences de 230 000 euros (à Paris) ? Evidemment, on a toutes les raisons de penser qu’économiser 230 000 euros procure un net avantage économique. En revanche, les arguments en faveur de l’innovation sont assez faibles : les nouvelles technologies permettent la localisation des taxis, mais c’est également le cas des centrales radios, créées à Paris en 1964 par G7 et les compagnies de taxis n’ont pas attendu la concurrence des VTC pour utiliser les techniques de localisation en temps réel (La CNIL a été saisie de la question de la géolocalisation des employés par les sociétés de taxis dès 2004). Certaines compagnies de taxis proposent d’ailleurs le même service de commande d’un taxi en temps réel à l’aide d’une application pour smartphone. Enfin à Paris, les « innovations » dans les services de transports de passager incluent le retour de la propulsion humaine, ce qui relativise également leur caractère réellement innovant. Si les gains de productivité étaient réellement dus à l’innovation, les nouveaux entrants pourraient acheter les licences et remplacer les anciennes sociétés de taxis. Ils ne le feront pas parce que ni eux ni les centrales-radio ne veulent prendre le risque que les licences ne perdent leur valeur. Ils préfèrent que les artisans portent ce risque : il n’y a aujourd’hui que 37% de locataires ou salariés parmi les chauffeurs de taxis parisiens et on peut penser qu’une grande partie des détenteurs de ces licences les ont reçues gratuitement. D’un point de vue politique, cette structure est rationnelle : un gouvernement spoliera moins facilement un artisan-taxi qu’un actionnaire d’une société de taxi, à la fois pour des raisons de justice sociale et de pouvoir de nuisance.

Le discours sur l’innovation et la croissance sert ici de leurre pour masquer un classique conflit entre producteurs, qui veulent défendre leurs revenus, et consommateurs, qui veulent un service de  taxi peu coûteux et disponible rapidement, y compris en heures de pointe. Ce conflit se double d’un non moins classique conflit entre détenteurs d’une licence ayant une valeur de rareté et nouveaux entrants, défenseurs de l’ouverture du marché. Dans ce paysage, l’alliance entre nouveaux entrants et consommateurs, qui ont aussi intérêt à l’ouverture du marché, paraît naturelle. Pour les détenteurs de licence, l’enjeu de ce conflit est d’autant plus important que le prix auquel la licence s’échange est élevé.

Ceci dit, la régulation actuelle pose problème. La limitation du nombre de licences de taxis a pour objectif de soutenir le revenu des taxis indépendants et d’éviter qu’ils travaillent trop d’heures par jour pour atteindre un revenu décent[4]. La régulation peut également se justifier  pour des motifs de qualité minimale et de sécurité. C’est le Front Populaire, suite à la crise économique et à l’afflux de chômeurs dans le secteur, qui a réintroduit le contingentement de licences (le secteur était ouvert depuis 1865). Dans ces conditions, il est particulièrement absurde d’avoir permis que ces licences soient cessibles[5] et d’avoir laissé leur prix augmenter en ne délivrant pas de licences supplémentaires entre 1990 et 2002 (alors que, par exemple, dans le même temps, le nombre de passagers dans les aéroports de Paris a augmenté de 49%[6]). Permettre la cession des licences, c’est transférer l’avantage lié au contingentement des licences de taxis des chauffeurs de taxis aux propriétaires des licences, au détriment des nouveaux acquéreurs. En effet, pour le nouvel entrant dans la profession, l’avantage du contingentement est nul puisqu’il doit payer cet avantage au prix du marché. La régulation actuelle est d’autant plus aberrante que les nouvelles licences sont cédées gratuitement (sur liste d’attente) : si le préfet attribue gratuitement 1 000 nouvelles licences, c’est 230 millions d’euros au prix du marché qui seront transférés aux heureux gagnants.

Si la régulation actuelle est absurde, il serait injuste de spolier ceux qui viennent de dépenser une fortune pour acquérir une licence, par exemple en augmentant massivement le nombre de licences.

Une première solution consiste à racheter en une fois les licences cessibles au prix du marché et à attribuer de nouvelles licences non cessibles. Le coût d’une telle mesure serait colossal : il y a environ 17 500 licences à Paris, ce qui représenterait un coût total de 4 milliards d’euros.

Une autre proposition, avancée notamment par Trannoy, est censée augmenter le nombre de licences sans ruiner les acquéreurs récents. La préfecture attribuerait une licence à chaque détenteur actuel de licence, ce qui doublerait le nombre de licences en circulation ; la valeur des licences serait divisée par deux mais sans léser les propriétaires de licences qui conserveraient une et vendrait la deuxième. En première approximation, le patrimoine des chauffeurs de taxi resterait inchangé. Trannoy envisage même que les détenteurs de licence soient gagnants car le chiffre d’affaires global devrait augmenter. Cette solution a également l’avantage de ne rien coûter aux pouvoirs publics. Bref, elle ne ferait que des heureux et l’intérêt des taxis ne s’opposerait pas à celui des consommateurs. Il y a en fait une erreur de raisonnement dans la proposition de Trannoy : il suppose que la valeur de la licence est proportionnelle au chiffre d’affaires des taxis. A chiffre d’affaires global inchangé, un doublement des licences signifierait une division par deux du prix des licences. Ceci est faux : si on multiplie par dix le nombre de licences, elles ne vaudront plus rien et pas dix fois moins. La valeur de la licence est en fait proportionnelle au profit (qui provient du contingentement des taxis), ce qui fait une grande différence dans un secteur où le coût fixe est élevé et le coût marginal faible (rouler à vide ne coûte pas moins cher que rouler à plein)[7]. Bacache-Beauvallet et al. (2008) estiment par exemple à 35 000 euros le coût fixe de l’activité de taxi (salaire compris) et à 42%, l’augmentation du nombre de licences à Paris qui annulerait la valeur des licences[8]. Cette évaluation n’est pas aberrante : la valeur des licences en 1995, pendant la période de gel des attributions était beaucoup plus faible (60 000 euros[9]).

Que faire ?

Le problème ne se limite pas à la question du nombre de licences : au cours de la journée, il y a inadéquation entre offre et demande du fait d’une demande beaucoup plus importante en heures de pointe qui se conjugue, à Paris, avec un engorgement important, qui réduit la vitesse des taxis ou les bloque aux aéroports. La régulation doit également se préoccuper d’une meilleure adéquation entre offre et demande au cours de la semaine, en modulant encore plus la tarification selon l’heure et en incitant au développement du doublage de licence comme l’explique par exemple ce rapport (pdf).

Concernant les licences, la très forte augmentation de leur valeur traduit probablement une offre trop faible par rapport à la demande. L’objectif serait alors d’augmenter l’offre sans spolier les nouveaux acquéreurs. De plus, il serait préférable de sortir d’un système où l’on doit se préoccuper continuellement de la valeur patrimoniale des licences attribuées gratuitement. Une solution consiste à  racheter les licences actuelles au fil de l’eau, non à leur valeur de marché mais à leur valeur d’acquisition majorée d’intérêts[10]. De nouvelles licences non cessibles seraient attribuées gratuitement. Leur nombre permettrait de maintenir le revenu net des nouveaux acquéreurs[11], en tenant compte d’un prélèvement sur le chiffre d’affaires (taxis plus VTC) qui financerait un fond de rachat des anciennes licences[12]. Ce système permet d’indemniser les acquéreurs récents, sans contribuer à l’enrichissement de ceux qui ont obtenu antérieurement une licence gratuitement ou à un prix très faible. Il permet la transition d’un système de licences cessibles à un système de licences non cessibles dans lequel le nombre de licences en circulation et la répartition du marché entre VTC et taxis dépend de la demande de services et non du pouvoir de nuisance des uns et des autres. Il est complexe mais il permet de détricoter les erreurs du passé de façon la plus équitable.

Il est toutefois peu probable qu’une telle solution soit mise en place. Par rapport au statu quo, elle fait de gros perdants dans l’immédiat : les détenteurs de licence qui espèrent réaliser une plus-value importante, notamment les chauffeurs les plus proches de la retraite. Les nouveaux acquéreurs de licence seraient probablement solidaires en espérant pour eux-mêmes une telle solidarité qui permettrait de maintenir le système actuel. Le risque pour eux est que le nombre de licences augmente au fil de l’eau et/ou que les VTC capturent une part croissante du marché malgré les contraintes qui leur sont imposées. Dans ce cas, la valeur réelle de leur licence pourrait diminuer petit à petit : les acquéreurs récents seraient perdants mais la perte ne serait actée que lorsqu’ils prendront leur retraite, dans 20 ou 30 ans. On peut toutefois penser que cette évolution ne se passera pas sans heurts.  
———–

* L’auteur n’a reçu aucun financement, ni des compagnies de taxis, ni des compagnies de VTC.

[1] L’argument de l’innovation est abondamment repris par les VTC sur le mode « chandelles et ampoules électriques » : voir par exemple « #PourNePasFaireDeConcurrence ».

[2] Le chauffeur de taxi doit notamment être titulaire d’une carte professionnelle, le taximètre est obligatoire et  les tarifs maximaux sont fixés par arrêté préfectoral.

[3] Avant 2009, l’activité de « grande remise », dont la spécialité est la mise à disposition de voitures haut de gamme avec chauffeur, uniquement sur commande et pour une destination définie, était soumise à une licence spéciale délivrée par le préfet, le représentant de l’entreprise devant également être titulaire d’un certificat d’aptitude à la profession d’entrepreneur de remise et de tourisme. La loi du 22 juillet 2009 a supprimé l’obligation de posséder une licence, ce qui a permis le développement des VTC.

[4] Du fait de coûts marginaux faibles et de coûts fixes élevés, le profit est négatif à l’équilibre concurrentiel en l’absence de régulation (« Valeur de licence et régulation du marché des taxis »). En pratique, cela signifie qu’en l’absence de régulation la rémunération des chauffeurs de taxi indépendants risque d’être inférieure au SMIC.

[5] Les licences peuvent officiellement être revendues depuis 1973.

[6] « Propositions de réforme de la profession de taxi » (Page 16)

[7] Prenons l’exemple extrême d’une activité où le coût marginal est nul et le coût fixe représente 2/3 du chiffre d’affaires : disons que le coût fixe est égal à 100 000 euros, le chiffre d’affaires de 150 000 euros, le profit est donc de 50 000 euros. Pour le propriétaire, la valeur de cette activité correspond aux profits futurs actualisés : elle est proportionnelle au profit. Si le chiffre d’affaires est réduit d’un tiers à 100 000 euros, le profit est annulé de même que la valeur de la propriété.

[8] Les auteurs utilisent un modèle théorique calibré. En réalité, le prix réel de la licence ne tomberait pas à zéro, notamment parce que les acteurs sur le marché pourraient anticiper la construction d’une nouvelle rente de rareté.

[9] Darbéra. A Dublin, la valeur de la licence de taxis est passée de 3 500 IEP en 1980 à 90 000 IEP en 2000, période de restriction de l’accès au marché (OCDE).

[10] Cette solution nécessite d’interdire la cession de ces licences sur le marché, ce qui était déjà le cas avant 1973.

[11] Généralement, les locataires et salariés.

[12] La valeur des licences a fortement augmenté dans les années 90 puis entre 2003 et aujourd’hui. Elle valait 60 000 € en 1995 (Darbéra), 90 000 € en 1999, 105 000 € en 2003 et 180 000 € en 2007 (voir annexe 9). Le prix de rachat des licences peut être estimé à 3 milliards d’euros (en tenant compte de l’évolution du prix de la licence de taxi entre 1993 et 2013, d’un taux d’intérêt nominal de 4% et d’un taux de rotation de 5%) : sur une période de 20 ans, il faudrait pouvoir dégager l’équivalent de 150 millions annuels (en euros 2013).




Les hausses d’impôts, une solution à la crise ?

par Mario Amendola, Jean-Luc Gaffard, Fabrizio Patriarca

Cette question, qui peut apparaître provocatrice, mérite d’être posée à la condition de prendre conscience des dimensions réelles et pas seulement financières de la crise et de formuler les hypothèses qui rendraient le scénario crédible. Dans la perspective tracée ici, si les hausses d’impôt doivent jouer un rôle, ce n’est pas dans le cadre d’un ajustement budgétaire susceptible de rétablir des comptes publics dégradés par la crise, mais avec l’objectif de maintenir ou de rétablir un niveau de dépenses productives altéré du fait de l’accroissement des inégalités. Aussi tout dépendra-t-il de la nature des impôts comme de celle des dépenses publiques.

Chacun convient, aujourd’hui, que le creusement des inégalités, singulièrement aux Etats-Unis, a eu une influence sur le déroulement des événements. L’endettement des ménages les moins aisés n’a fait que retarder la chute de la demande agrégée. La prise de conscience de l’insolvabilité de ces mêmes ménages a constitué le facteur de déclenchement de la crise. Aussi n’y a t-il pas de solution à moyen et long terme sans un désendettement des ménages et des entreprises. Le rôle des pouvoirs publics est d’y aider. Mais ils ne peuvent l’exercer qu’en prenant des décisions qui aboutissent à un endettement public accru. L’endettement public se substitue, alors, à l’endettement privé. Le déficit public financé par la dette doit, en outre, être prolongé tant que ménages et entreprises n’ont pas pu rétablir leurs bilans, ce qui leur permettrait d’envisager de consommer et d’investir plus. Ce scénario se heurte, toutefois, à l’insolvabilité potentielle des Etats qui prend une dimension particulière au sein de la zone euro. Il n’explique pas réellement ce que sont les ressorts d’un rebond de la consommation et de l’investissement faute de se rapporter aux implications du creusement des inégalités sur le partage de la demande entre activités productives et improductives.

Reconnaître le poids des inégalités c’est, certes, reconnaître qu’il y a un problème de demande, mais c’est surtout reconnaître l’hétérogénéité des consommateurs et le caractère non homothétique des préférences individuelles. Le creusement des inégalités modifie, avant tout, la structure de la demande. Certains diront au détriment des biens consommés prioritairement par la masse des salariés et au bénéfice des biens de luxe. D’autres diront au détriment des actifs productifs et au bénéfice des actifs financiers ou immobiliers existants.

Le mécanisme possiblement à l’œuvre est le suivant. Les ménages les plus riches ont un excès d’épargne qu’ils vont consacrer, d’une part, à l’achat de biens de luxe ou d’actifs sur les marchés financiers et immobiliers, d’autre part, à des prêts aux ménages moins aisés par le canal des intermédiaires financiers. Le creusement des inégalités a ainsi deux effets conjoints : faire monter le prix des actifs achetés par les plus aisés et faire monter le taux d’endettement des moins aisés. Le premier effet soutient le second en permettant aux prêts consentis de s’appuyer sur la valeur en hausse des actifs gagés (les « collatéraux »).

Sous l’hypothèse que la dépense publique est une dépense productive – elle alimenterait la demande de biens et services du secteur productif –, une dette publique accrue vient soutenir la demande globale et enrayer la récession. Toutefois, à moyen terme, la charge en intérêts peut rendre la dette publique difficilement soutenable avec, à la clé, la nécessité de réduire la dépense publique avant que la reprise de la dépense privée ne devienne significative. La substitution de la dette publique à la dette privée déplace le problème sans le résoudre.

Une alternative possible réside dans la taxation des revenus des ménages les plus aisés. Toujours sous l’hypothèse que la dépense publique s’adresse au secteur productif, cette taxation assure une redistribution des revenus qui a pour corollaire une reconfiguration de la structure de la demande au bénéfice des activités productives. Encore faut-il faire une autre hypothèse, celle que les impôts supplémentaires sont effectivement versés par les ménages qui affectent une fraction significative de leur épargne à des achats d’actifs improductifs. Dans un tel contexte, l’objectif n’est pas d’augmenter les impôts pour résorber le déficit public dans l’espoir que le retournement de conjoncture permettra de les diminuer plus tard, mais de tirer mieux partie de l’impôt comme outil de redistribution. Si augmentation de la pression fiscale il y a c’est bien pour ponctionner des revenus qui, pour une large part, sont des rentes dédiées à des consommations improductives.

La nature des dépenses et recettes publiques rend les hypothèses formulées fragiles. Des dépenses publiques sont improductives et il est difficile de distinguer celles qui le sont de celles qui ne le sont pas. Les hausses d’impôt touchent différentes catégories de contribuables sans véritablement discriminer entre elles suivant la structure de leurs dépenses.

Aussi notre propos n’est-il pas d’énoncer une solution d’application crédible et immédiate. Il est de souligner l’illusion de solutions globales, qu’il s’agisse d’une austérité généralisée, passant notamment par des hausses d’impôts, qui finit par peser sur la dépense des ménages et des entreprises ou de l’entretien prolongé d’une dette publique, qui ne fait que se substituer à la dette privée sans effet sur la structure de la demande. Il est, au terme d’un détour analytique, de conduire à la conclusion que la mise en œuvre effective d’un mécanisme de redistribution susceptible de permettre une hausse du produit potentiel suppose une réforme de l’Etat qui touche à la fois à l’orientation des dépenses publiques et à la structure de la fiscalité, toutes choses qui demandent du temps et de la clairvoyance sinon du courage politique.

… Lire Amendola, M., Gaffard, J.-L., Patriarca, F., 2013, Inequality, debt and taxation: the perverse relation between the productive and the non-productive assets of the economy, OFCE Working paper No. 2013-21.




Le déclin de l’Empire américain

par Christine Rifflart

Après deux semaines de shut down, et au bord de la cessation de paiement si aucun accord durable n’est trouvé avant la fin octobre, l’administration américaine est confrontée à une combinaison de crises sans précédent. Les coupes brutales sur les dépenses non votées dans le budget 2014 dont l’exercice fiscal a commencé le 1er octobre vont porter un coup fatal à la croissance du quatrième trimestre. La menace d’un défaut de paiement agite les marchés financiers, inquiète à juste titre les détenteurs de bons du Trésor et autres titres publics et fait planer le doute d’une nouvelle crise financière qui serait autrement plus grave pour l’économie mondiale que la crise de 2008. Enfin, le pays est en train de sombrer dans une crise institutionnelle sans précédent dont on a du mal à imaginer une issue positive. Car la proposition faite vendredi par les républicains (voir article du Financial Times du 11 octobre) de relever le plafond de dette pendant une période de six semaines pour désamorcer la crise autour du défaut aura fait long feu, puisque dès samedi elle était rejetée par le Président (voir article du 12 octobre). Cet épisode est apparu davantage comme une secousse supplémentaire à ce séisme qui n’en finit pas  qu’un début de réponse crédible à la situation.

Pour commencer, il faut rappeler que le plafond de la dette est la limite statutaire fixée par le Congrès sur le montant d’emprunts que le Trésor peut émettre pour satisfaire à ses obligations légales (remboursement de la dette fédérale, paiement des intérêts, dépenses budgétaires, …). Dans la mesure où le budget voté par le Congrès est en déficit, il génère un besoin de financement qui doit être couvert par une nouvelle dette[1]. Si la dette atteint la limite autorisée, le Trésor ne peut plus émettre de nouveaux titres, sauf dans la limite où d’anciens titres arrivent à maturité. Le Congrès doit alors relever le plafond de dette pour permettre l’application de la politique budgétaire, ou bien voter un budget qui dégage un excédent budgétaire primaire suffisant pour couvrir les obligations légales du Trésor. C’est bien dans cette problématique que se trouve actuellement l’administration américaine.

graph_1410CRblog

Depuis le 19 mai 2013[2], le plafond de la dette est atteint. Ne pouvant plus émettre de nouvelles dettes, le Trésor finance ses opérations par des mesures exceptionnelles (en recourant notamment aux réserves des Fonds de pension des fonctionnaires du gouvernement fédéral, du service postal,  ou encore du Fonds de Stabilisation des changes) lesquelles, selon le Secrétaire américain au Trésor, seront épuisées le 17 octobre.  Au-delà, le Trésor ne devrait plus disposer que de ses recettes fiscales perçues quotidiennement et d’un peu de cash pour continuer à honorer ses engagements normalement. La cessation de paiement pourrait être prononcée entre le 18 octobre et le 1er novembre, selon le Bipartisan Policy Center. Le Congressional Budget Office situe cette date au 22 octobre.

tab11010CR_blog

La proposition d’un relèvement du plafond de dette pendant six semaines devait reporter d’autant l’échéance d’un défaut et donner du temps au Congrès pour négocier un nouveau budget. Mais cela changeait-il vraiment la donne ?

Même en l’absence d’un vote au Congrès, d’importantes dépenses sont déjà engagées sur le budget 2014. Ainsi, dans la version révisée du Budget du Président de juillet dernier, sur les 3 642 milliards de dollars de dépenses fédérales prévues, 2 236 milliards sont des dépenses  obligatoires (mandatory programs), principalement au titre  des programmes sociaux (sécurité sociale, Medicare, Medicaid), 614 milliards sont destinés à la Défense et ont été votées dans les précédents budgets, et 222 milliards sont des charges d’intérêts. Or, les recettes fiscales étant insuffisantes pour couvrir ces dépenses déjà actées, le Trésor devra s’endetter pour les financer et sans relèvement suffisant du plafond, il ne pourra pas le faire.

L’objectif des républicains est donc bien de revenir sur les programmes sociaux. Mais là non plus le Congrès ne peut revenir sur des programmes qui ont déjà été votés et dont il a pris l’engagement de les respecter.

On voit bien la guerre politique qui se joue désormais.  Le plafond de la dette s’est placé au cours des deux dernières années, au cœur de la politique budgétaire américaine[3]  pour devenir aujourd’hui un puissant outil d’injonction. Pis encore, un outil d’injonction contradictoire ! Le refus du Congrès de relever le plafond de la dette contraint le Trésor et le gouvernement américain à enfreindre leurs obligations respectives. Le Congrès se soustrait à la responsabilité budgétaire qui est la sienne soit en n’autorisant pas le Trésor à financer des dépenses qu’il a lui-même votées, soit en reniant ses propres engagements. Ce faisant, il force le Président Barack Obama à s’engager dans une crise politique majeure autour de l’interprétation de la constitution et de la séparation des pouvoirs qu’elle implique.

Dès lors, si les républicains restent aussi fermés sur leurs objectifs de réduction des dépenses publiques, ce ne sont pas six semaines qui vont changer la nature du conflit. Les fondements mêmes des institutions sont attaqués. Au-delà des conséquences dramatiques que cette crise pourra avoir aux niveaux économique et financier, c’est bien tout l’édifice de la puissance américaine qui vacille.

 

 

 


[1] Dette t – Dette t-1 = Solde budgétaire primaire t + taux d’intérêt t * Dette t-1

[2] Le 31 décembre 2012, le plafond était atteint et le 4 février 2013, le Président signait le No Budget, No Pay Act qui supprimait cette contrainte pendant une période de deux mois. Réintroduit le 19 mai sur la base de l’ancien plafond augmenté du montant des nouveaux emprunts réalisés entre le 4 février et le 18 mai 2013, le nouveau plafond a été fixé à 16 699 milliards de dollars. Mais, dès sa remise en application, le nouveau plafond a posé problème puisqu’il correspondait par construction au montant de la dette fédérale existant à cette date.

[3] Le relèvement du plafond signé le 2 août 2011 par le Président dans le cadre du Budget Control Act of 2011 était directement lié à l’engagement de réduire de 1 200 milliards de dollars les dépenses budgétaires à l’horizon de 10 ans, et dont les premiers effets ont commencé en mars dernier avec les coupes automatiques (séquestrations).




France-Allemagne : y-a-t-il un dividende démographique ?

par Vincent Touzé

Grace à un taux de natalité élevé, la France vieillit moins vite que l’Allemagne. Selon Eurostat, la population française devrait dépasser la population allemande à partir de 2045. La France pourrait ainsi devenir une championne européenne. Mais dans quelle mesure faut-il parler d’un dividende démographique ?

Certes, le renouvellement des générations est important. Il permet de maintenir une taille de population active suffisante pour faire face au coût social (retraite, santé et dépendance) des personnes âgées qui vivent de plus en plus longtemps. En ce sens, la France devrait faire mieux que l’Allemagne. Mais la croissance démographique porte également son lot d’inconvénients. En effet, dans un contexte de rareté des ressources, la taille de la population est avant tout un diviseur des quantités disponibles par tête. Par exemple, sur un marché du travail rationné qui peine à conserver les postes offerts en raison de problèmes de débouchés et de coûts de production insuffisamment compétitifs au niveau international, la dynamique de la population active se compte aussi en nombre de chômeurs. Pour éviter un tel écueil, un marché du travail plus efficient assis sur une économie prospère devient indispensable. Le dividende démographique dépend autant de la capacité productive des nouvelles générations de travailleurs que de leur taille.

La dernière Note de l’OFCE (n°35 du 11 octobre 2013) compare les performances relatives de la France par rapport à l’Allemagne sur la période 2001-2012. Cette étude montre que les évolutions économiques récentes ont été nettement favorables à l’économie allemande. Malgré un avenir démographique radieux, la France s’est embourbée dans une croissance faible et un chômage de masse qui frappe massivement les jeunes. Le dividende démographique tarde donc à venir.