Pourquoi lire Piketty ?

par Jean-Luc Gaffard

L’ouvrage de Thomas Piketty, « Le Capital au XXIe siècle », a reçu un extraordinaire accueil à la mesure du travail empirique effectué, mais aussi du problème politique abordé, celui de l’accroissement spectaculaire des inégalités aux Etats-Unis. Paul Krugman et Joseph Stiglitz notamment, tous deux inquiets des tendances observées dans la société américaine, et pour qui elles sont une menace pour la démocratie, voient dans les travaux de Piketty la confirmation de leurs craintes.

Fort de l’impressionnante masse des données accumulées et d’une solide connaissance historique que renforce la lecture de grands romans de la littérature française et anglaise, Piketty prédit l’avènement d’une seconde Belle Epoque, en fait le retour à un capitalisme patrimonial basé sur l’héritage, quand revenu et capital se concentrent entre les mains du centile supérieur de la population, quand le ratio du capital au revenu augmente significativement. Plus fondamentalement, il entend souligner l’existence d’une tendance séculaire à la stagnation et au creusement des inégalités, inscrite dans l’observation d’un taux de rendement du capital durablement supérieur au taux de croissance de l’économie, un peu à la façon dont Marx insistait sur l’existence d’une baisse tendancielle du taux de profit. Le XXe siècle, et plus particulièrement la période qui suit la Deuxième Guerre mondiale, caractérisée par une forte croissance associée à la réduction des inégalités et un poids moindre du capital par rapport au revenu, n’auraient alors été qu’une parenthèse maintenant refermée. La thèse défendue est que la société capitaliste aurait renoué avec une croissance faible et des inégalités croissantes nourries par la transmission des patrimoines plus que par la rémunération des talents individuels.

L’ouvrage, toutefois, est ambivalent. Un fossé existe entre la grande richesse des données rassemblées et la simplicité revendiquée de la théorie censée en rendre compte. D’un côté, un modèle trop simple, fondamentalement a-institutionnel, retient un taux de croissance définitivement exogène et ignore l’hétérogénéité du capital, faisant de la répartition une donnée technique sans influence en retour sur la croissance elle-même. D’un autre côté, la richesse des données et les intuitions qui y sont associées incitent à réfléchir sur les tenants et aboutissants de la répartition des revenus et des patrimoines pour lui redonner une place centrale dans la théorie économique et lui restituer sa dimension sociale.

En fait, il est une conviction qui parcourt le livre : le taux de croissance, quelque puissent être les politiques économiques mises en œuvre, redeviendrait faible parce que le rattrapage ne serait plus de mise et parce que le potentiel de gains de productivité serait largement épuisé. L’héritage deviendrait, alors, d’autant plus prégnant dans la distribution des richesses qu’il alimenterait le creusement des inégalités. Ce pessimisme fondamental justifie la simplicité revendiquée de l’explication théorique. S’il fallait le partager, il faudrait, toutefois, mieux l’étayer en s’interrogeant sur les causes et les effets de la formation des rentes et en rompant avec une analyse néo-classique de la croissance décidément sans véritable pertinence au regard du sujet traité. L’évolution de la répartition des revenus et des richesses n’a rien de naturel, mais répond à des choix politiques et à des normes sociales. La question est, alors, de savoir si les choix et les normes des années de l’âge d’or ont encore un sens, en fait si le politique peut encore contrebalancer les forces de ce qu’il faut bien appeler le déclin et qui menaceraient les sociétés capitalistes modernes.

Ainsi le défi est-il implicitement lancé qui naît de par la lecture de Piketty. Il est d’élaborer une analyse qui, suivant une intuition que l’on doit aux économistes classiques, reposerait sur l’idée que l’augmentation du poids de la rente distinguée du profit, alimenterait la hausse des achats d’actifs improductifs ou de biens de luxe au détriment de l’accumulation de capital, et constituerait le véritable obstacle à la croissance.

Ces différents éléments sont développés dans la Note de l’OFCE, n°40 du 2 juin 2014, « Le capital au XXIe siècle : un défi pour l’analyse’ », qui fait suite au document de travail de Guillaume Allègre et Xavier Timbeau publié précédemment (voir le billet du blog ici).




Que peut-on attendre d’une baisse de l’euro pour l’économie française ?

par Bruno Ducoudré et Eric Heyer

Face à la montée du risque de déflation en zone euro, renforcée par l’appréciation continue de l’euro face aux autres monnaies depuis mi-2012, les dirigeants de la Banque centrale européenne ont entamé un changement de ton dans leur communication aux marchés financiers : ils évoquent maintenant la possibilité de mettre en œuvre de nouveaux assouplissements monétaires quantitatifs. Ces assouplissements sont susceptibles de faire baisser le taux de change de l’euro. Ils apporteraient alors un soutien précieux aux économies de la zone euro via un regain de compétitivité-prix vis-à-vis des concurrents hors de la zone, dans un contexte où les politiques de consolidation budgétaire vont continuer à freiner la croissance prévue pour la zone euro en 2014 et en 2015. Quelles seraient dès lors les conséquences pour l’économie française d’une dépréciation de l’euro face aux autres monnaies ? Nous revenons brièvement sur les évolutions passées du taux de change de l’euro. Puis nous présentons les effets attendus d’une dépréciation de 10% de l’euro face aux autres devises à l’aide du modèle emod.fr. Ces effets sont plus modérés que ceux prévus par le gouvernement.

Les politiques d’assouplissement monétaire quantitatif ont été massivement utilisées par la Réserve fédérale américaine, la Banque d’Angleterre ou encore de la Banque centrale du Japon. Depuis la mi-2012, le bilan de ces 3 banques a continué d’augmenter de respectivement 6,5 pts de PIB, 1,3 pt de PIB et 15,3 pts de PIB. Au cours de la même période, le bilan de la BCE s’est à l’inverse réduit de 8,4 pts de PIB. Cette divergence de stratégie a provoqué une appréciation continue de l’euro : en s’établissant aujourd’hui à 1,38 dollar, l’euro a vu sa valeur augmenter depuis juin 2012 de 12 % face au dollar. Au cours de la même période, la monnaie commune s’est appréciée de 49 % par rapport au yen et de près de 3 % face à la livre sterling (graphique 1).

G1_Post1605_EHBD

Le taux de change effectif nominal de l’euro, qui pondère ces différents taux de change en fonction de la structure du commerce de la zone euro, s’est ainsi apprécié de 9,5 % depuis le troisième trimestre 2012 (graphique 2). Cette appréciation, combinée avec les politiques d’austérité et de désinflation compétitive menées en zone euro, a pesé sur la croissance du PIB de la zone, négative en 2012 et 2013, et sur l’inflation. L’absence de tensions inflationnistes et l’appréciation passée de l’euro laissent donc des marges de manœuvre à la BCE pour essayer d’infléchir le cours de l’euro face aux autres monnaies.

G2_Post1605_EHBD

Quel serait l’impact d’une dépréciation de l’euro vis-à-vis de l’ensemble des autres devises ?

Les effets d’une dépréciation de l’euro sont doubles :

–          Un effet de revenu : un euro faible augmente le prix des importations. Cela se traduit par une hausse de la facture énergétique, une hausse des prix de production des entreprises et une perte de pouvoir d’achat des ménages ;

–          Un effet de substitution : un euro faible diminue le prix des exportations et accroît ces dernières. La dépréciation détériore aussi la compétitivité des producteurs concurrents, ce qui provoque une baisse des importations à l’avantage de la production domestique.

Ces effets opposés ne s’appliquent qu’au commerce extra zone euro. Le commerce avec nos partenaires européens n’est pas directement impacté puisque les prix des importations et des exportations en provenance et à destination de cette zone restent inchangés. En revanche, le commerce intra zone euro est impacté par un euro faible. Mais, cela passe par le canal de la demande adressée.

tab1EHBD_post

Comme le résume le tableau 1, une dépréciation de 10% de l’euro face à l’ensemble des monnaies entraîne un gain de compétitivité-prix à l’exportation pour la France vis-à-vis du reste du monde. Les autres pays de la zone euro bénéficient du même gain de compétitivité sur l’ensemble des marchés à l’exportation. Dans ce cas, l’effet sur l’activité serait de 0,3% la première année, de 0,5% au bout de trois ans, et nul au bout de neuf ans. La hausse de demande adressée entraînée par l’amélioration de l’activité chez nos partenaires européens serait globalement compensée par la baisse de la demande adressée à la France par le reste du monde. Sur le marché du travail, une telle dépréciation entraînerait la création de 22 000 emplois la première année de 74 000 emplois au bout de 3 ans. Le solde public de son côté s’améliorerait de 0,3 point de PIB à l’horizon de 3 ans.

Ces résultats, s’ils modèrent ceux publiés par la DG Trésor[1], n’en demeurent pas moins significatifs et bienvenus dans le contexte économique actuel marqué par une croissance faible et un risque de déflation. Une dépréciation de la monnaie unique permettrait également d’atténuer le processus de désinflation compétitive engagé au sein des pays de la zone euro.

 


[1] Dans leur publication, la DG Trésor considère qu’une baisse de 10% du taux de change effectif de l’euro (contre toutes monnaies) permettrait d’accroître notre PIB de 0,6 point de PIB la première année et de 1,2 point de PIB au bout de trois ans ; de créer 30 000 emplois la première année et 150 000 emplois au bout de trois ans ; de réduire le déficit public 0,2 point de PIB la première année et de 0,6 point de PIB au bout de trois ans.




Abenomics et sa nouvelle politique monétaire

Ce post résume un article publié par Mahito Uchida dans la Revue de l’OFCE,  n° 135.

Avec l’arrivée à la tête du gouvernement de Shinzo Abe, la politique économique japonaise a pris, en 2013, une orientation résolument anti déflationniste. Cette nouvelle politique combine une politique monétaire très accommodante et une politique de relance fondée sur l’investissement public.  Dans un article publié par l’OFCE, Mahito Uchida de l’Université SEIJO, présente une analyse de la première étape de mise en œuvre de la nouvelle politique monétaire japonaise.  En premier lieu il présente brièvement les grandes lignes de « l’Abenomics » et de la nouvelle politique monétaire japonaise mises en œuvre depuis avril 2013. Il présente ensuite les causes de la réponse très forte du yen, des cours de la bourse japonaise, de l’inflation et des anticipations des agents économiques en matière de croissance et d’inflation. Dans une deuxième partie,  Mahito Uchida explique pourquoi la politique monétaire a obtenu des résultats en 2013 que celle de 2012 n’avait pas atteint.  Bien qu’il n’y ait pas de différence majeure entre les politiques menées avant et après 2012, il met en évidence l’importance de l’engagement très fort de la Banque centrale du Japon, de sa coopération affichée avec le gouvernement et du « choc psychologique » dans l’opinion publique.  La troisième partie de l’analyse de Mahito Uchida discute la question de la durabilité de cette nouvelle politique monétaire. Pour conforter les résultats à long terme, il faut que l’impact sur les prix soit durablement positif, ce qui implique un écart de production également durablement positif. En conséquence,  la stratégie de croissance de l’Abenomics  joue un rôle particulièrement important. Tout comme le fait que la Banque du Japon devra éviter les effets secondaires indésirables que pourrait avoir sa politique sur les taux d’intérêt de la dette publique, sur les autres marchés financiers et sur les mouvements de capitaux avec l’étranger.




Election et dérivée du chômage : la stratégie du retournement

par Guillaume Allègre, g_allegre

Un conseiller ministériel m’a récemment expliqué ce qu’il pense être la stratégie du Président de la République concernant la gestion macroéconomique et le chômage, qu’on pourrait appeler stratégie du retournement : « Par rapport à la présidentielle, l’objectif est de faire baisser le chômage en 2016-2017. Les électeurs ne votent qu’en fonction de l’évolution du chômage dans la dernière année, voire les 6 derniers mois. Comme pour Jospin en 2002 ». La croyance qu’en ce qui concerne le chômage et l’économie en général, c’est la dérivée qui compte, l’évolution récente et non le niveau, est assez ancrée dans le milieu technocratico-politique : « it’s the derivative, stupid ! » est le nouveau « it’s the economy, stupid !» (maxime du stratégiste de campagne de Bill Clinton en 1992).

Cette croyance découle en partie d’une intuition confirmée par une célèbre expérimentation psychologique. Dans cette étude, les participants sont soumis à deux expériences douloureuses durant lesquelles une de leur main est plongée dans de l’eau glacée. L’une dure 60 secondes et l’autre 90 secondes. Dans la deuxième, les premières 60 secondes sont les mêmes tandis que les 30 secondes additionnelles sont un peu moins douloureuses (l’expérimentateur fait couler de l’eau un peu plus chaude dans le récipient). Plus tard, les participants doivent choisir de répéter une de ces deux expériences et 80% choisissent la plus longue. Ceci ne paraît pas rationnel car dans l’expérience la plus longue, la somme des douleurs est plus importante. Pour un observateur objectif c’est bien cette somme qui devrait compter (« l’aire sous la courbe ou l’intégrale »). Mais les participants ont une mémoire sélective : ils sont plus fortement influencés par les moments représentatifs de l’expérience et notamment, ici, par l’amélioration à la fin de l’épisode. Daniel Kahneman, « Prix Nobel » d’économie en 2002 pour ses travaux sur les biais de jugement, dont on trouvera un ouvrage vulgarisé ici, distingue deux moments représentatifs durant un épisode déplaisant : le pic de souffrance et la fin[1].

Des économistes, surtout américains, ont développé des modèles politico-économétriques de prévisions électorales afin d’estimer les liens entre économie et résultats électoraux. La popularité de ces modèles varie au gré des élections, selon leur pouvoir de prédiction : en 1992, la moitié des modèles avait prédit une réélection facile pour George Bush père ; en 1996 la réélection de Clinton était bien prévue ; par contre en 2000 pratiquement tous les modèles prévoyaient une large victoire d’Al Gore… Et le modèle avec la prévision la plus proche à cette élection (0,6 %) s’est trompé de 5 points à l’élection suivante. Evidemment, grâce à la multiplication des prévisions, il est toujours possible de trouver un modèle, tel Paul le Poulpe (voir wiki), ayant une bonne série en cours.

Ce succès très relatif n’a pas empêché l’importation en France des modèles politico-économétriques. La forme générique de ces modèles tente d’expliquer le pourcentage de vote pour un candidat ou parti par des variables économiques (PIB, chômage, revenu en niveau ou en variation) et politiques (popularité du président et du premier ministre). La très grande majorité des modèles utilise comme variable économique le chômage en variation, avec un horizon relativement court, en moyenne d’un an. La conclusion tirée de ces estimations empirique est que la mémoire de l’électeur français apparaît limitée (Dubois, 2007).

Mais ces études sont confrontées à un problème important : le faible nombre d’observations (neuf élections présidentielles et treize élections législatives entre 1958 et 2011). « Pour l’économètre, on ne vote pas assez souvent », observe Lafay (1995)[2]. Autrement dit, la loi des grands nombres ne peut pas s’appliquer dans ce type de configuration. Ceci est aggravé par le fait que le contexte de ces élections change par un nombre de variables pratiquement aussi élevé que le nombre d’élections (présence de cohabitation, élections législatives isolées ou couplées à des présidentielles, présence d’un sortant ou non lors d’une élection présidentielle, élections législatives anticipées, présence ou non d’un candidat de gauche au deuxième tour pour les présidentielles, importance des triangulaires pour les législatives…). D’autres problèmes techniques se posent aux économètres. Dans une revue de littérature fouillée analysant l’ensemble des soixante et onze études politico-économiques concernant le vote en France entre 1976 et 2006, Dubois qualifie le traitement de ces problèmes, « s’il existe », de « relativement frustre ». Tout comme aux Etats-Unis, les modèles connaissent des « fortunes diverses » en termes de prévision. Enfin, notons un problème que les économètres appellent endogénéité : les modèles politico-économiques tentent de prévoir ou expliquer le résultat des élections avec des variables économiques (chômage) et la popularité de l’exécutif. Or, il fait peu de doutes que la popularité de l’exécutif est en partie fonction des variations et du niveau du chômage : dans ce cas, la non-significativité des variations de plus long-terme des variables économiques peut-être expliquée par le fait que leur impact est déjà inclus dans la popularité de l’exécutif. Bref, ces études empiriques ne sont donc pas du tout suffisantes pour conclure qu’en termes économiques, la mémoire de l’électeur est limitée.

Pour reprendre les termes de Kahneman, la machine à tirer des conclusions hâtives est en marche : une intuition (la mémoire des électeurs est sélective) s’appuyant sur des études psychologiques (dont l’objet est très éloigné) et confirmée par des études économétriques (non robustes et qui ne font donc que reproduire les a priori des chercheurs). L’histoire racontée est cohérente et il semble qu’elle soit corroborée par les faits… A y réfléchir, il peut paraître effrayant que des responsables politiques puissent agir sous l’influence de ce cocktail rhétorique. Ceci est d’autant plus effrayant que pour un observateur extérieur, du point de vue du bien-être collectif et donc des objectifs de politiques publiques, c’est évidemment le niveau du chômage sur plusieurs années (son intégrale) et non son évolution au cours de la dernière année (sa dérivée) qui compte !

Au niveau européen, et maintenant national, de nombreuses règles ont été mises en place pour éviter que les hommes politiques à la tête des gouvernements essaient de gagner les élections en menant des politiques qui, certes, réduisent le chômage à court terme mais qui creusent les déficits à long terme. Des critères de Maastricht (déficit public inférieur à 3% du PIB) au récent cadre financier pluriannuel européen, les règles se justifient par la croyance que le personnel politique est par construction incité à mener une politique budgétaire trop laxiste car ne prenant pas en compte les générations futures, qui, par construction, ne votent pas. Or, si les gouvernants commencent à croire que ce sont les évolutions économiques à court-terme qui comptent, alors les incitations sont inversées, surtout s’il est plus facile de réduire le chômage après l’avoir fait augmenter, ce qui mènerait à un sentier de croissance trop faible et un sentier de chômage trop élevé[3]. Dans ce cas, la solution ne pourrait venir d’une gouvernance par de nouvelles règles contraignantes, qui ont de toute façon jusqu’ici prouvé leur inefficacité. Il faut s’appuyer sur le fait que la stratégie du retournement ne peut fonctionner en termes électoraux que si les citoyens ne comprennent pas qu’on essaye de les manipuler. Dévoiler la manipulation est alors plus efficace que la mise en place de règles. Dont acte.

 


[1] Par conséquent, ceux qui suivent cette théorie aujourd’hui devraient également s’occuper du pic de chômage et non seulement de son évolution en fin de mandat.

[2] Lafay J.-D. 1995, « Note sur l’élection présidentielle de 1995 et les apports de l’analyse économétrique des comportements électoraux », miméo, LAEP, Université de Paris 1. Cité par Dubois.

[3] Ce billet –lien– souligne qu’il était possible d’arriver au même ratio de dette sur PIB en 2032 en passant par un chemin qui aurait réduit le chômage en zone euro de 3 points en 2013.




Quelles réformes pour l’Europe ?

par Christophe Blot [1], Olivier Rozenberg [2], Francesco Saraceno [3] et Imola Streho [4]

Du 22 au 25 mai prochain, les Européens se rendront aux urnes pour élire les 751 députés du Parlement européen. Ces élections vont se dérouler dans un climat de forte défiance à l’égard des institutions européennes. Si cette crise de confiance n’est pas propre à l’Europe, elle se conjugue à une crise économique, la plus grave depuis la Grande Dépression, et à une crise politique que traduit la difficulté des institutions européennes à légiférer. Les enjeux des prochaines élections recoupent donc de multiples aspects qui doivent être abordés sous un angle pluridisciplinaire. Le numéro 134 de la collection « Débats et Politiques » de la Revue de l’OFCE (publié en français et en anglais)  réunit des chercheurs – économistes, juristes ou politistes – spécialistes des questions européennes, qui partant des développements et des débats propres à leur discipline, partagent leur vision des réformes nécessaires pour améliorer le fonctionnement de l’Europe. L’objectif est ainsi d’alimenter le débat public, en amont des élections européennes et au-delà, au travers d’articles courts synthétisant les débats et proposant quelques recommandations à l’attention des candidats à l’élection, bien entendu, mais aussi au-delà des partis politiques, des syndicats, des entreprises, des associations et surtout de l’ensemble des citoyens intéressés par les questions européennes.

Dans le contexte de crise que nous traversons, le débat qui se dessine autour des prochaines élections européennes semble être pris en otage entre deux visions. La première s’apparente à un déni de la situation dans laquelle se trouve la zone euro et l’Europe. Il faudrait se satisfaire de la stabilité de l’euro malgré la crise. Les institutions se sont adaptées de telle sorte que l’Europe aurait finalement su mettre en œuvre les compromis nécessaires pour sortir de la crise et faire face aux difficultés futures. A l’opposé, la vision eurosceptique insiste sur le fait que la crise serait fondamentalement une crise de la construction européenne. La seule issue possible serait le retour aux monnaies nationales. Les différentes contributions rassemblées dans cet ouvrage tentent de dépasser ce clivage. La crise récente a mis en lumière les carences du fonctionnement des institutions et l’insuffisance d’une stratégie de politique économique fondée sur la seule discipline budgétaire. Si des réformes ont bien été mises en œuvre, elles s’avèrent insuffisantes, voire insatisfaisantes. Pour autant, nous refusons le simple constat d’échec du projet européen, l’idée que toute réforme serait impossible, que le projet européen ne saurait se poursuivre car voué à l’échec.

Le débat sur le futur de l’Europe et sur les réformes nécessaires pour une meilleure expression de la démocratie et de la citoyenneté européenne, pour une gouvernance plus efficace et pour l’élaboration de politiques publiques adaptées, doit donc se poursuivre. Pour autant, le lecteur ne trouvera pas dans cet ouvrage un projet commun et cohérent mais plutôt des visions éclectiques et parfois même contradictoires. Il s’agit plutôt de présenter les termes du débat politique afin de donner aux candidats et aux électeurs les clés permettant de comprendre les enjeux de cette élection et de se prononcer sur l’orientation qu’ils souhaitent donner au projet européen.

___________________________________________________

[1] OFCE, Sciences Po

[2] Sciences Po, Centre d’études européennes

[3] OFCE, Sciences Po, (@fsaraceno)

[4] Sciences Po, Ecole de droit et Centre d’études européennes




La java des fréquences : une explication du « krach éclair »

par Sandrine Jacob Leal[1], Mauro Napoletano[2], Andrea Roventini[3],  Giorgio Fagiolo[4]

Le 6 mai 2010, conjointement à la chute sans précédent du cours de l’E-Mini S&P 500[5], de nombreux indices boursiers américains, y compris l’indice Dow Jones, se sont effondrés en quelques minutes (les baisses enregistrées ont été de plus de 5%), et ont rebondi tout aussi rapidement, jusqu’à récupérer une grande partie des pertes observées. Au cours de ce « krach éclair », la plupart des prix des actifs ont perdu tout rôle informationnel. En particulier, plus de 20 000 transactions, portant sur plus de 300 titres, ont été exécutées à des prix bien au-delà de leur valeur avant le krach (des écarts de plus de 60% ont été notés). Certains contrats ont par exemple été exécutés à 0,01$ ou en de-deçà, ou à plus de 100 000$, avant que le prix de ces titres reviennent à leurs niveaux d’avant le krach (CFTC et SEC, 2010). Ces anomalies excessives des prix ont été associées à une évaporation soudaine de la liquidité sur le marché, à une volatilité accrue du prix des actifs et à une crise de confiance prolongée sur ces marchés (les volumes journaliers moyens sont restés à des niveaux faibles pendant plusieurs mois après cet épisode). En outre, de tels incidents peuvent être à l’origine de crises systémiques notamment du fait de pratiques de comptabilité financière basées sur la valeur de marché. Dès lors, les actifs des banques et autres institutions financières sont évalués à leur prix de marché.

Le « krach éclair » du 6 mai 2010, largement relayé dans la presse écrite, n’a pas été un événement isolé. Des épisodes similaires ont été depuis observés sur plusieurs places financières. Les effets déstabilisants des « krachs éclairs » ont incité les organismes de réglementation, les politiques et les chercheurs à s’y intéresser tout particulièrement. Au cours des quatre dernières années, de nombreuses conjectures ont été avancées pour tenter de clarifier les origines du phénomène et de proposer des mesures réglementaires capables de le prévenir et/ou de réduire ses conséquences. La plupart de ces propositions repose sur le rôle du trading à haute fréquence. Comme le suggère un rapport de la SEC de 2010, les traders à haute fréquence ont probablement joué un rôle capital dans l’amplification du krach, notamment du fait de l’afflux massif d’ordres de vente. Cependant, à ce jour, aucune explication ne s’impose vraiment et le débat sur les coûts et les avantages du trading haute fréquence ainsi que son rôle dans le déclenchement des « krachs éclairs » reste encore ouvert. Certains travaux suggèrent que les traders à haute fréquence nuisent à l’efficience des marchés, en exacerbant la volatilité des cours, en réduisant la liquidité et en alimentant parfois les « krachs éclairs ». D’autres études montrent que les traders à haute fréquence ne sont finalement que les « nouveaux » teneurs de marché, qui fournissent un flux, quasi continu, de liquidité et contribuent ainsi à réduire les coûts de transaction, et à favoriser la découverte des prix et l’efficience des marchés.

L’absence d’un consensus sur les bénéfices nets du trading à haute fréquence n’est cependant pas si surprenante. En effet, ce mode d’intervention sur les marchés, caractérisé par des algorithmes ultra-rapides, constitue une véritable innovation financière, dont l’impact social est difficile à évaluer compte tenu de la pléthore d’externalités associées, souvent imprévisibles, et de la complexité sous-jacente et avérée des marchés financiers. Dans ce contexte, les modèles multi-agents constituent une approche adaptée et efficace afin d’analyser l’impact d’innovations financières, telles que le trading à haute fréquence, sur les dynamiques de marché. Ce type de modélisation permet de concevoir des marchés artificiels au sein desquels les fluctuations de cours émergent directement des interactions entre agents hétérogènes, souvent dotés d’un éventail de stratégies de trading, pouvant aller des plus simples aux plus sophistiquées (comme celles utilisées notamment par les traders à haute fréquence).

Dans un Document de Travail de l’OFCE 2014-03, nous développons un modèle multi-agents d’un marché boursier organisé autour d’un carnet d’ordres à cours limité, dans lequel des traders à haute fréquence, hétérogènes, interagissent avec des traders à basse fréquence. L’objectif principal de ce travail est d’une part d’étudier le rôle du trading haute fréquence dans l’apparition de « krachs éclairs » et, plus généralement, de périodes de volatilité accrue sur les marchés financiers. D’autre part, il s’agit d’identifier parmi les traits distinctifs du trading à haute fréquence ceux qui sont les plus dommageables pour la stabilité des marchés et donc les plus à même d’expliquer les incidents de type « krach éclair ». Cette étude permet également de proposer des éléments de compréhension de la phase de reprise du marché à la suite du krach.

Notre modèle représente un marché dans lequel les traders à basse fréquence achètent et vendent un titre et peuvent adopter soit une stratégie de trading de type fondamentaliste soit chartiste, sur la base de leur performance. Les traders à haute fréquence se distinguent des précédents, non seulement en termes de rapidité d’intervention sur le marché, mais également en termes de règles d’activation et de comportement. Tout d’abord, contrairement aux stratégies des traders à basse fréquence, qui sont basées sur un temps chronologique, le trading algorithmique inhérent à la haute fréquence conduit naturellement ces traders à adopter des règles d’activation « event driven », c’est-à-dire qui reposent sur une mesure différente du temps, basée sur l’occurrence d’événements. En conséquence, les traders à basse fréquence, qui interviennent sur le marché à intervalles constants et exogènes, coexistent avec des traders à haute fréquence, qui participent aux échanges à une fréquence déterminée de façon endogène en fonction des variations de prix. Ensuite, les traders à haute fréquence adoptent des stratégies directionnelles qui visent à tirer profit de l’information contenue dans le carnet d’ordres, relative aux prix et aux volumes, issue des ordres des traders à basse fréquence. Enfin, les traders à haute fréquence ne conservent leurs positions ouvertes que pour de très courtes périodes et ont la particularité d’annuler fréquemment leurs ordres.

Pour analyser ce modèle, nous procédons à des simulations numériques. Nos résultats démontrent notamment que les « krachs éclairs », associés à une volatilité accrue du cours des titres, n’émergent que si les traders à haute fréquence sont présents sur le marché.

Dès lors, pourquoi les « krachs éclairs » apparaissent-ils en présence de traders à haute fréquence ? Dans ce travail, nous montrons clairement que l’émergence de « krachs éclairs » n’est pas seulement imputable à la vitesse d’action de ce type de traders, mais est davantage liée au déploiement de stratégies de trading, propres au trading à haute fréquence, leur permettant d’une part d’absorber la liquidité disponible sur le marché, créant ainsi une fourchette de cotation[6] élevée, et d’autre part de vendre massivement un titre, lorsque la liquidité fait le plus défaut sur le marché.

Enfin, nous considérons l’impact de l’annulation des ordres par les traders à haute fréquence sur la dynamique des prix. Ces comportements ont fait l’objet d’une attention toute particulière, notamment dans les débats publics récents, car ces méthodes peuvent être utilisées de façon stratégique afin d’influencer les cours à leur avantage. Les traders à haute fréquence remplissent ainsi les carnets d’ordres factices en quelques microsecondes, dans le seul but de les annuler tout aussi rapidement. Dans ce travail, nous suggérons que des niveaux élevés d’annulation d’ordres ont un effet ambigu sur ​​l’évolution des cours. Des annulations importantes d’ordres conduisent à une plus grande volatilité des titres et à des « krachs éclairs » plus fréquents, mais aussi à un rebond des cours plus rapide, réduisant ainsi la durée des « krachs éclairs ». Les annulations d’ordres, largement utilisées par les traders à haute fréquence, ont donc des conséquences plus complexes que celles avancées jusqu’à présent. Ainsi, les mesures de réglementation qui visent à limiter ces pratiques devraient tenir compte de telles dynamiques.

________________________________________

[1] CEREFIGE – ICN Business School (Nancy-Metz) France, et GREDEG. Adresse: ICN Business School (Nancy-Metz) 13, rue Michel Ney, 54000 Nancy (France). Tel: +33 383173776. Fax:+33 383173080. Courriel: sandrine.jacob-leal@icn-groupe.fr

[2] OFCE, Skema Business School, Sophia-Antipolis (France), et Scuola Superiore Sant’Anna, Pise (Italie). Courriel: mauro.napoletano@sciencespo.fr

[3] Université de Verone (Italie); Scuola Superiore Sant’Anna, Pise (Italie), et OFCE, Sophia-Antipolis (France). Courriel: andrea.roventini@univr.it

[4] Scuola Superiore Sant’Anna, Pise (Italie). Courriel: giorgio.fagiolo@sssup.it

[5] Contrat à terme sur Indice S&P500.

[6] L’écart entre le prix acheteur et le prix vendeur observé dans le carnet d’ordres.




Banques centrales : le dernier rempart ?

par Xavier Timbeau, @XTimbeau

Ce texte résume les perspectives 2014-2015 de l’OFCE pour l’économie mondiale

La croissance du PIB est à nouveau positive dans la plupart des pays développés ! Faut-il s’en réjouir et crier victoire parce que nous sommes sortis de la pire récession depuis la Seconde Guerre mondiale ? Les sacrifices consentis et les sueurs froides, tout ceci a-t-il finalement payé ?

Et bien non. La croissance est positive, mais insuffisante pour induire une baisse du chômage. Y compris aux Etats-Unis, où pourtant le chômage a baissé, le taux d’emploi ne se redresse pas (graphique 1). C’est qu’on peut sortir du chômage vers l’emploi mais aussi vers l’inactivité, c’est-à-dire le retrait du marché du travail. Et c’est ce découragement des chômeurs qui domine aux Etats-Unis.

G1_Post24-04_XT

 

Et si l’on attend encore un peu (au-delà de 2015) pour que cela s’arrange, on risque fort d’être déçu, comme l’indiquent nos prévisions d’avril 2014. Car en effet, cette situation sur le marché du travail alimente les pressions déflationnistes. Le graphique 2 illustre cette pression lente et continue. Le débat sur le salaire minimum, réveillé en France récemment, s’inscrit dans cette logique. En situation de chômage élevé, le fonctionnement concurrentiel du marché du travail conduit à la réduction du salaire réel, c’est-à-dire du pouvoir d’achat.

G2_Post24-04_XT

 

Notons qu’il s’agit du salaire réel, car, la baisse des salaires nominaux, la pression de la concurrence sur le marché des biens ou les dévaluations fiscales provoquent des baisses de prix. C’est pourquoi les indices de prix indiquent une inflation en net ralentissement, mais sans que pour autant, quoiqu’en dise Mario Draghi (« with low inflation, you can buy more stuff »), le pouvoir d’achat s’accroisse (« les salaires ralentissent plus que les prix, Mario ! »). Ainsi, doucement, et tant que le chômage sera élevé, nous nous enfonçons dans une déflation dont la principale conséquence sera d’accroître le poids réel des dettes privées ou publiques. Or ce sont ces dettes privées, socialisées, et donc ensuite publiques, qui nous ont plongés dans cette crise. Avec la déflation, la spirale des dettes continuera et nous maintiendra dans la crise.

Pour en sortir, tous les regards se tournent vers les banques centrales. Puisqu’elles ont comme mandat la stabilité des prix, elles sont donc obligées de tout mettre en œuvre pour empêcher une telle déflation. Elles ont d’ailleurs montré une grande créativité ces derniers temps, en ajoutant à leur arsenal des politiques monétaires non-conventionnelles … dont on va chercher encore pendant des années à caractériser les modes opératoires et analyser les impacts. Au passage, on peut oublier les manuels de politique monétaire, devenus obsolètes et ringards comme un timbre-poste sur une lettre postale à côté d’un flux twitter.

Mais les banques centrales risquent de ne pas y parvenir : ce qui fait la déflation c’est le chômage. Ce qui a fait le chômage, c’est l’austérité immédiate, quand les multiplicateurs budgétaires sont élevés (et non pas étalée, comme nous l’avions proposé dans le rapport iAGS 2013). Compter sur la politique monétaire seule pour nous prémunir de la déflation est donc insuffisant. Pour vraiment sortir de la déflation, il nous faut réduire rapidement le chômage, en recourant aussi à la politique budgétaire. Les difficultés sont réelles, mais de nombreuses propositions sont sur la table (le rapport iAGS 2014 en contient quelques unes).

C’est pourquoi, malgré des chiffres positifs, les perspectives de croissance pour l’année 2014 et 2015 pour les principaux pays développés sont toujours inquiétantes.




Zone euro : Reprise ou déflation ?

par Céline Antonin, Christophe Blot, Sabine Le Bayon et Danielle Schweisguth

Ce texte résume les perspectives 2014-2015 de l’OFCE pour l’économie de la zone euro

La zone euro va-t-elle s’engager sur la voie de la reprise ou s’enfoncera-t-elle dans une spirale déflationniste ? Les derniers indicateurs macroéconomiques émettent des signaux contradictoires à ce sujet. Le retour de la croissance se confirme avec trois trimestres consécutifs de progression du PIB. Cependant, le niveau du chômage dans la zone euro se maintient à un niveau historiquement élevé (11,9 % pour le mois de février 2014), ce qui alimente des pressions déflationnistes, confirmées par les derniers chiffres d’inflation (0,5 % en glissement annuel pour le mois de mars 2014). Si ce recul de l’inflation tient en partie à l’évolution des prix de l’énergie, il reste que l’inflation sous-jacente a glissé sous le seuil de 1 % (graphique 1). Dans ces conditions, un retournement des anticipations d’inflation ne peut être exclu, ce qui ne manquerait pas de pousser la zone euro en déflation. La BCE s’inquiète de cette situation depuis plusieurs semaines et se dit prête à agir (voir ici). Cependant, aucune piste concrète quant à la façon d’assouplir la politique monétaire et d’éviter l’ancrage des anticipations sur une trajectoire déflationniste n’a été définie.

Après un recul du PIB de 0,4 % en 2013, la croissance redeviendra positive dans la zone euro : 1,3 % en 2014 puis 1,6 % 2015. Pour autant, à ce rythme de croissance, la plupart des pays de la zone euro garderont un écart de production ouvert, reflétant l’idée que la zone euro se trouve sur une trajectoire de sortie de crise ralentie. En effet, bien que les efforts de réduction des déficits vont s’atténuer, les politiques budgétaires seront encore pro-cycliques. En outre, les conditions de financement vont continuer à s’améliorer. La fin de la crise des dettes souveraines, notamment grâce aux annonces de la BCE de juillet et de septembre 2012[1], a permis de réduire les primes de risques sur le marché des obligations d’Etat. L’impact de cette réduction des taux longs de marché s’est en partie répercuté sur les taux d’intérêt bancaires et les conditions d’offre de crédits sont globalement moins restrictives qu’elles ne l’étaient entre le début de l’année 2012 et la mi-2013. Mais il reste que cette croissance sera insuffisante pour enclencher une véritable dynamique de reprise débouchant sur une réduction rapide et significative du chômage. Il ne baisserait en effet que très modérément passant de 11,9 % au premier trimestre 2014 à 11,3 % en fin d’année 2015. Alors que l’Allemagne serait dans une situation de quasi plein-emploi,  le chômage de masse en Espagne et dans les autres pays du sud de l’Europe perdurerait (graphique 2). Le chômage se stabiliserait en Italie et continuerait d’augmenter en France.

Or, cette situation de sous-emploi est la source du risque déflationniste. Elle pèse sur la dynamique des salaires et contribue à la faiblesse de l’inflation sous-jacente. Celle-ci est en effet nulle en Espagne en mars 2013 et négative en Grèce et au Portugal. Pour l’ensemble de la zone euro, nous n’anticipons pas à court terme de déflation, mais la faiblesse de la croissance accroît la probabilité que les anticipations des agents privés ne s’ancrent sur un tel scénario.

La situation de la zone euro rappelle celle du Japon au cours des années 2000. Le pays est entré en déflation en 1999[2] après la récession liée à la crise asiatique. Ensuite, malgré une croissance moyenne de 1,4 % entre 2000 et 2006, les prix ne sont pas repartis à la hausse et la Banque centrale n’a pas trouvé les moyens de sortir de ce piège malgré des politiques monétaires expansionnistes. C’est précisément cette dynamique qui menace la zone euro aujourd’hui et tous les moyens qui permettront de l’éviter (politique monétaire, politique budgétaire et coordination des politiques salariales[3]) doivent être mobilisés.

G1_Post22-04_Zoneuro

 

G2_Post22-04_Zoneuro

 


[1] En juillet, le Président de la BCE, Mario Draghi, déclarait en effet que la BCE sauverait l’euro « quoi qu’il en coûte ». En septembre, la BCE annonçait la création d’une nouvelle opération (l’OMT, voir le post de Jérôme Creel et de Xavier Timbeau) lui donnant la possibilité d’acheter sans limite des titres de dette souveraine.

[2] Il faut mentionner un premier passage en déflation en 1995 après trois années de croissance atone.

[3] Tous ces éléments sont détaillés dans le précédent rapport iAGS (2014).




France : ajustements graduels (prévisions)

Ce texte résume les prévisions 2014-2015 pour l’économie française

par Éric Heyer, Marion Cochard, Bruno Ducoudré et Hervé Péléraux

 En 2013, l’économie française a connu une croissance de 0,3 % en moyenne annuelle, ce qui lui a permis de retrouver en fin d’année le niveau de production atteint six ans plus tôt, début 2008. Entre 2008 et le début de 2011, l’économie française a bien résisté si on la compare à celle de ses principaux partenaires. Au premier trimestre 2011, le PIB français avait même quasiment retrouvé son niveau d’avant-crise et n’accusait que très peu de retard vis-à-vis de l’Allemagne et des États-Unis. La donne a en revanche changé à partir du deuxième trimestre 2011 avec les premiers effets de la politique de rigueur, mise en place en 2010. La dynamique de reprise qui s’était enclenchée après la récession s’est donc interrompue : le PIB de la France a alors connu une croissance annuelle positive certes mais proche de zéro jusqu’en 2013. Au final, la France sort de cette période de six années avec des déficits accrus et qui restent au-delà de la norme de 3 % du PIB. La purge budgétaire s’est ainsi avérée peu efficace et d’un coût en termes d’activité, de situation financière pour les entreprises et de chômage, disproportionné par rapport aux résultats obtenus.

Depuis quelques mois, le paysage conjoncturel s’est notablement éclairci en Europe, avec un retour de la croissance et un raffermissement des indicateurs conjoncturels. Pour ce qui est de la France, les enquêtes de conjoncture témoignent également d’un retournement de la confiance dans les secteurs productifs.

Le relâchement de l’austérité permettra à l’économie française de prolonger ce mouvement positif : la croissance du PIB français devrait s’accélérait graduellement en 2014 et en 2015.

Pour 2014, si on ne tient compte que des mesures déjà votées, la croissance serait de 1,2 % en France, niveau insuffisant pour que le chômage baisse et pour atteindre la cible de déficit de 3,6 %. L’annonce, lors du Discours de Politique Général (DPG) de Manuel Valls le 8 avril 2014, d’un supplément d’austérité de 4 milliards d’euros dans le cadre d’un budget rectificatif avant cet été permettrait au gouvernement de respecter son engagement de déficit. Mais cela pèserait inévitablement sur l’activité et réduirait la croissance attendue pour l’économie française à 1 %, portant le taux de chômage à 10,2 % de la population active en fin d’année.

Tab1_Post-22-04

Le DPG bouleverse également la dynamique attendue pour 2015 : avant le DPG, nous tablions sur une croissance de 1,6 % du PIB. Les entreprises profiteraient de ce regain de croissance pour restaurer progressivement leur situation financière. Cette stratégie repose prioritairement sur l’augmentation de la productivité qui permettrait de résorber les marges de capacité de production et de restaurer le taux de marge. Dans ce scénario, les finances publiques continueraient elle aussi à s’ajuster graduellement et le déficit des APU s’établirait à 3 % du PIB.  Corollaire à cet ajustement, le taux de chômage continuerait d’augmenter en 2015. L’accélération de la mise en place du Pacte de responsabilité et de solidarité promise lors du DPG et le flou autour de son financement peuvent remettre en cause le scénario présenté précédemment. Sans nouvelles mesures d’économies de dépenses publiques autres que les 12 milliards d’euros déjà intégrés dans notre scénario central, l’injection de 8,8 milliards d’euros de nouvelles mesures (tableau 1) permettrait à l’économie française d’atteindre 2 % de croissance en 2015, comme en 2011. Cette croissance, conjuguée aux effets des allègements de cotisations sociales sur les bas salaires, permettrait au taux de chômage de retrouver le niveau de fin 2013 à 9,8 % de la population active fin 2015. La baisse de l’impulsion budgétaire à -0,1 % du PIB, bien qu’en partie compensée par l’effet de la croissance sur les recettes fiscales, éloignerait cependant le scénario de la trajectoire de Bruxelles, avec un déficit public à -3,2 % du PIB. Si de nouvelles mesures d’économies devaient être adoptées pour financer ex ante ces nouvelles mesures en 2015, compte tenu des multiplicateurs budgétaires plus élevés sur la dépense publique, l’effet positif sur la croissance s’annulerait, le déficit public s’établirait au-delà des 3 % (3,1 % du PIB) et le taux de chômage à 10 % fin 2015. Ce scénario apparaît donc plus mauvais que le scénario central en termes de finances publiques et de croissance, la légère baisse du taux de chômage n’étant due qu’à l’effet des allègements de cotisations sociales sur les bas salaires, et donc à une proportion d’emplois à bas salaires dans l’emploi total plus importante (tableau 2).

Tab2_Post-22-04

 




La BCE, ou comment devenir moins conventionnel

par Jérôme Creel et Paul Hubert

La situation économique morose de la zone euro, avec ses risques de déflation, amène les membres de la Banque centrale européenne (BCE) à réfléchir à de nouveaux assouplissements monétaires quantitatifs, comme en attestent les récentes déclarations des banquiers centraux allemand, slovaque et européen. De quoi pourrait-il s’agir et ces mesures pourraient-elles être efficaces pour relancer l’économie de la zone euro ?

Les assouplissements quantitatifs, bien souvent qualifiés de QE (pour Quantitative Easing), regroupent plusieurs types différents de politique monétaire non-conventionnelle. Pour les définir, il convient de commencer par caractériser la politique monétaire conventionnelle.

La politique monétaire conventionnelle consiste à modifier le taux d’intérêt directeur (celui des opérations dites de refinancement à moyen terme) par des opérations dites d’open-market pour influencer les conditions de financement. Ces opérations peuvent modifier la taille du bilan de la banque centrale, notamment par le biais de la création monétaire. Il y a donc là un écueil dans la distinction entre politiques conventionnelle et non-conventionnelle : l’augmentation de la taille du bilan de la banque centrale ne suffit pas pour caractériser une politique non conventionnelle.

A contrario, une politique d’assouplissement quantitatif, non-conventionnelle, donne lieu stricto sensu à une augmentation de la taille du bilan de la banque centrale, mais sans création monétaire immédiate supplémentaire : le supplément de liquidités fourni par la banque centrale aux banques commerciales sert à augmenter les réserves de celles-ci auprès de la banque centrale, à charge pour elles d’utiliser in fine ces réserves à l’acquisition ultérieure de titres ou à l’octroi de crédits. Ces réserves, qui sont des actifs sûrs des banques commerciales, permettent d’assainir leurs propres bilans : la proportion d’actifs risqués diminue, celle des actifs sûrs augmente.

Un autre type de politique monétaire non-conventionnelle, l’assouplissement qualitatif (ou Qualitative Easing), consiste à modifier la structure du bilan de la banque centrale, généralement côté actif, mais sans modifier la taille du bilan. Il peut s’agir pour la banque centrale d’acquérir des titres plus risqués (non triple A) au détriment de titres moins risqués (triple A). Ce faisant, la banque centrale atténue la part de risque au bilan des banques auprès desquelles elle a acquis ces titres risqués.

Un dernier type de politique monétaire non-conventionnelle consiste à mener à la fois une politique d’assouplissement quantitatif et qualitatif : c’est l’assouplissement du crédit (ou Credit Easing). La taille du bilan de la banque centrale et le risque induit augmentent de concert.

Parmi les politiques monétaires non-conventionnelles attribuées à la BCE, on cite souvent les opérations d’octroi de liquidités à long terme (3 ans) et à taux d’intérêt bas, entreprises en novembre 2011 et février 2012 et qualifiées d’opérations VLTRO (Very long term refinancing operation). S’agissait-il effectivement d’opérations non-conventionnelles de grande ampleur ? D’une part, ces opérations n’ont pas porté sur des montants de 1 000 milliards d’euros, mais sur des montants nets plus proches de 500 milliards d’euros, ce qui n’est pas négligeable, après corrections des remboursements des banques auprès de la BCE. D’autre part, les opérations de LTRO font partie de l’arsenal conventionnel de politique de la BCE. Enfin, ces opérations auraient été en partie stérilisées : les crédits octroyés par la BCE aux banques commerciales auraient été compensés par des ventes de titres par la BCE, modifiant ainsi la structure de l’actif de la BCE. On peut donc conclure que les opérations de VLTRO ont été, pour partie, « conventionnelles » et, pour partie, « non-conventionnelles ».

Il en va différemment du mécanisme de Securities Market Programme qui a consisté, de la part de la BCE, à acquérir sur les marchés secondaires des titres de dette publique pendant la crise des dettes souveraines. Ce mécanisme a conduit à augmenter la taille du bilan de la BCE, mais aussi le risque induit : cette politique d’assouplissement du crédit a bel et bien été une politique non-conventionnelle.

Compte tenu des différentes définitions existantes à propos de ces politiques non-conventionnelles, il est utile de rappeler que la BCE communique expressément sur les montants qu’elle a consentis dans le cadre qu’elle a défini comme étant caractéristique de ses politiques non-conventionnelles (Securities held for monetary policy purposes). Ces montants sont représentés dans le graphique ci-après. Ils témoignent de la fréquence et de l’ampleur des activités monétaires que la BCE définit donc elle-même de non-conventionnelles.

graphPH_JC_080414

Les 3 différentes mesures représentées sur ce graphique (taille du bilan de la BCE, montant des LTRO et montant des Securities held for monetary policy purposes) sont exprimées en milliards d’euros. Les deux premières ont connu une hausse au 4e trimestre 2008 après la faillite de Lehman Brothers tandis que la troisième mesure de politique non-conventionnelle n’a commencé qu’en juin 2009. On remarque ensuite une nouvelle vague conjointe d’approfondissement de ces mesures lors de la fin d’année 2011. A la suite de cet épisode, le montant des opérations de LTRO était égal à 1 090 milliards d’euros et représentait environ 10 % du PIB de la zone euro (9 400 Mds€), soit un tiers environ du bilan de la BCE, tandis que le montant des Securities held for monetary policy purposes n’était que de 280 milliards d’euros, soit 3 % du PIB de la zone euro, et environ 4 fois moins que les opérations de LTRO. Il est intéressant de noter que la politique monétaire de la BCE, qui dépend de la demande de liquidités des banques, s’est modifiée en 2013. On peut interpréter la réduction de la taille du bilan comme le signe d’une politique moins expansionniste ou comme une baisse de la demande de liquidités en provenance des banques. Dans le premier cas, il s’avèrerait que cette stratégie de sortie des politiques d’assouplissement monétaire était sans doute trop précoce au regard de la conjoncture européenne, d’où le recours évoqué récemment à de nouvelles mesures non-conventionnelles.

Jusque-là, ces mesures ont été introduites officiellement afin de restaurer les canaux de transmission de la politique monétaire de la BCE à l’économie réelle, canaux qui dans certains pays de la zone euro ont été brouillés par la crise financière et de la zone euro. Le moyen de restaurer ces canaux a consisté à injecter des liquidités dans l’économie et à augmenter les réserves du secteur bancaire afin d’inciter les banques à accorder à nouveau des prêts. Un autre objectif de ces politiques est d’envoyer un signal aux investisseurs sur la capacité de la banque centrale à assurer la stabilité et la pérennité de la zone euro, matérialisé par le célèbre « whatever it takes »[1] prononcé par Mario Draphi le 26 juillet 2012.

Dans un récent document de travail avec Mathilde Viennot, nous nous penchons sur l’efficacité des politiques conventionnelles et non-conventionnelles pendant la crise financière. Nous estimons les effets de l’instrument conventionnel et des achats de titres dans le cadre des politiques non-conventionnelles de la BCE (Securities held for monetary policy purposes) sur les taux d’intérêt et volumes de nouveaux crédits consentis sur différents marchés : prêts aux entreprises non-financières, aux ménages, marché des dettes souveraines, marché monétaire et celui des dépôts.

Nous montrons que les politiques non-conventionnelles ont permis de réduire les taux d’intérêt sur le marché monétaire, celui des titres souverains et des prêts aux entreprises non-financières. Ces politiques n’ont cependant pas eu d’effets sur les volumes de prêts accordés. Dans le même temps, il s’avère que l’instrument conventionnel, dont l’inefficacité a été l’une des justifications à la mise en place des mesures non-conventionnelles, a eu l’effet attendu sur quasiment tous les marchés étudiés, et d’autant plus dans les pays du Sud de la zone euro que dans ceux du Nord sur le marché des titres souverains à 6 mois et des prêts immobiliers aux ménages.

Il semble donc que les politiques non-conventionnelles ont eu des effets directs sur le marché des titres souverains et des effets indirects, en permettant de restaurer l’efficacité de l’instrument conventionnel sur les autres marchés. Une des raisons permettant d’expliquer le faible impact des deux instruments sur les volumes de prêts accordés tient à la nécessité pour les banques commerciales[2] de se désendetter et de réduire la taille de leur bilan en ajustant leur portefeuille d’actifs pondérés des risques, ce qui les a poussées à accroître leurs réserves plutôt que d’assurer leur rôle d’intermédiation et à réclamer une rémunération relativement plus élevée pour chaque exposition consentie. Ces comportements, bien que légitimes, nuisent à la transmission de la politique monétaire : les taux baissent mais le crédit ne repart pas. Il semble dès lors important que la politique monétaire ne repose pas exclusivement sur le secteur bancaire. Si une nouvelle vague d’opérations non-conventionnelles devait être entreprise, il faudrait qu’elle soit concentrée directement sur l’acquisition de titres souverains ou d’entreprises privées afin de contourner le secteur bancaire. Grâce à ce contournement, on assisterait certainement à des effets d’amplification de la transmission de la politique monétaire à l’économie réelle. Et ce serait bienvenu pour échapper au risque de déflation dans la zone euro.[3]

 


[1] « La BCE mettra en œuvre tout ce qu’il faudra pour préserver l’euro. Et croyez-moi, ce sera suffisant. »

[2] Le raisonnement du désendettement s’applique aussi à leurs clients : les agents non-financiers.

[3] Voir le post de Christophe Blot et le récent rapport du CAE par Agnès Bénassy-Quéré, Pierre-Olivier Gourinchas, Philippe Martin et Guillaume Plantin sur ce sujet.