« Le négationnisme économique » de Cahuc et Zylberberg : l’économie au premier ordre

par Xavier Ragot

Le livre de Pierre Cahuc et André Zylberberg[1] est une injonction à tenir compte des vérités scientifiques de l’économie dans le débat public, face aux interventions cachant des intérêts privés ou idéologiques. Le livre contient des développements intéressants, décrivant les résultats de travaux empiriques utilisant des expériences naturelles pour évaluer des politiques économiques dans le domaine éducatif, de la politique fiscale, de la réduction du temps de travail, etc.

Cependant, le livre est caricatural et probablement contre-productif tant les affirmations sont à la frontière du raisonnable. Au-delà du débat sur les 35 heures ou sur le CICE, c’est le statut du savoir économique dans le débat public qui est en jeu.

1) L’économie est-elle devenue une science expérimentale comme la médecine et la biologie ?

Le cœur du livre est l’affirmation que la science économique produit des savoirs de même niveau scientifique que la médecine, pour traiter les maux sociaux. Je ne pense pas que cela soit vrai et l’on peut simplement citer le Prix Nobel d’économie 2015, Angus Deaton :

« Je soutiens que les expériences n’ont pas de capacités spéciales à produire un savoir plus crédible que d’autres méthodes, et que les expériences réalisées sont souvent sujettes à des problèmes pratiques qui sapent leur prétention à une supériorité statistique ou épistémologique » (Deaton 2010, je traduis).

La charge est sévère et il ne s’agit pas de nier l’apport des expériences en économie mais de comprendre leurs limites et reconnaître qu’il y a bien d’autres approches en économie (les expériences naturelles ou contrôlées ne concernent qu’un petit pourcentage des travaux empiriques en économie).

Quelles sont les limites des expériences ? Les expériences naturelles permettent seulement de mesurer les effets moyens de premier ordre sans mesurer les effets secondaires (que l’on appelle les effets d’équilibre général) qui peuvent changer considérablement les résultats. Un exemple connu : les travaux du Prix Nobel Heckman (1998) en économie de l’éducation, qui montrent que ces effets d’équilibre général changent considérablement les résultats des expériences, au moins dans certains cas.

Par ailleurs, les expériences ne permettent pas de prendre en compte l’hétérogénéité des effets sur les populations, de bien mesurer les intervalles de confiance, etc. Je laisse ici ces discussions techniques développées dans l’article de Deaton. On peut aussi noter que le pouvoir de généralisation des expériences naturelles est souvent faible, ces expériences étant par construction non reproductibles.

Donnons un exemple : Cahuc et Zylberberg utilisent l’étude de Mathieu Chemin et Etienne Wasmer (2009) sur la comparaison de l’effet de la réduction du temps de travail entre l’Alsace et la France entière pour identifier l’effet sur l’emploi d’une réduction additionnelle de 20 minutes du temps de travail. Ce travail ne trouve pas d’effets d’une réduction additionnelle de 20 minutes du temps de travail sur l’emploi. Peut-on en conclure que le passage à 35 heures, soit une réduction dix fois supérieure du temps de travail, n’a pas d’effets sur l’emploi ? Peut-il y avoir des effets d’interaction entre les baisses de cotisations et la réduction du temps de travail ? Je ne crois pas que l’on puisse affirmer que la seule réduction du temps de travail crée de l’emploi, mais cela me semble difficile d’affirmer scientifiquement que le passage aux 35 heures n’a pas créé d’emplois sur la base des études citées (les auteurs mobilisent aussi l’exemple du Québec où la réduction a été bien plus importante).

L’économiste utilise les données d’une manière bien plus diverse que ce que présentent Cahuc et Zylberberg. Le livre ne parle pas des expériences de laboratoire réalisées en économie (voir Levitt et List, 2007). Ensuite, le rapport de l’économie aux données est en train de changer avec le vaste accès aux données que permet la diffusion du numérique (le big data pour aller vite). Les techniques économétriques feront probablement une utilisation plus intense de l’économétrie structurelle. Dans un travail récent (Challe et al., 2016), nous développons, par exemple, un cadre permettant d’utiliser à la fois des données microéconomiques et macroéconomiques pour mesurer les effets de la grande récession aux Etats-Unis. Enfin, on assiste à un retour de l’histoire économique et des séries longues. Les travaux de Thomas Piketty en sont un exemple, à juste titre remarqué. D’autres travaux, sur l’instabilité financière (notamment ceux de Moritz Schularik et Alan M. Taylor) retrouvent aussi le temps long pour produire de l’intelligibilité. Bref, le rapport aux données en économie mobilise plusieurs méthodes qui peuvent donner des résultats contradictoires.

Ce n’est pas un détail, l’approche scientiste du livre est réductrice. Le livre de Cahuc et Zylberberg affirme une foi dans le savoir issue des expériences naturelles qui ne me semble pas faire consensus en économie.

2) Comment passer à côté des questions importantes

Un aspect du livre montre concrètement le problème de l’approche. Les auteurs sont très sévères envers le CICE (la baisse des cotisations sociales employeurs décidée par le gouvernement jusqu’à 2,5 fois le SMIC) avec comme argument principal qu’il est connu que la baisse des cotisations au voisinage du SMIC a des effets bien plus grands sur l’emploi que pour des niveaux plus hauts de salaire. Ce dernier point est vrai mais les auteurs passent à côté du problème. Quel est-il ?

Les premières années d’existence de l’euro ont vu des divergences inédites du coût du travail et d’inflation entre les pays européens. L’histoire européenne, jusque dans les années 1990, gérait ces divergences par des dévaluations/réévaluations qui ne sont plus possibles du fait de la monnaie unique. La question que les économistes se posent en regardant cette situation est de savoir si la zone euro peut survivre à de tels désajustements (voir les positions récentes de Stiglitz sur le sujet). La discussion s’est portée sur la mise en place de dévaluation interne dans les pays européens surévalués et de hausse de salaires dans les pays sous-évalués. Pour ce faire, l’Allemagne a mis en place un salaire minimum, des pays ont baissé les salaires des fonctionnaires, d’autres ont baissé leurs cotisations (en France, le CICE) sachant que d’autres outils fiscaux sont possibles (voir Emmanuel Farhi, Gita Gopinath et Oleg Itskhoki, 2013). La question cruciale est donc la suivante : 1) Faut-il faire une dévaluation interne en France et de combien ? 2) Si nécessaire, comment faire une dévaluation interne non récessionniste et qui n’augmente pas les inégalités ?

On voit bien le problème si l’on répond à ces questions par l’effet des baisses de cotisations au voisinage du SMIC. Cela montre le danger de ne reposer que sur les seuls résultats mesurables par les expériences : on passe à côté de questions essentielles que l’on ne peut trancher par cette méthode.

3) Le problème du  « keynésianisme »

Les auteurs affirment que le keynésianisme est porteur d’un terreau négationniste tout en affirmant dans le livre que les recettes de Keynes fonctionnent parfois mais pas tout le temps, ce avec quoi tous les économistes seront d’accord. Sans nuances, ces propos sont problématiques. En effet, on assiste dans les années récentes (après la crise des subprimes de 2008) à un retour des visions keynésiennes, qui se voit dans les publications les plus récentes. J’irai jusqu’à dire que nous vivons un moment keynésien avec une grande instabilité financière et de massifs déséquilibres macroéconomiques (Ragot, 2016).

Qu’est-ce donc que le keynésianisme ? (Ce n’est, bien sûr, pas l’irresponsabilité fiscale de toujours plus de dettes publiques) C’est l’affirmation que les mouvements de prix ne permettent pas toujours aux marchés de fonctionner normalement. Les prix évoluent lentement, les salaires sont rigides à la baisse, les taux d’intérêt nominaux ne peuvent être très négatifs, etc. De ce fait, il existe des externalités de demande qui justifient l’intervention publique pour stabiliser l’économie. Le débat français produit des concepts comme « le keynésianisme » ou le « libéralisme » qui n’ont pas de sens dans la science économique. C’est le rôle du scientifique d’éviter les faux débats, pas de les entretenir.

4) Faut-il n’écouter que les chercheurs publiant dans les meilleures revues ?

Le débat public est très différent, dans son but et dans sa forme, du débat scientifique. Cahuc et Zylberberg veulent importer dans le débat public la hiérarchie du débat académique. Cela ne peut pas fonctionner.

On aura toujours besoin d’économistes non-académiques pour discuter des sujets économiques. L’actualité économique suscite des questions auxquelles les académiques n’ont pas de réponse consensuelle. La presse économique est remplie d’avis d’économistes de banques, de marché, d’institutions, de syndicats qui ont des points de vue légitimes tout en étant non-académiques. Des journaux présentent leur point de vue comme Alternatives Economiques, cité par Cahuc et Zylberberg, mais aussi le Financial Times qui mélange aussi les genres. Des économistes avec de faibles références strictement académiques sont légitimes dans ce débat, même s’ils ont des avis différents d’autres chercheurs avec des listes de publication plus fournies.

Ces contradictions sont vécues concrètement à l’OFCE qui a pour mission de contribuer au débat public avec la rigueur académique. C’est un exercice très difficile, il demande une connaissance des données, du cadre juridique, de la littérature académique produite par les institutions, comme le Trésor, l’OCDE, le FMI, la Commission européenne. La connaissance de la littérature économique est nécessaire mais est loin d’être suffisante pour des contributions utiles au débat public.

Un exemple de la volonté des économistes de contribuer au débat public est celui des différentes pétitions autour de la loi El Khomry. Les pétitions ont largement débattu de l’effet des coûts de licenciement sur les embauches et la forme du contrat de travail, mais pas de l’inversion des normes (sujet impossible à évaluer rigoureusement à ma connaissance) qui est pourtant le cœur du débat entre le gouvernement et les syndicats ! Il n’est pas sûr que l’idée de consensus parmi les économistes soit sortie grandie de cet épisode.

5) Lorsque le consensus existe en économie, faut-il n’écouter que lui ?

Le consensus avant la crise des subprimes était que la financiarisation et la titrisation étaient des facteurs de stabilisation économique, du fait de la répartition des risques, etc. Des études microéconomiques pouvaient confirmer ces intuitions car elles ne captaient pas la source réelle de l’instabilité financière, qui était la corrélation des risques dans les portefeuilles des investisseurs. Ce consensus était faux, nous le savons maintenant. Certes des économistes hors du consensus, comme Roubini ou Aglietta, et certains journalistes économistes comme ceux de The Economist, ont alerté des effets déstabilisateurs de la finance, mais ils étaient hors du consensus.

Le politique (et le débat public) est obligé de se demander : que se passe-t-il si le consensus se trompe ? Il doit gérer tous les risques, c’est sa responsabilité. Le point de vue consensuel des économistes est souvent faiblement informatif sur la diversité des points de vue et les risques encourus. La voix publique des économistes hors du consensus est nécessaire et utile. Par exemple, le Prix Nobel d’économie a été remis à Eugène Fama et Robert Schiller qui tous deux ont étudié l’économie financière. Le premier affirme que les marchés financiers sont efficients, le second que les marchés financiers génèrent une volatilité excessive. Des journaux portent des visions hors du consensus, comme Alternatives Economiques en France (au moins c’est dans le titre). Ces journaux sont utiles au débat public, précisément du fait de leur ouverture au débat.

Dans le domaine scientifique, la diversité des méthodes et la connaissance de méthodologie hors du consensus enrichissent le débat. Pour cette même raison, j’étais plutôt contre la création d’une nouvelle section d’économistes hétérodoxes, portée par l’AFEP, car je perçois le coût intellectuel de la segmentation du monde des économistes. Pour cette même raison, la promotion au statut de vérité du consensus des économistes (Cahuc, Zylberberg, p. 185), est gênante, car elle ne tient pas compte des contributions de travaux « minoritaires ».

6) « Le négationnisme économique » : radicalisation du discours

Les auteurs fustigent les critiques idéologiques de l’économie qui ne connaissent pas les résultats ou même la pratique des économistes. La science économique porte de forts enjeux politiques et elle est donc toujours attaquée quand des résultats dérangent. Certaines critiques abaissent le débat intellectuel au niveau d’injures personnelles. La défense de l’intégrité des économistes est bienvenue, mais elle demande une grande pédagogie et modestie pour expliquer ce que l’on sait et ce que l’on ne sait pas.

A la lecture du livre de Cahuc et Zylberberg, on a l’impression que les auteurs prennent les armes de leurs adversaires : on définit deux camps (la vraie science et les négationnistes), on laisse planer des doutes sur l’honnêteté intellectuelle des pseudo-scientifiques hors du consensus, on procède par amalgame, en mélangeant les intellectuels (Sartre) et les économistes académiques. Le titre même du livre procède d’une grande violence. Ce livre témoigne d’une pente dangereuse du débat intellectuel qui va à la fois vers une caricature du débat et une violence verbale. Tous les économistes intervenant dans le débat public se sont déjà fait insulter par des personnes en désaccord avec les résultats présentés, pour de pures raisons idéologiques. Il faut combattre l’insulte, mais pas en laissant penser que l’on peut échapper au débat du fait de son statut académique.

Le débat en Angleterre sur le Brexit a montré comment les économistes et les experts étaient rejetés du fait de leur arrogance perçue. Je ne suis pas sûr que la position scientiste du livre soit une solution à cette évolution du débat public. Pour reprendre Angus Deaton dans un entretien récent au journal Le monde :

« Croire que l’on a toutes les données, c’est manquer singulièrement d’humilité. … Il y a certes un consensus en économie, mais son périmètre est bien plus réduit que ne le pense les économistes ».

 

Références

Angus Deaton, 2010, « Instruments, Randomization, and Learning about Development », Journal of Economic Literature, 48, 424-455.

Edouard Challe, Julien Matheron, Xavier Ragot et Juan Rubio-Ramirez, « Precautionary Saving and Aggregate Demand », Quantitative Economics, forthcoming.

Matthieu Chemin et Etienne Wasmer, 2009 : « Using Alsace-Moselle Local Laws to Build a Difference-in Differences Estimation Strategy of the Employment Effects of the 35-hour Workweek Regulation in France »Journal of Labor Economics, vol. 27(4), 487-524.

Emmanuel  Farhi, Gita Gopinath et Oleg Itskhoki, 2013, « Fiscal Devaluations“, Review of Economic Studies, 81 (2), 725-760.

James J. Heckman, Lance Lochner et Christopher Taber, 1998, « General-Equilibrium Treatment Effects: A Study of Tuition Policy », The American Economic Review, 381-386.

Steven D. Levitt et John A. List, 2007, « What Do Laboratory Experiments Measuring Social Preferences Reveal About the Real World ?  », Journal of Economic Perspectives, Vol. 21, n° 2, 153-174.

Xavier Ragot, 2016, « Le retour de l’économie Keynésienne », Revue d’Economie Financière.

 

[1] Pierre Cahuc et André Zylberberg, Le négationnisme économique et comment s’en débarrasser, Paris, Flammarion, 2016.




C’est quoi une économie de gauche ? (Ou pourquoi les économistes sont en désaccord)

Par Guillaume Allègre

C’est quoi une économie de gauche ? Dans une tribune publiée dans Libération le 9 Juin 2015 (« la concurrence peut servir la gauche », Jean Tirole et Etienne Wasmer répondent qu’être progressiste c’est « partager un socle de valeurs et d’objectifs redistributifs ». Or, comme le soulignent très justement Brigitte Dormont, Marc Fleurbaey et Alain Trannoy (« Non, le marché n’est pas l’ennemi de la gauche », Libération du 11 Juin 2015), réduire le progressisme à la redistribution des revenus est un peu court. Une politique économique de gauche doit aussi se préoccuper de cohésion sociale, de participation à la vie en société, d’égalisation de tous les pouvoirs, objectifs auxquels on peut ajouter la défense de l’environnement et, plus généralement, le juste héritage légué aux générations à venir. Paradoxalement, si la gauche ne doit pas a priori rejeter des solutions de marché (notamment la mise en place d’un marché carbone), la dé-marchandisation des relations fait également partie du socle des valeurs de gauche. Les auteurs de ces deux tribunes insistent sur le fait que ce sont les fins qui comptent et non les moyens : le marché et la concurrence peuvent servir des objectifs progressistes. Ceci n’est pas une idée neuve. Les marchands du XVIIIe siècle avaient déjà compris que la détention d’un monopole privé pouvait leur permettre d’amasser des grandes fortunes. Tirole et Wasmer utilisent des débats plus récents, et notamment la question des taxis, du logement, du Smic, de la régulation du marché du travail et des frais d’inscription à l’université. Leur conclusion, un brin pro domo est premièrement qu’il faut davantage d’évaluations indépendantes et deuxièmement qu’il faut former les élus et les hauts fonctionnaires à l’économie.

La gauche se définit-elle par les valeurs ? Pour accepter une telle proposition, il faut que l’on puisse bien distinguer les faits des valeurs. La science économique se préoccuperait des faits au sens large et déléguerait la question des valeurs au politique. Les désaccords sur les faits seraient exagérés. La différence entre politiques de gauche et politiques de droite ne serait qu’une question de curseur, de valeurs ou de préférences, qui seraient indépendantes des faits. Selon une telle vision, les instruments doivent être conçus par des techniciens bien formés tandis que les politiques se contenteraient de choisir les paramètres. La gauche et la droite seraient alors définies par les paramètres, les progressistes mettant plus de poids dans la réduction des inégalités, tandis que les conservateurs s’occupent relativement plus de la taille du gâteau. Dans un tel schéma, les désaccords entre économistes portent essentiellement sur les valeurs. Paradoxalement, les exemples utilisés par Tirole et Wasmer font l’objet de controverses importantes, ne portant pas seulement sur les valeurs : les économistes sont très divisés sur la libéralisation des taxis, le niveau du Smic, et l’éventuelle mise en place de frais d’inscriptions à l’université. Le désaccord est important, même parmi les économistes progressistes.

Pourquoi ces désaccords ? Les désaccords sur les faits au sens strict sont de moins en moins nombreux. L’appareil statistique a fait des progrès considérables. Il reste toutefois des poches de résistance. Par exemple, concernant les taxis, il est difficile de savoir qui détient les licences et à quel prix elles ont été acquises. Or cette question est très importante. Si la grande majorité des licences sont détenues par des personnes les ayant reçues gratuitement, l’augmentation de l’offre, via les VTC ne pose pas de problème d’équité. Par contre, si la majorité des licences ont été acquises sur le marché secondaire à des prix exorbitants (pouvant atteindre 240 000 euros à Paris), alors la question de l’indemnisation se pose. Racheter 17 000 licences à 200 000 euros coûterait 3,5 milliards d’euros à l’Etat, rien que pour les licences parisiennes. On ne peut balayer ce problème d’un simple « Certes souvent chèrement acquise » (voir : « Taxis vs VTC : la victoire du lobby  contre l’innovation »).

Si les désaccords sur les faits sont rares, le désaccord porte souvent sur ce qui compte. Doit-on plutôt mettre l’accent sur les inégalités de résultats ou sur l’inégalité des chances ? Doit-on comptabiliser les plus-values immobilières lorsque l’on examine les inégalités de capital ? Doit-on se préoccuper de pauvreté relative ou de pauvreté absolue ? Doit-on se préoccuper d’inégalités entre foyers ou entre individus ? On voit par-là que le désaccord n’est pas qu’une question de curseur mais de hiérarchisation des objectifs, qui sont parfois complémentaires et parfois contradictoires. La construction même de l’appareil statistique ne sert pas à produire un fait pur mais résulte bien d’une logique selon laquelle ce qu’on mesure est la représentation d’une norme.  Mais cette norme est de fait réductrice (elle en exclut d’autres) si bien que la mesure n’a de sens qu’à partir du moment où l’on est d’accord sur la valeur de la norme : la mesure n’est jamais neutre vis-à-vis des valeurs.

La vision d’une science économique pouvant distinguer faits et valeurs est donc trop réductrice et il est souvent difficile de distinguer faits et valeurs. Par exemple, selon que l’on mesure l’impact d’une politique fiscale sur les individus ou sur les foyers, elle pourra être qualifiée de redistributive ou d’anti-redistributive. Il n’y a souvent pas de solution aisée pour résoudre ce problème car il est difficile pour le statisticien de savoir comment les revenus sont réellement partagés au sein des ménages. La solution actuelle pour mesurer le niveau de vie et la pauvreté est de faire l’hypothèse d’un partage intégral des ressources au sein du foyer, quelle que soit l’origine des revenus (revenus du travail de l’un ou l’autre des membres, aides sociales, fiscalité, …). Or de nombreuses études montrent que cette hypothèse est fausse pour une grande partie des foyers : les études empiriques montrent ainsi que les dépenses dépendent de qui apporte les ressources, les femmes dépensant une plus grande partie de leurs revenus pour les enfants.

La gratuité du système d’enseignement supérieur est-elle anti-redistributive ? Pour l’opinion commune, c’est une évidence : les étudiants viennent de familles plus aisées et recevront des salaires plus importants que ceux qui n’ont pas fait d’études ; alors que tout le monde paie de l’impôt, notamment la TVA et la CSG. Cette démonstration est vraie si l’on raisonne à un instant t. Par contre, sur le cycle de vie, la question est plus compliquée : de nombreux étudiants n’obtiennent pas d’emplois très rémunérateurs. Les professeurs des écoles, les artistes, les journalistes ont souvent fait de longues études mais perçoivent des rémunérations inférieures à la moyenne. Pour eux, l’imposition sur le revenu est bien plus favorable que de devoir rembourser des frais d’inscription.  A l’inverse, de nombreuses  personnes, qui ont fait peu d’études, reçoivent des rémunérations élevées. Sur le cycle de vie, faire payer l’enseignement supérieur par l’impôt sur le revenu est donc redistributif (voir « Dépenses publiques d’éducation et inégalités. Une perspective de cycle de vie »).

Doit-on mesurer les revenus au niveau du foyer ou des individus ? Sur le cycle de vie ou à un instant donné ? Ces exemples montrent que ce qui est mesuré par les économistes dépend le plus souvent d’une norme. Toutefois, cela ne veut pas dire que la mesure est totalement arbitraire ou idéologique. En fait, la mesure en sciences sociales n’est ni entièrement normative, ni simplement descriptive : faits et normes sont entremêlés.

Les économistes ne raisonnent pas que sur des faits bruts. Ils construisent et estiment des modèles comportementaux. Par-là, ils cherchent à répondre à la question « Et si… ? » : Et si on augmentait le Smic, quel serait l’impact sur l’emploi et les salaires du bas de l’échelle ? On peut ranger la réponse à ces questions dans les faits. Mais contrairement aux faits au sens strict, ils ne sont pas directement observables. Ils sont le plus souvent estimés dans des modèles. Or, les désaccords sur ces « faits » (les paramètres estimés des modèles) sont très importants. Pire, les économistes ont tendance à grandement sous-estimer l’absence de consensus.

Les paramètres estimés par les économistes n’ont de sens qu’au sein d’un modèle donné. Or, le désaccord entre économistes ne porte pas seulement sur les paramètres estimés mais sur les modèles eux-mêmes, c’est-à-dire sur le choix d’hypothèses simplificatrices. De même qu’une carte est une simplification du territoire qu’elle représente, les modèles sont une simplification des règles comportementales que suivent les individus. Choisir ce que l’on simplifie n’est pas sans implication normative La meilleure carte dépend du degré d’exactitude mais aussi du type de voyage que l’on veut effectuer : encore une fois, faits et valeurs sont mêlés. Les différences entre offres politiques ne sont pas seulement paramétriques, elles découlent de représentations différentes de la société.

Ainsi, contrairement à la conclusion de Tirole et Wasmer, l’évaluation en économie ne peut pas être la simple affaire d’experts objectifs. A cet égard, les économistes ressemblent moins à des médecins qu’aux autres chercheurs en sciences sociales : en effet, l’accord sur ce qui constitue une bonne santé est plus facile que sur ce qui constitue une bonne société. Les évaluations économiques doivent ainsi être pluralistes, de façon à refléter du mieux possible la diversité des points de vue dans la société. Ce qui nous sépare de la mise en place des réformes nécessaires, ce n’est pas un déficit de pédagogie de la part des experts et du personnel politique. Ce n’est pas non plus seulement un problème de formation des élites. Il n’y a manifestement pas d’accord entre les experts sur les réformes à mener. Or, les réformes économiques sont souvent trop techniques pour les soumettre à référendum et trop normatives pour les laisser aux « experts ». Pour résoudre ce problème, les conférences de consensus ou jurys citoyens semblent pertinents lorsque le sujet est suffisamment normatif pour que l’on se soucie de la représentativité des participants, et suffisamment technique pour que l’on cherche un avis éclairé. En économie, la question de l’individualisation de l’impôt sur le revenu, ou celle de la compensation d’une taxe carbone pourraient faire l’objet d’une telle conférence. En somme, les économistes sont plus utiles lorsqu’ils explicitent les arbitrages que lorsqu’ils cherchent un consensus de façade.




La crise économique est une crise de la politique économique

par Jean-Luc Gaffard

Quand, dans les années 1970, l’inflation et le chômage augmentent simultanément, la théorie et la politique keynésiennes sont mises en échec. Il n’est plus question de pouvoir arbitrer entre les deux maux et de réguler finement l’activité économique en agissant sur la seule demande globale par le canal du budget. Cet échec et la persistance d’un taux d’inflation élevé finissent par convaincre les décideurs de la nécessité et de l’urgence de combattre prioritairement l’inflation.

La théorie économique imaginée par la nouvelle école classique est venue en support de ce choix politique  en prétendant que l’inflation et le chômage étaient des phénomènes distincts qui devaient faire l’objet de traitements séparés. Si l’inflation dérape, ce sera faute de discipline monétaire. Si le chômage augmente ce sera en raison de rigidités accrues qui affectent le fonctionnement des marchés. La fameuse courbe de Phillips, qui servait de base à l’arbitrage entre les deux, devient théoriquement verticale au moins à long terme. De cette façon, les politiques macroéconomiques sont dissociées des politiques structurelles : les premières sont dédiées à endiguer l’inflation, les secondes à endiguer le chômage. Elles n’ont aucune relation entre elles sinon que les politiques conjoncturelles ne permettent pas à l’économie d’échapper longtemps à la position que déterminent les politiques structurelles et qu’incarne un taux de chômage qualifié de naturel. La faveur de cette théorie tient à la simplicité des recommandations faites aux pouvoirs publics. Ils peuvent (et doivent) se satisfaire de la poursuite du seul objectif d’inflation au moyen d’un seul instrument manié par une Banque centrale devenue indépendante, d’autant que le respect de cet objectif garantit aussi d’atteindre le niveau naturel d’emploi au moindre coût en termes d’inflation. Si d’aventure le taux de chômage est jugé trop élevé, ces mêmes pouvoirs publics ne doivent s’en prendre qu’aux dysfonctionnements des marchés de biens et du travail et décider d’introduire des réformes structurelles parfaitement répertoriées puisqu’elles consistent à libéraliser ces marchés. Dans ce monde merveilleux, la réduction du déficit budgétaire est toujours profitable. Le modèle élémentaire enseigne que, à la suite de cette réduction, le revenu et l’emploi diminuent dans un premier temps, mais que, rapidement, grâce à la baisse du taux d’intérêt, l’investissement privé augmente et avec lui le revenu et l’emploi. Le nouvel équilibre de moyen terme peut même correspondre à un niveau plus élevé du revenu et de l’emploi dès lors que les dépenses privées d’investissement sont réputées plus efficaces que les dépenses publiques. Une banque centrale indépendante et des marchés financiers réputés efficients remplissent la fonction de discipliner les pouvoirs publics en sanctionnant des déficits budgétaires forcément inappropriés.

L’Europe a constitué un champ d’expérimentation privilégié de cette théorie. La politique monétaire y est entre les mains d’une Banque centrale dont les traités garantissent qu’elle est indépendante et imposent qu’elle ait pour seul objectif la stabilité des prix. Les politiques ou les réformes structurelles sont l’affaire des Etats, à charge pour eux de choisir le taux de chômage naturel qu’ils jugent acceptable ou de prendre argument d’un taux de chômage trop élevé pour imposer ces réformes. S’il y a plus de chômage dans un pays que dans un autre, à moyen terme, ce ne peut être qu’en raison de différences structurelles, en l’occurrence de plus fortes rigidités dans le fonctionnement des marchés de ce pays. Qu’il fasse les réformes préconisées et tout rentrera dans l’ordre. La théorie ainsi formulée est censée survivre à la crise : il ne tiendrait qu’à des choix politiques simples que cette Europe retrouve une cohérence perdue. Les pays excessivement endettés n’ont qu’à réduire leurs déficits budgétaires et faire des réformes structurelles trop longtemps retardées pour retrouver croissance, plein emploi et stabilité des prix. Tout au plus, certains proposent-ils de conditionner une forme de mutualisation des dettes à l’engagement de réaliser les réformes structurelles. L’Allemagne, qui les a précédés sur le chemin de cette vertu particulière, n’a rien à craindre de ce scénario, puisque la croissance retrouvée de ses partenaires garantira la pérennité de ses débouchés commerciaux. En outre, il n’est pas nécessaire que la Banque centrale européenne se préoccupe de stabilité financière puisque les marchés punissent les Etats impécunieux et les contraignent à l’austérité budgétaire en poussant à la hausse des taux d’intérêt payés sur leurs dettes.

Tout ce bel édifice repose, entre autres, sur un résultat bâti sur des hypothèses peu robustes : tout accroissement des rigidités notamment sur le marché du travail du fait d’indemnités de chômage, de coûts des licenciements ou de pouvoirs de négociation des salariés plus élevés, déplace la position d’équilibre de long terme de l’économie et produit inéluctablement une hausse du taux de chômage dit naturel. Il est, certes, toujours possible de comparer des équilibres de long terme uniquement distingués par la valeur de certaines données structurelles. Il est osé d’en déduire le chemin qui conduirait de l’un à l’autre. On devrait savoir, depuis l’expérience des années 1930, que les rigidités de prix et de salaires sont un moyen d’enrayer la progression du chômage dans une économie en dépression, c’est-à-dire quand il devient important de bloquer les baisses de prix et de salaires porteuses d’augmentation du poids des dettes privées, et de pression à la baisse sur la demande agrégée. On devrait aussi reconnaître que les réformes structurelles, censées réduire le taux de chômage naturel, ont souvent un impact immédiat de redistribution et de réduction du revenu qui conduit à une hausse du chômage. Or rien ne dit que cette hausse sera transitoire et ne déclenchera pas une réaction en chaîne via la demande globale. Les rigidités restent un facteur de réduction des risques d’instabilité inhérents à tout changement structurel, qu’il s’agisse de réformes dans l’organisation des marchés, d’irruption de nouveaux concurrents sur les marchés ou de ruptures technologiques. Les remettre en cause peut se justifier dans la perspective d’une meilleure affectation des ressources, mais il faut prendre garde au risque d’instabilité qui est encouru. Certes, quand des réformes structurelles tendant à introduire plus de flexibilité affaiblissent la demande interne, le relai de celle-ci pourra être pris par une demande externe stimulée par les baisses de prix. Le taux de chômage peut alors baisser. Mais il est, de fait, exporté vers des pays qui, éventuellement, n’ont pas procédé aux mêmes réformes et dont le chômage ne peut qu’excéder le niveau réputé naturel. Le chacun pour soi commence à l’emporter sur la solidarité.

L’Europe est en train de vivre ce scénario. L’Allemagne, notamment, a réalisé les réformes structurelles requises par la théorie dominante, mais au prix d’une segmentation de son marché du travail, du développement des emplois précaires faiblement rémunérés et, par suite, d’un ralentissement de sa demande interne. Les performances accrues à l’exportation, dues à la qualité des biens, mais aussi à la fragmentation internationale de leur production, compensent ce ralentissement et permettent de contenir sinon de réduire le déficit budgétaire. Le taux de chômage augmente parallèlement dans nombre d’autres pays européens en même temps que leurs déficits budgétaires. La correction exigée par les experts (en fait imposée par les marchés financiers) impliquant simultanément la réduction des dépenses publiques, l’augmentation des impôts et des réformes structurelles a toutes chances de réduire un peu plus la demande domestique de ces pays, d’accroître le déficit de leurs budgets et finalement de peser sur les exportations allemandes. La récession sinon la dépression généralisée est au bout de la route. Sont en cause, non pas les propriétés des équilibres perdus ou recherchés, mais l’enchaînement des déséquilibres internes et externes. Les choses pourraient bien se compliquer encore si les pays concernés voient se creuser les écarts de performance et par suite la divergence de leurs objectifs et de leurs intérêts.

La politique économique est malheureusement plus complexe que ne le voudrait la macroéconomie moderne. Le long terme n’est pas indépendant du court terme. Les objectifs poursuivis ne sont pas indépendants les uns des autres, ni toujours compatibles entre eux. Les politiques qualifiées respectivement de conjoncturelles et de structurelles ne peuvent pas davantage être indépendantes les unes des autres ni dédiées chacune à un objectif unique. Si réformes structurelles il doit y avoir, elles doivent s’accompagner de politiques conjoncturelles expansionnistes afin de contrarier les effets récessifs immédiats susceptibles de s‘amplifier. Pour autant, les politiques conjoncturelles ne suffisent pas à retrouver une croissance forte et régulière

En Europe, il est illusoire et dangereux de penser pouvoir sortir de l’impasse actuelle en généralisant l’austérité budgétaire. Des compromis deviennent nécessaires consistant à accepter certains déséquilibres pour en atténuer d’autres. La seule sortie possible passe par l’acceptation,  pour un temps encore, de déficits budgétaires. Sans rétablissement des bilans des entreprises et des ménages, il n’y a pas d’issue positive à attendre du rétablissement des comptes publics si tant est que l’on y parvienne.

Il n’y a, certes, aucun doute qu’il faut arriver à une plus grande harmonie des situations budgétaires de pays appartenant à une même zone monétaire. Du fédéralisme budgétaire est nécessaire pour faire face au fédéralisme monétaire. Mais le fédéralisme ne s’arrête pas à l’action d’une banque centrale privée de l’essentiel des attributs de sa fonction et ne saurait procéder de contractions budgétaires nationales partagées. Il suppose une réelle solidarité budgétaire impliquant d’intervenir pour éviter l’insolvabilité des Etats qui auraient à supporter des taux d’intérêt extravagants. Il concerne, en outre, les politiques structurelles impliquant, non seulement de s’abstenir de ces réformes qui consistent à exacerber la concurrence fiscale et sociale, mais aussi à promouvoir des projets industriels et technologiques communs financés par un budget européen renforcé grâce à l’instauration d’une taxe fédérale. Les déficits budgétaires des Etats ne seront pas contenus, les objectifs et les intérêts des Etats ne convergeront pas si les moyens conjoncturels et structurels d’une reprise générale de la croissance ne sont pas mis en œuvre.