Comment sauver l’Europe ? Comment changer de paradigme ?

par Xavier Ragot

On assiste à des inflexions nouvelles dans les débats sur la construction européenne. Moins visibles que des déclarations publiques, des conférences essentielles et ateliers se tiennent pour aborder de nouvelles options, sous des angles économiques et politiques différents. Le débat est plus vif en Allemagne qu’en France. En cause probablement le débat caricatural français pendant les élections présidentielles, sur la forme « pour ou contre la monnaie unique », alors que le débat préalable est de discuter comment orienter les institutions de la zone euro au service de la croissance et des inégalités.

Deux conférences ont eu lieu à Berlin à une semaine d’intervalle, considérant les options les plus opposées. La première a abordé les conséquences de la sortie d’un pays de la zone euro ; la seconde la recherche d’un paradigme alternatif pour réduire inégalités en Europe. Autant dire que ces deux conférences couvrent presque tout le spectre des politiques économiques envisageables.

Se faire peur : la fin de la zone euro ?

Première question : Que se passerait-il si un ou plusieurs pays sortaient de la zone euro ? Faut-il le souhaiter ou comment peut-on l’empêcher ? Une conférence a eu lieu le 14 mars avec pour titre « L’euro est-il viable en l’état, et que faire si ce n’est pas le cas ? » a rassemblé des présidents d’instituts influents comme Clemens Fuest, des membres des cinq sages allemands comme Christoph Schmidt et des économistes médiatiques en Allemagne, comme Hans-Werner Sinn, ou encore des économistes comme Jeromin Zettelmeyer. La présence de l’OFCE, en ma personne, a peut-être permis de rappeler des éléments simples, mais utiles.

Cette première conférence a parfois joué sur l’ambiguïté de la question, certaines contributions semblant souhaiter la fin de la zone euro alors que d’autres contributions étaient plus analytiques afin d’en montrer les risques. Dans ces débats la voix de Hans-Werner Sinn est singulière par sa radicalité. Sans aller jusqu’à souhaiter la sortie de l’Allemagne de la zone euro, ce dernier insiste de manière systématique (et biaisée) sur les coûts pour l’Allemagne de la politique monétaire européenne. Sinn insiste en particulier sur le rôle de l’exposition cachée de l’Allemagne à la dette des autres pays par l’intermédiaire de la Banque centrale européenne et de TARGET2, qui enregistre les surplus et déficits des banques centrales nationales vis-à-vis de la Banque centrale européenne. Le solde TARGET2 montre que les pays du sud de l’Europe ont un déficit alors que l’Allemagne a un excédent substantiel de près de 900 milliards d’euros, ce qui représente 30% du PIB allemand. Ces montants sont très importants mais ne sont en aucun cas un coût pour l’Allemagne. Dans le cas le plus extrême d’un non-paiement par une banque centrale nationale (autant dire une sortie de la zone euro), la perte serait partagée par tous les autres États de manière indépendante des surplus. Ces soldes TARGET2 font partie de la politique monétaire européenne pour atteindre un objectif sur lequel on s’était mis d’accord : un niveau d’inflation moyen de 2%. Cette cible n’est pas atteinte depuis de nombreuses années. Par ailleurs, cette politique a conduit à des taux d’intérêt bas dont profitent les Allemands qui paient des charges d’intérêt faibles sur leurs dettes publiques, comme le rappelle Jeromin Zettlemeyer. Enfin, la balance commerciale fortement excédentaire de l’Allemagne montre que l’absence d’ajustement de taux de change dans la zone euro a largement bénéficié à l’Allemagne. Rappelons, que l’Allemagne a exporté plus que la Chine en volume en 2016, selon l’institut allemand Ifo !

Ma présentation s’est basée sur les nombreux travaux de l’OFCE sur la crise européenne. L’OFCE a publié un billet analytique sur les effets d’une sortie de la zone euro en montrant tous les coûts associés. Les travaux de Durand et Villemot fournissent des bases analytiques pour donner des ordres de grandeur. Quelle serait la réduction de la richesse des Allemands en cas d’explosion de la zone euro ? Le résultat n’est, somme toute, pas très surprenant. Les Allemands seraient les premiers perdants avec une perte de richesse de l’ordre de 15% du PIB. Bien sûr, ces chiffres sont extrêmement fragiles, et il faut les interpréter avec la plus grande des prudences. L’explosion de la zone euro nous plongerait dans le domaine de l’inédit, qui nous surprendrait par des déstabilisations que l’on ne soupçonnent pas.

Après ces éléments préliminaires, le cœur de ma présentation s’est ensuite concentré sur un point simple. Notre véritable défi est de construire des marchés du travail cohérents au sein de la zone euro, tout en diminuant les inégalités. Après la politique monétaire commune, la coordination des politiques budgétaires qui a été réalisée dans la douleur après 2014 et les errements des politiques fiscales récessionnistes (l’austérité), la question principale pour l’Europe dans les dix ans à venir est de rendre cohérents les marchés du travail. En effet, une puissante force déstabilisatrice en Europe est la modération salariale en Allemagne, fruit de la difficulté de la réunification au début des années 1990, comme on l’a montré dans un article avec Mathilde Le Moigne. Ce que l’on appelle le problème de l’offre en France est en fait le résultat des divergences européennes sur le marché du travail après la modération salariale allemande. J’ai proposé au Parlement européen l’introduction d’une discussion européenne de la dynamique des salaires nationaux afin de faire converger les salaires de manière non déflationniste et en évitant un chômage élevé dans le sud de l’Europe. Cette coordination des politiques économiques sur le marché du travail est désignée par l’anglicisme wage stance. Coordination de l’évolution des salaires minimums et des salaires réglementés, indication de l’orientation des évolutions salariales pour les négociations sociales, autant d’outils de coordination des marchés du travail.

Un second outil est bien sûr la constitution d’une assurance chômage européenne, qui est bien moins complexe que l’on pourrait le penser. Cette assurance-chômage européenne a vocation à être complémentaire des assurances chômage nationales et non un substitut. En effet, les systèmes nationaux d’assurance chômage sont hétérogènes car, d’une part les marchés du travail sont distincts, et d’autre part les préférences nationales sont différentes. Les systèmes d’assurance chômage sont le fruit de compromis sociaux historiques pour la plupart.

Comment interpréter cette relative radicalité allemande contre l’Europe actuelle ? Peut-être représente-elle le mécontentement d’économistes perdant de l’influence en Allemagne. Cela peut sembler paradoxal, mais nombre d’économistes et d’observateurs allemands évoluent pour reconnaître la nécessité de construire une Europe différente, non assise sur des règles, mais laissant la place à des choix politiques au sein d’institutions fortes. Des institutions agiles et respectées plutôt que des règles. Cette position est associée à la France dans le débat européen : le choix plutôt que la règle. L’accord de coalition allemand qui a rendu possible un gouvernement SPD/CDU place la question européenne au centre de cet accord mais avec un grand flou sur le contenu. Quelques évolutions permettront de tester la pertinence de cette hypothèse, notamment la question d’un ministre de la zone euro, de la nature des règles de décision au sein de l’institution-clé pour résoudre les crises, le mécanisme européen de stabilité.

Europe : Changer de logiciel/modèle/paradigme/narration

Une seconde conférence plus confidentielle s’est avérée plus passionnante encore. Avec la présence de l’European Climate Foundation sur la question du climat, la présence de l’institution INET sur l’évolution de la pensée économique, de l’OFCE sur les déséquilibres européens ; le but de la conférence étant de réfléchir à un changement de paradigme, ou de narration, pour penser une articulation nouvelle entre politique et économie, État et marché, afin de penser une croissance soutenable, sur le plan climatique mais aussi social. Une narration est une vision du monde véhiculée par un langage simple. Ainsi la narration « néolibérale » se construit-elle sur des mots positifs : « concurrence », « marchés », « liberté », et des mots négatifs : « rentes », « interventionnisme », « égalitarisme », qui ont permis de créer un langage. Donald Trump produit une narration tout aussi efficace : « giving power back to the people », « America first » ; cette narration marque le retour du politique sur le mode d’un nationalisme assumé.

Comment construire une autre narration qui place au centre l’évidence de la lutte contre le réchauffement climatique, l’augmentation des inégalités, l’instabilité financière ? Pendant une journée des économistes renommés en Europe ont parlé de l’intelligence artificielle, du réchauffement climatique, des formes actuelles de politiques économiques et industrielles, de la dynamique du crédit et des bulles financières, etc. Des travaux empiriques à la pointe de la recherche et des réflexions sur la possibilité d’un discours cohérent se sont mélangés dans la promesse d’un discours (narration) alternatif. Ce n’est qu’un début. On perçoit là la possibilité d’un renouvellement de la pensée au-delà des clivages politiques pour parler au fond que de l’essentiel : comment mettre l’économie au service d’un projet politique qui ne vise pas à reconstruire des frontières pour exclure mais à penser notre humanité commune ?

Ces deux conférences montrent la vitalité du débat européen, qui est présenté sous un angle trop technique en France. La raison d’être de l’euro, c’est un projet commun. C’est à ce niveau qu’il faut amener le débat avant les échéances électorales européennes de 2019.

image XR

 

 




Trading à haute fréquence et régulation économique, un arbitrage inéluctable entre stabilité et résilience des marchés financiers

par Sandrine Jacob Leal et Mauro Napoletano

Au cours des dernières décennies, le trading à haute fréquence (THF) a fortement augmenté sur les marchés américains et européens. Le THF représente un défi majeur pour les autorités de régulation du fait, d’une part, de la grande variété de stratégies de trading qu’il englobe (AFM, 2010 ; SEC, 2010) et d’autre part des incertitudes qui planent toujours autour des avantages nets de cette innovation financière pour les marchés financiers (Lattemann et al., 2012 ; ESMA, 2014 ; Aguilar, 2015). Par ailleurs, bien que le THF ait été identifié comme l’une des causes probables des krachs éclairs (Jacob Leal et al., 2016), aucun consensus n’a encore réellement émergé sur les causes fondamentales de ces phénomènes extrêmes. Certains pays ont déjà décidé de réguler le THF[*]. Cependant, les approches adoptées jusqu’à présent varient en fonction des régions.

Les problèmes mentionnés ci-dessus renvoient directement au débat sur la régulation économique et son efficacité face aux effets néfastes du THF et des krachs éclairs. Nous contribuons à ce débat dans un nouvel article publié dans la revue Journal of Economic Behavior and Organization, dans lequel nous étudions l’effet d’un ensemble de mesures de régulation au travers d’un modèle multi-agents dans lequel les krachs éclairs émergent de façon endogène (Jacob Leal et Napoletano, 2017). Contrairement à notre précédant modèle (Jacob Leal et al., 2016), nous endogénéisons cette fois l’annulation des ordres caractéristique du THF. Ce modèle est ensuite utilisé comme un laboratoire afin d’étudier l’effet sur les marchés d’un certain nombre de mesures de régulation économique visant le THF. Notre modèle est particulièrement adapté et pertinent dans ce cas car, contrairement aux travaux existants (par exemple, Brewer et al., 2013), il est capable de générer de façon endogène les krachs éclairs, résultat des interactions entre les traders basse fréquence et les traders haute fréquence. Par ailleurs, nous examinons dans ce travail un plus grand nombre de mesures que les travaux existants. Notre objectif étant d’étudier l’effet des mesures de régulation proposées et mises en œuvre en Europe et aux États-Unis face à la montée du THF. La liste comprend des mesures relatives à la microstructure des marchés (comme les « circuit breakers »), des mesures de type « command-and-control » (comme les temps de garde des ordres minimaux) et les mesures qui influencent les incitations des traders (comme les frais d’annulation ou la taxe sur les transactions financières).

Après avoir vérifié la capacité de notre modèle à reproduire les principaux faits stylisés des marchés financiers, nous avons analysé l’efficacité des mesures de régulation économique susmentionnées.

Ainsi, nos résultats démontrent que les tentatives afin de réduire la fréquence d’activité des traders à haute fréquence, en les empêchant par exemple d’annuler fréquemment et rapidement leurs ordres à travers des temps de garde des ordres minimaux ou des frais d’annulation, ont des effets bénéfiques sur la volatilité des marchés et sur les krachs éclairs. Par ailleurs, nous montrons que l’introduction d’une taxe sur les transactions financières produit des résultats similaires (bien que l’ampleur des effets soit moindre) puisque cette mesure décourage le THF.

En résumé, ces mesures qui permettent d’imposer une limite à la vitesse du trading s’avèrent être des instruments efficaces pour réduire la volatilité des marchés et l’occurrence des krachs éclairs. Ces résultats confirment les conjectures de Haldane (2011) quant à la nécessité de s’attaquer à la «course effrénée» des traders HF afin d’améliorer la stabilité financière.

Cependant, nous constatons que ces mesures de régulation engendrent également une plus longue durée des krachs éclairs.

Par ailleurs, nos résultats révèlent que la mise en œuvre des circuit breakers a des effets mitigés. D’une part, l’introduction de circuit-breaker ex ante réduit nettement la volatilité des prix et supprime totalement les krachs éclairs. Ce résultat s’explique par le fait que ce type de mesures permet une intervention en amont de la chute brutale des prix, source du krach. D’autre part, les circuit breakers ex post n’ont aucun effet sur la volatilité des marchés et le nombre des krachs éclairs mais augmentent la durée des krachs éclairs.

En conclusion, nos résultats indiquent qu’en matière de régulation économique du HFT, il y a un arbitrage inéluctable entre la stabilité et la résilience du marché. Ainsi, nous démontrons que les mesures de régulation qui améliorent la stabilité du marché – en termes de volatilité moindre et d’incidence des krachs éclairs – impliquent également une détérioration de la résilience du marché – en termes de capacité réduite du prix des titres à se rétablir rapidement après un krach. Cet arbitrage s’explique par le double rôle joué par le THF dans les dynamiques de notre modèle. En effet, d’une part, le THF s’avère jouer un rôle fondamental à l’origine des krachs éclairs, du fait notamment des larges fourchettes de cotation créées ponctuellement et de la concentration de leurs ordres à la vente. D’autre part, le THF contribue à rétablir rapidement la liquidité du marché favorisant ainsi la reprise du prix des titres à la suite d’un krach.

[*] Certaines actions et enquêtes sans précédent de la part des régulateurs locaux ont été largement rapportées dans la presse (Le Figaro, 2011; Les Echos, 2011; 2014; Le Monde, 2013; Le Point, 2015).

 




Sur la double nature de la dette

par Mattia Guerini, Alessio Moneta, Mauro Napoletano, Andrea Roventini

Les crises financière et économique de 2008 ont été fortement liées à la dynamique de la dette. En fait, une étude de Ng et Wright (2013) rapporte qu’au cours des trente dernières années, toutes les récessions américaines avaient des origines financières.

La figure 1 montre que les dettes des entreprises privées non financières (ligne verte) et les prêts immobiliers (ligne bleue) ont augmenté régulièrement aux Etats-Unis depuis les années 1960 et jusqu`à la fin du XXe siècle. De plus, dans les années 2000, la dette liée au prêts immobiliers est passée d’environ 60% à 100% du PIB en moins d’une décennie. Cette situation est devenue insoutenable en 2008 avec l’explosion de la bulle des crédits hypothécaires (les subprime). Ensuite les prêts immobiliers ont fortement diminué tandis que le ratio dette publique / PIB des États-Unis (ligne rouge) est passé de 60% à un niveau légèrement supérieur à 100% en moins de 5 ans, comme conséquence de la réponse de la politique budgétaire à la Grande Récession.

IMG1_post24-01La forte croissance de la dette publique a suscité des inquiétudes par rapport la soutenabilité des finances publiques et, aussi, sur les possibles effets négatifs de la dette publique sur la croissance économique. Certains économistes ont même avancé l’idée d’un seuil de 90% dans le rapport dette publique/PIB, en dessus duquel la dette publique nuirait à la croissance du PIB (voir Reinhart et Rogoff, 2010). Malgré un grand nombre d’études empiriques contredisant cette hypothèse (voir Herdon et al., 2013 et Égert, 2015 comme exemples récents), le débat entre les économistes est toujours ouvert (voir Ash et al., 2017 et Chudik et al., 2017).

Nous avons contribué à ce débat dans un document de travail (voir Guerini et al., 2017), qui sera publié prochainement dans la revue Macroeconomic Dynamics. Dans cette contribution, nous étudions conjointement l’impact de la dette publique et privée sur la dynamique du PIB américain en exploitant de nouvelles techniques statistiques que nous permettent d’identifier les relations causales entre les variables reposant seulement sur la structure des données[1]. Cela nous a permis de garder une perspective « agnostique » dans l’identification de la causalité et donc plus robuste par rapport aux possibles restrictions suggérées par telle ou telle théorie économique et donc en « laissant parler les données ».

Les résultats obtenus suggèrent que les chocs de dette publique affectent positivement et durablement la production (voir la figure 2, panneau de gauche)[2]. En particulier, nos résultats apportent des preuves contre l’hypothèse selon laquelle la croissance de la dette publique diminue la croissance du PIB aux États-Unis. En effet, nous trouvons que l’augmentation de la dette publique, entraînée par une augmentation des dépenses publiques en investissements, génère aussi des hausses dans les investissements privés (voir la figure 2, à droite) confirmant à cet égard, les conjectures effectuées par Stiglitz (2012). Cela implique que les dépenses publiques et, plus généralement, la politique budgétaire expansionniste stimulent la production à court et à moyen terme. Il en ressort que les politiques d’austérité ne semblent pas être la réponse politique appropriée pour surmonter une crise.

IMG2_post24-01Au contraire, nous ne trouvons pas des effets positifs significatifs liés à une augmentation de la dette privée, et en particulier lorsque l’on se concentre sur la dette liée aux prêts immobiliers. Plus précisément, nous constatons que les effets positifs des chocs sur la dette privée ont une taille plus faible que ceux sur la dette publique, et qu’ils disparaissent avec le temps. En outre, l’augmentation des niveaux de la dette hypothécaire a un impact négatif sur la dynamique de la production et de la consommation à moyen terme (voir la figure 3), tandis que leurs effets positifs ne sont que temporaires et relativement légers. Un tel résultat semble correspondre pleinement aux résultats de Mian et Sufi (2009) et de Jordà et al. (2014): une croissance excessive des prêts immobiliers alimente les bulles réelles d’actifs, mais lorsque ces bulles éclatent, elles déclenchent une crise financière, qui transmet visiblement ses effets négatifs au système économique réel sur un horizon de temps long.

IMG3_post24-01Un autre fait intéressant qui ressort de nos recherches est que l’autre forme la plus importante de dette privée – à savoir la dette des sociétés non financières (SNF) – ne génère pas d’impacts négatifs à moyen terme. En effet (comme on peut le voir dans la figure 4), l’augmentation du niveau d’endettement des SNF semble avoir un effet positif à la fois sur le PIB et sur la formation brute de capital fixe.

IMG4_post24-01

En conclusion, nos résultats suggèrent que la dette a une double nature : différents types de dettes ont un impact différent sur la dynamique macroéconomique agrégée. En particulier, les menaces possibles sur la croissance de la production à moyen et long terme ne semble pas provenir de la dette publique (qui pourrait bien être une conséquence d’une crise), mais plutôt d’une augmentation excessive du niveau de la dette privée. En outre la croissance de la dette liée au prêts immobiliers semble être beaucoup plus dangereuse que celle liée aux activités d’investissement et de production des entreprises non financières.

 

[1] En particulier, nous utilisons un algorithme de recherche causale basé sur l’analyse ICA (Independent Component Analysis) pour identifier la forme structurelle de la VAR cointégrée et résoudre le problème de la double causalité. Pour plus de détails sur l’algorithme ICA, voir Moneta et al. (2013). Pour plus de détails sur ses propriétés statistiques, voir Gourieroux et al. (2017).

[2] Lors du calcul des fonctions de réponse impulsionnelle, nous appliquons un choc de Déviation Standard (DS) à la variable de dette concernée. Ainsi, par exemple, sur l’axe des y de la figure 2, panneau de gauche, on peut lire qu’un choc de 1 DS à la dette publique a un effet positif de 0,5% sur le PIB à moyen terme.




Y aura-t-il un post-capitalisme?

par Branko Milanovic

À propos du livre de Paul Mason, « Postcapitalism: A Guide to our Future », Editions Allen Lane, 2015.  

C’est un livre immensément ambitieux. En moins de 300 pages, Paul Mason explique non seulement les 300 dernières années du capitalisme et les efforts pour le remplacer par un autre système (le socialisme), mais montre comment il sera éventuellement transformé et propose un ensemble de politiques pour aider à cette transformation. De plus, il ne s’agit pas d’un livre superficiel – qui pourrait sembler au premier abord opposer l’énormité du matériel couvert et la taille relativement mince du volume. Il ne faut pas non plus être distrait par le style folklorique utilisé par Mason. Le style peut être journalistique, mais les questions posées, la qualité de la discussion et les objectifs du livre sont de premier ordre.

Le livre peut être lu de plusieurs façons. On pourrait se concentrer sur les trois derniers chapitres qui sont de nature programmatique et destinés à fournir des objectifs positifs à la nouvelle gauche. Ou on pourrait discuter de la croyance de l’auteur dans le développement cyclique du capitalisme conduit par les cycles de Kondratieff à long terme (nous sommes actuellement, selon la lecture de Mason, dans la reprise du cinquième cycle). Ou on pourrait se concentrer sur l’histoire très brève mais puissante des mouvements ouvriers de Mason (chapitre 7) et l’un de ses rares accords avec Lénine selon lequel les travailleurs pourraient au mieux atteindre la « conscience syndicale » et ne pas être intéressés à renverser le capitalisme. Ou on pourrait débattre de l’utilité de la réanimation par Mason de la théorie de la valeur de travail de Marx.

Je ne ferai rien de tout cela car cette critique est relativement courte. Je parlerai de l’opinion de Mason sur l’état actuel du capitalisme et des forces objectives qui, selon lui, le conduisent au post-capitalisme. L’essentiel de l’argumentation de Mason est que la révolution des TIC est caractérisée par d’énormes économies d’échelle qui rendent le coût marginal de production des biens de connaissance proche de zéro, les quantités de capital et de main-d’œuvre incarnées tendant vers zéro. Imaginez un plan électronique de tout ce qui est nécessaire pour l’impression 3D ou bien un logiciel dirigeant le travail des machines : une fois que ces investissements ont été faits, il n’y a pratiquement plus besoin de travail supplémentaire, et puisque le capital a une durée de vie quasi infinie, le capital « incarné » dans chaque unité de production est minimal (« ce que vous voulez idéalement, c’est une machine qui ne s’use jamais, ou celle qui ne coûte rien à remplacer », page 166).

Lorsque le coût marginal de production atteint zéro, le système des prix ne fonctionne plus et le capitalisme standard n’existe plus : si les profits sont nuls, nous n’avons ni classe capitaliste, ni plus-value, ni produit marginal positif du capital, ni travail salarié. Nous approchons du monde de l’abondance de masse où les règles habituelles du capitalisme ne s’appliquent plus. C’est un peu comme le monde du zéro absolu ou le monde où le temps et l’énergie ne font qu’un. C’est en d’autres termes un monde très éloigné de celui que nous habitons actuellement, mais c’est vers là où, selon Mason, nous allons.

Comment les capitalistes peuvent-ils s’en sortir ? Il y a trois manières de s’en sortir. Pour ceux qui ont lu la littérature marxiste du début des années 1910, ils vont s’y retrouver car des questions semblables furent discutées alors. La première manière est de créer des monopoles. C’est exactement ce que font Apple, Amazon, Google et Microsoft maintenant. L’économie peut devenir monopolisée et cartellisée comme elle le fût au cours des dernières décennies du XIXe et des premières décennies du XXe siècle.

La deuxième manière consiste à renforcer la protection de la propriété intellectuelle. C’est encore une fois ce que les sociétés, les producteurs de chansons et Disney que nous venons de mentionner, essaient de faire de plus en plus agressivement en utilisant le pouvoir de l’État. (Le lecteur se rendra compte que la protection des droits de propriété augmente les coûts unitaires en capital et empêche ainsi le coût marginal de production de chuter à zéro.)

La troisième manière est de développer continuellement le « champ d’action » du capitalisme : si les profits d’une zone menacent de chuter à zéro, il convient de passer à une autre zone, « patiner [pour toujours] au bord du chaos », entre expansion de l’offre et baisse des prix, ou trouver de nouvelles choses qui peuvent être commercialisées ou négociées.

Les lecteurs de Rosa Luxemburg reconnaîtront ici une idée connue, à savoir que l’existence du capitalisme dépend de son interaction continue avec les modes de production non capitalistes et que, une fois ceux-ci épuisés, le capitalisme est dirigé vers le monde des profits nuls. Ces préoccupations ont un pedigree encore plus ancien, celui de Ricardo pour qui, sans l’abrogation des Corn Laws, tous les profits des capitalistes sont rongés par les loyers des propriétaires et le développement étouffé, ou la loi de Marx de « la chute tendancielle du taux de profit » causée par une intensité de capital de production toujours plus grande.

Donc les points de Mason à cet égard ne sont pas nouveaux, mais les situer au stade actuel du capitalisme et de la révolution des TIC est nouveau. Les trois façons dont les capitalistes tentent de redresser la baisse inéluctable du taux de profit sont toutes jugées insuffisantes. Si les monopoles étaient un moyen de maintenir le capitalisme, cela impliquerait la fin du progrès technologique. Le capitalisme deviendrait un système « régressif ». Peu de gens devraient être en désaccord avec l’appel de Mason pour supprimer les monopoles tels que Amazon et Microsoft. Il en va de même pour la protection des droits de propriété dont l’application devient de plus en plus difficile.

Ainsi, avec une tendance au profit à zéro et une incapacité à protéger les droits de propriété, la seule solution qui reste est la commercialisation de la vie quotidienne (le nouveau « champ d’action »). C’est ainsi que Mason explique la tendance des capitalistes à passer à des transactions auparavant non marchandes : créer de nouveaux biens à partir de nos maisons que nous louons maintenant à la journée, ou de nos voitures, ou de notre temps libre. Pratiquement chaque interaction humaine devra être codifiée : par exemple les mères se feront payer un centime lorsqu’elles pousseront les enfants des autres sur une balançoire dans la cour de récréation. Mais cela, affirme Mason, ne peut pas continuer. Il y a une limite naturelle à ce que les humains accepteront en termes de marchandisation des activités quotidiennes : « il faudrait traiter les gens s’embrassant gratuitement comme on traitait les braconniers au XIXe siècle » (p. 175).

Les arguments de Mason sont, je pense, très persuasifs à ce stade du livre, mais par la suite je suis tenté de ne plus être d’accord. Son explication de la raison pour laquelle nous traversons une période de marchandisation sans précédent de nos vies personnelles est très juste, mais ses perspectives optimistes sont confrontées à des limites ainsi que son accent sur l’importance croissante des transactions non marchandes (logiciels « open source », écrire des blogs gratuitement, etc.).

Permettez-moi de commencer par ce dernier argument. Mason exagère l’importance des nouvelles technologies ou de nouveaux biens qui sont développés grâce à la coopération et fournis gratuitement. Oui, beaucoup de choses peuvent être accessibles pour rien mais, même si elles semblent être fournies volontairement, il y a, en arrière-plan, un élément mercenaire : vous pouvez écrire un code ou un texte gratuitement mais cela est fait pour influencer les autres, être remarqué et finalement payé pour cela. Mason a probablement écrit son livre gratuitement ; mais le succès du livre fera en sorte qu’il sera payé pour tout ce qu’il dira ou écrira. Donc, se concentrer sur le premier sans inclure le second est trompeur.

Pourquoi son point de vue sur la marchandisation est-il faux ? La marchandisation ne nous est pas seulement imposée de l’extérieur par des entreprises qui veulent trouver de nouvelles sources de profits ; nous participons volontiers à la marchandisation parce que, grâce à une longue socialisation du capitalisme, sa portée est mondiale et atteint ceux qui n’ont pas été socialisés depuis longtemps ; les gens sont devenus des machines à calculer capitalistes. Nous sommes tous devenus un petit centre de la pensée capitaliste, assignant des prix implicites (« fictifs ») à notre temps, à nos émotions ou à nos relations familiales.

Le succès ultime du capitalisme est d’avoir transformé ou développé la nature humaine en faisant de chacun d’entre nous d’excellents calculateurs de « douleur et de plaisir », de « gain ou de perte » au point que même si la production capitaliste disparaissait aujourd’hui, nous vendrions des services les uns aux autres pour de l’argent : nous deviendrions des entreprises. Imaginez une économie (similaire à une économie très primitive) où toute la production est gérée à la maison. Cela semblerait être un modèle parfait d’économie non marchande. Mais si nous avions une telle économie aujourd’hui, elle serait pleinement capitaliste parce que nous vendrions tous ces biens et services les uns aux autres : un voisin ne gardera pas un œil sur vos enfants gratuitement ; personne ne partagera de nourriture avec vous mais vous facturera ; vous ferez payer votre mari pour le sexe et ainsi de suite. C’est le monde vers lequel nous nous dirigeons, et le champ des opérations capitalistes risque donc de devenir illimité parce qu’il inclurait chacun de nous. « L’usine dans le capitalisme cognitif est la totalité de la société » (p. 139). Le capitalisme durera très longtemps parce qu’il a réussi à transformer les humains en machines à calculer dotées de besoins illimités. Ce que David Landes a vu comme l’une des contributions majeures du capitalisme – une meilleure utilisation du temps et une capacité à tout exprimer en termes de pouvoir d’achat abstrait – s’est déplacé maintenant dans nos vies privées. Nous n’avons pas besoin de mode de production capitaliste dans les usines si nous sommes tous devenus des centres capitalistes nous-mêmes.

Ce texte est paru initialement en anglais sur le blog de Branko Milanovic, Global inequality




Eclairage sur le négationnisme économique

Par Pierre Cahuc et André Zylberberg

Nous remercions Xavier Ragot de nous permettre de répondre à son commentaire sur notre ouvrage, Le Négationnisme économique. Comme beaucoup de contradicteurs, Xavier Ragot estime que

1/ « le titre même du livre procède d’une grande violence. Ce livre témoigne d’une pente dangereuse du  débat intellectuel qui va à la fois vers une caricature du débat et une violence verbale »,

2/ notre ouvrage relève « d’une approche scientiste et réductrice » qui « affirme une foi dans le savoir issue des expériences naturelles qui ne lui semble pas faire consensus en économie»,

3/ nous voulons « importer dans le débat public la hiérarchie du débat académique ».

Nous répondons ci-dessus à ces trois assertions avec lesquelles nous sommes en désaccord.

 

1/ Sur le négationnisme économique

L’expression « négationnisme économique » ne caricature pas le débat. Nous l’avons choisie car la notion de « négationnisme scientifique » est une expression consacrée dans les débats sur la science, et nous parlons ici de science. Cette expression est couramment usitée notamment sur le blog scientifique du journal Le Monde, « Passeurs de Sciences », primé meilleur blog dans le domaine scientifique. Notre ouvrage en rappelle la signification, dès l’introduction, et la développe dans le chapitre 7. Nous rappelons que le négationnisme scientifique est une stratégie qui repose sur quatre piliers :

1/ Semer le doute et fustiger « la pensée unique » ;

2/ Dénoncer des intérêts mercantiles ou idéologiques ;

3/ Condamner la science car elle n’explique pas tout ;

4/ Promouvoir des sociétés savantes « alternatives » ;

Cette stratégie a pour but de discréditer des chercheurs qui obtiennent des résultats jugés gênants. Elle affecte toutes les disciplines à plus ou moins grande échelle, comme l’ont montré les ouvrages de Robert Proctor[1] et de Naomi Oreske et Erik Conway[2]. C’est précisément cette stratégie qui est adoptée dans les deux manifestes des Economistes Atterrés[3] et dans l’ouvrage intitulé A quoi servent les économistes s’ils disent tous la même chose[4]. Ces textes s’appuient sur les quatre piliers du négationnisme scientifique rappelé ci-dessus. Ils annoncent haut et fort l’existence d’une pensée unique (pilier 1) cédant peu ou prou aux exigences des marchés financiers (pilier 2), donc incapable de prévoir les crises financières (pilier 3), il en résulte la nécessité de créer des sociétés savantes alternatives (l’AFEP existe déjà mais il est réclamé en plus l’ouverture d’une nouvelle section d’économie à l’Université…) (pilier 4).

Cette stratégie ne nourrit pas le débat. Elle l’annihile. Elle ne vise qu’à discréditer des chercheurs anonymes ou reconnus. Jean Tirole a été récemment la victime d’un tel discrédit de la part de certains économistes auto-proclamés « hétérodoxes ».

 

2/ Sur l’approche scientiste et réductrice.

Xavier Ragot affirme que « la promotion au statut de vérité du consensus des économistes (Cahuc, Zylberberg, p. 185), est gênante, car elle ne tient pas compte des contributions de travaux « minoritaires ». Nous n’érigeons nullement le consensus en vérité, nous disons très précisément (p. 185) que le consensus, lorsqu’il existe, est la meilleure approximation  de la « vérité ». L’usage des guillemets sur le mot vérité et la qualification de meilleure approximation montrent bien que nous ne sommes pas du tout dans l’idée d’un absolutisme scientiste. Notre usage des termes consensus et vérité nous semblent correspondre à l’usage habituel dans la démarche scientifique.

Pour conforter notre position sur ce point, citons encore notre ouvrage pages 184-185 : « Faire confiance à une communauté constituée de milliers de chercheurs reste la meilleure option pour avoir une opinion éclairée sur les sujets que nous ne connaissons pas. C’est néanmoins une forme de pari, car même si la science constitue le moyen le plus fiable de produire des connaissances, elle peut se tromper. Mais douter systématiquement des résultats obtenus par les scientifiques spécialistes de la question posée et préférer se fier à des experts auto-proclamés est bien plus risqué» ; et page 186 : « L’élaboration du savoir est une œuvre collective où chaque chercheur produit des résultats dont la robustesse est testée par d’autres chercheurs. La « connaissance scientifique » est la photographie de cette œuvre collective à un moment donné. C’est l’image la plus fiable de ce que nous savons sur l’état du monde. Cette image n’est pas fixe, elle est même en constante évolution ».

Ainsi, lorsqu’aucune étude empirique sur la réduction de la durée légale ou conventionnelle du travail (hors abaissement de charges) ne trouve d’effet positif sur l’emploi, rien ne permet d’affirmer que réduire la durée du travail puisse créer des emplois… tant qu’aucune étude publiée ne trouve le contraire. Le négationnisme économique consiste à nier ces résultats en affirmant qu’ils procèdent d’une pensée unique guidée par l’ignorance du monde réel ou par une conspiration. Nous affirmons donc que le débat est toujours nécessaire, mais qu’il doit respecter des règles pour être constructif : les arguments avancés doivent s’appuyer sur des contributions qui ont passé la « critique des pairs » pour que leur pertinence soit certifiée. Bien évidemment, sur de nombreux sujets, les études disponibles ne permettent pas de dégager des résultats convergents. Dans ce cas, il faut savoir le reconnaître. Plusieurs exemples illustrent cette situation dans notre ouvrage.

 

3/ Sur nos recommandations pour ouvrir le débat et le rendre transparent

Comme nous l’avons évoqué auparavant, notre objectif n’est pas de clore le « débat intellectuel », accessible au public non spécialiste, mais de le rendre plus constructif et plus informatif. Les débats en économie, même lorsqu’il s’agit simplement de présenter des faits, sont souvent assimilés à des confrontations politiques, ou des pugilats entre divers courants de pensées. Nous disons simplement que pour organiser des débats informatifs (page 209) « les journalistes devraient cesser de faire systématiquement appel aux mêmes intervenants, surtout lorsqu’ils n’ont aucune activité de recherche avérée tout en étant néanmoins capables de s’exprimer sur tous les sujets. Ils devraient plutôt solliciter d’authentiques spécialistes. Le classement de plus de 800 économistes en France sur le site IDEAS peut les aider à sélectionner des intervenants pertinents. Dans tous les cas, il faut consulter les pages web des chercheurs afin de s’assurer que leurs publications figurent dans des revues scientifiques de bon niveau, dont la liste est disponible sur le même site IDEAS. Si un économiste n’a aucune publication au cours des cinq dernières années dans les 1700 revues répertoriées sur ce site on peut en conclure que ce n’est plus un chercheur actif depuis un bon moment, et il est préférable de s’adresser à quelqu’un d’autre pour avoir un avis éclairé. Les journalistes devraient aussi demander systématiquement les références des articles sur lesquels les chercheurs s’appuient pour fonder leurs jugements et, le cas échéant, réclamer que ces articles soient mis en ligne à la disposition des lecteurs, auditeurs ou téléspectateurs ».

Ainsi, loin de vouloir « importer dans le débat public la hiérarchie du débat académique » selon les mots de Xavier Ragot,  nous voudrions simplement que le débat académique soit mieux portée à la connaissance des non-spécialistes afin qu’ils puissent distinguer ce qui relève des incertitudes (ou des consensus) entre chercheurs de ce qui relève des options politiques des intervenants.

 

[1] Golden Holocaust : La Conspiration des industriels du tabac, Sainte Marguerite sur Mer, Équateurs, 2014.

[2] Les Marchands de doute. Ou comment une poignée de scientifiques ont masqué la vérité sur des enjeux de société́ tels que le tabagisme et le réchauffement climatique, Paris, Editions le Pommier, 2012.

[3] Manifeste des économistes atterrés (2010) et Nouveau manifeste des économistes atterrés (2015), éditions LLL.

[4] Editions LLL 2015.

 

 




« Le négationnisme économique » de Cahuc et Zylberberg : l’économie au premier ordre

par Xavier Ragot

Le livre de Pierre Cahuc et André Zylberberg[1] est une injonction à tenir compte des vérités scientifiques de l’économie dans le débat public, face aux interventions cachant des intérêts privés ou idéologiques. Le livre contient des développements intéressants, décrivant les résultats de travaux empiriques utilisant des expériences naturelles pour évaluer des politiques économiques dans le domaine éducatif, de la politique fiscale, de la réduction du temps de travail, etc.

Cependant, le livre est caricatural et probablement contre-productif tant les affirmations sont à la frontière du raisonnable. Au-delà du débat sur les 35 heures ou sur le CICE, c’est le statut du savoir économique dans le débat public qui est en jeu.

1) L’économie est-elle devenue une science expérimentale comme la médecine et la biologie ?

Le cœur du livre est l’affirmation que la science économique produit des savoirs de même niveau scientifique que la médecine, pour traiter les maux sociaux. Je ne pense pas que cela soit vrai et l’on peut simplement citer le Prix Nobel d’économie 2015, Angus Deaton :

« Je soutiens que les expériences n’ont pas de capacités spéciales à produire un savoir plus crédible que d’autres méthodes, et que les expériences réalisées sont souvent sujettes à des problèmes pratiques qui sapent leur prétention à une supériorité statistique ou épistémologique » (Deaton 2010, je traduis).

La charge est sévère et il ne s’agit pas de nier l’apport des expériences en économie mais de comprendre leurs limites et reconnaître qu’il y a bien d’autres approches en économie (les expériences naturelles ou contrôlées ne concernent qu’un petit pourcentage des travaux empiriques en économie).

Quelles sont les limites des expériences ? Les expériences naturelles permettent seulement de mesurer les effets moyens de premier ordre sans mesurer les effets secondaires (que l’on appelle les effets d’équilibre général) qui peuvent changer considérablement les résultats. Un exemple connu : les travaux du Prix Nobel Heckman (1998) en économie de l’éducation, qui montrent que ces effets d’équilibre général changent considérablement les résultats des expériences, au moins dans certains cas.

Par ailleurs, les expériences ne permettent pas de prendre en compte l’hétérogénéité des effets sur les populations, de bien mesurer les intervalles de confiance, etc. Je laisse ici ces discussions techniques développées dans l’article de Deaton. On peut aussi noter que le pouvoir de généralisation des expériences naturelles est souvent faible, ces expériences étant par construction non reproductibles.

Donnons un exemple : Cahuc et Zylberberg utilisent l’étude de Mathieu Chemin et Etienne Wasmer (2009) sur la comparaison de l’effet de la réduction du temps de travail entre l’Alsace et la France entière pour identifier l’effet sur l’emploi d’une réduction additionnelle de 20 minutes du temps de travail. Ce travail ne trouve pas d’effets d’une réduction additionnelle de 20 minutes du temps de travail sur l’emploi. Peut-on en conclure que le passage à 35 heures, soit une réduction dix fois supérieure du temps de travail, n’a pas d’effets sur l’emploi ? Peut-il y avoir des effets d’interaction entre les baisses de cotisations et la réduction du temps de travail ? Je ne crois pas que l’on puisse affirmer que la seule réduction du temps de travail crée de l’emploi, mais cela me semble difficile d’affirmer scientifiquement que le passage aux 35 heures n’a pas créé d’emplois sur la base des études citées (les auteurs mobilisent aussi l’exemple du Québec où la réduction a été bien plus importante).

L’économiste utilise les données d’une manière bien plus diverse que ce que présentent Cahuc et Zylberberg. Le livre ne parle pas des expériences de laboratoire réalisées en économie (voir Levitt et List, 2007). Ensuite, le rapport de l’économie aux données est en train de changer avec le vaste accès aux données que permet la diffusion du numérique (le big data pour aller vite). Les techniques économétriques feront probablement une utilisation plus intense de l’économétrie structurelle. Dans un travail récent (Challe et al., 2016), nous développons, par exemple, un cadre permettant d’utiliser à la fois des données microéconomiques et macroéconomiques pour mesurer les effets de la grande récession aux Etats-Unis. Enfin, on assiste à un retour de l’histoire économique et des séries longues. Les travaux de Thomas Piketty en sont un exemple, à juste titre remarqué. D’autres travaux, sur l’instabilité financière (notamment ceux de Moritz Schularik et Alan M. Taylor) retrouvent aussi le temps long pour produire de l’intelligibilité. Bref, le rapport aux données en économie mobilise plusieurs méthodes qui peuvent donner des résultats contradictoires.

Ce n’est pas un détail, l’approche scientiste du livre est réductrice. Le livre de Cahuc et Zylberberg affirme une foi dans le savoir issue des expériences naturelles qui ne me semble pas faire consensus en économie.

2) Comment passer à côté des questions importantes

Un aspect du livre montre concrètement le problème de l’approche. Les auteurs sont très sévères envers le CICE (la baisse des cotisations sociales employeurs décidée par le gouvernement jusqu’à 2,5 fois le SMIC) avec comme argument principal qu’il est connu que la baisse des cotisations au voisinage du SMIC a des effets bien plus grands sur l’emploi que pour des niveaux plus hauts de salaire. Ce dernier point est vrai mais les auteurs passent à côté du problème. Quel est-il ?

Les premières années d’existence de l’euro ont vu des divergences inédites du coût du travail et d’inflation entre les pays européens. L’histoire européenne, jusque dans les années 1990, gérait ces divergences par des dévaluations/réévaluations qui ne sont plus possibles du fait de la monnaie unique. La question que les économistes se posent en regardant cette situation est de savoir si la zone euro peut survivre à de tels désajustements (voir les positions récentes de Stiglitz sur le sujet). La discussion s’est portée sur la mise en place de dévaluation interne dans les pays européens surévalués et de hausse de salaires dans les pays sous-évalués. Pour ce faire, l’Allemagne a mis en place un salaire minimum, des pays ont baissé les salaires des fonctionnaires, d’autres ont baissé leurs cotisations (en France, le CICE) sachant que d’autres outils fiscaux sont possibles (voir Emmanuel Farhi, Gita Gopinath et Oleg Itskhoki, 2013). La question cruciale est donc la suivante : 1) Faut-il faire une dévaluation interne en France et de combien ? 2) Si nécessaire, comment faire une dévaluation interne non récessionniste et qui n’augmente pas les inégalités ?

On voit bien le problème si l’on répond à ces questions par l’effet des baisses de cotisations au voisinage du SMIC. Cela montre le danger de ne reposer que sur les seuls résultats mesurables par les expériences : on passe à côté de questions essentielles que l’on ne peut trancher par cette méthode.

3) Le problème du  « keynésianisme »

Les auteurs affirment que le keynésianisme est porteur d’un terreau négationniste tout en affirmant dans le livre que les recettes de Keynes fonctionnent parfois mais pas tout le temps, ce avec quoi tous les économistes seront d’accord. Sans nuances, ces propos sont problématiques. En effet, on assiste dans les années récentes (après la crise des subprimes de 2008) à un retour des visions keynésiennes, qui se voit dans les publications les plus récentes. J’irai jusqu’à dire que nous vivons un moment keynésien avec une grande instabilité financière et de massifs déséquilibres macroéconomiques (Ragot, 2016).

Qu’est-ce donc que le keynésianisme ? (Ce n’est, bien sûr, pas l’irresponsabilité fiscale de toujours plus de dettes publiques) C’est l’affirmation que les mouvements de prix ne permettent pas toujours aux marchés de fonctionner normalement. Les prix évoluent lentement, les salaires sont rigides à la baisse, les taux d’intérêt nominaux ne peuvent être très négatifs, etc. De ce fait, il existe des externalités de demande qui justifient l’intervention publique pour stabiliser l’économie. Le débat français produit des concepts comme « le keynésianisme » ou le « libéralisme » qui n’ont pas de sens dans la science économique. C’est le rôle du scientifique d’éviter les faux débats, pas de les entretenir.

4) Faut-il n’écouter que les chercheurs publiant dans les meilleures revues ?

Le débat public est très différent, dans son but et dans sa forme, du débat scientifique. Cahuc et Zylberberg veulent importer dans le débat public la hiérarchie du débat académique. Cela ne peut pas fonctionner.

On aura toujours besoin d’économistes non-académiques pour discuter des sujets économiques. L’actualité économique suscite des questions auxquelles les académiques n’ont pas de réponse consensuelle. La presse économique est remplie d’avis d’économistes de banques, de marché, d’institutions, de syndicats qui ont des points de vue légitimes tout en étant non-académiques. Des journaux présentent leur point de vue comme Alternatives Economiques, cité par Cahuc et Zylberberg, mais aussi le Financial Times qui mélange aussi les genres. Des économistes avec de faibles références strictement académiques sont légitimes dans ce débat, même s’ils ont des avis différents d’autres chercheurs avec des listes de publication plus fournies.

Ces contradictions sont vécues concrètement à l’OFCE qui a pour mission de contribuer au débat public avec la rigueur académique. C’est un exercice très difficile, il demande une connaissance des données, du cadre juridique, de la littérature académique produite par les institutions, comme le Trésor, l’OCDE, le FMI, la Commission européenne. La connaissance de la littérature économique est nécessaire mais est loin d’être suffisante pour des contributions utiles au débat public.

Un exemple de la volonté des économistes de contribuer au débat public est celui des différentes pétitions autour de la loi El Khomry. Les pétitions ont largement débattu de l’effet des coûts de licenciement sur les embauches et la forme du contrat de travail, mais pas de l’inversion des normes (sujet impossible à évaluer rigoureusement à ma connaissance) qui est pourtant le cœur du débat entre le gouvernement et les syndicats ! Il n’est pas sûr que l’idée de consensus parmi les économistes soit sortie grandie de cet épisode.

5) Lorsque le consensus existe en économie, faut-il n’écouter que lui ?

Le consensus avant la crise des subprimes était que la financiarisation et la titrisation étaient des facteurs de stabilisation économique, du fait de la répartition des risques, etc. Des études microéconomiques pouvaient confirmer ces intuitions car elles ne captaient pas la source réelle de l’instabilité financière, qui était la corrélation des risques dans les portefeuilles des investisseurs. Ce consensus était faux, nous le savons maintenant. Certes des économistes hors du consensus, comme Roubini ou Aglietta, et certains journalistes économistes comme ceux de The Economist, ont alerté des effets déstabilisateurs de la finance, mais ils étaient hors du consensus.

Le politique (et le débat public) est obligé de se demander : que se passe-t-il si le consensus se trompe ? Il doit gérer tous les risques, c’est sa responsabilité. Le point de vue consensuel des économistes est souvent faiblement informatif sur la diversité des points de vue et les risques encourus. La voix publique des économistes hors du consensus est nécessaire et utile. Par exemple, le Prix Nobel d’économie a été remis à Eugène Fama et Robert Schiller qui tous deux ont étudié l’économie financière. Le premier affirme que les marchés financiers sont efficients, le second que les marchés financiers génèrent une volatilité excessive. Des journaux portent des visions hors du consensus, comme Alternatives Economiques en France (au moins c’est dans le titre). Ces journaux sont utiles au débat public, précisément du fait de leur ouverture au débat.

Dans le domaine scientifique, la diversité des méthodes et la connaissance de méthodologie hors du consensus enrichissent le débat. Pour cette même raison, j’étais plutôt contre la création d’une nouvelle section d’économistes hétérodoxes, portée par l’AFEP, car je perçois le coût intellectuel de la segmentation du monde des économistes. Pour cette même raison, la promotion au statut de vérité du consensus des économistes (Cahuc, Zylberberg, p. 185), est gênante, car elle ne tient pas compte des contributions de travaux « minoritaires ».

6) « Le négationnisme économique » : radicalisation du discours

Les auteurs fustigent les critiques idéologiques de l’économie qui ne connaissent pas les résultats ou même la pratique des économistes. La science économique porte de forts enjeux politiques et elle est donc toujours attaquée quand des résultats dérangent. Certaines critiques abaissent le débat intellectuel au niveau d’injures personnelles. La défense de l’intégrité des économistes est bienvenue, mais elle demande une grande pédagogie et modestie pour expliquer ce que l’on sait et ce que l’on ne sait pas.

A la lecture du livre de Cahuc et Zylberberg, on a l’impression que les auteurs prennent les armes de leurs adversaires : on définit deux camps (la vraie science et les négationnistes), on laisse planer des doutes sur l’honnêteté intellectuelle des pseudo-scientifiques hors du consensus, on procède par amalgame, en mélangeant les intellectuels (Sartre) et les économistes académiques. Le titre même du livre procède d’une grande violence. Ce livre témoigne d’une pente dangereuse du débat intellectuel qui va à la fois vers une caricature du débat et une violence verbale. Tous les économistes intervenant dans le débat public se sont déjà fait insulter par des personnes en désaccord avec les résultats présentés, pour de pures raisons idéologiques. Il faut combattre l’insulte, mais pas en laissant penser que l’on peut échapper au débat du fait de son statut académique.

Le débat en Angleterre sur le Brexit a montré comment les économistes et les experts étaient rejetés du fait de leur arrogance perçue. Je ne suis pas sûr que la position scientiste du livre soit une solution à cette évolution du débat public. Pour reprendre Angus Deaton dans un entretien récent au journal Le monde :

« Croire que l’on a toutes les données, c’est manquer singulièrement d’humilité. … Il y a certes un consensus en économie, mais son périmètre est bien plus réduit que ne le pense les économistes ».

 

Références

Angus Deaton, 2010, « Instruments, Randomization, and Learning about Development », Journal of Economic Literature, 48, 424-455.

Edouard Challe, Julien Matheron, Xavier Ragot et Juan Rubio-Ramirez, « Precautionary Saving and Aggregate Demand », Quantitative Economics, forthcoming.

Matthieu Chemin et Etienne Wasmer, 2009 : « Using Alsace-Moselle Local Laws to Build a Difference-in Differences Estimation Strategy of the Employment Effects of the 35-hour Workweek Regulation in France »Journal of Labor Economics, vol. 27(4), 487-524.

Emmanuel  Farhi, Gita Gopinath et Oleg Itskhoki, 2013, « Fiscal Devaluations“, Review of Economic Studies, 81 (2), 725-760.

James J. Heckman, Lance Lochner et Christopher Taber, 1998, « General-Equilibrium Treatment Effects: A Study of Tuition Policy », The American Economic Review, 381-386.

Steven D. Levitt et John A. List, 2007, « What Do Laboratory Experiments Measuring Social Preferences Reveal About the Real World ?  », Journal of Economic Perspectives, Vol. 21, n° 2, 153-174.

Xavier Ragot, 2016, « Le retour de l’économie Keynésienne », Revue d’Economie Financière.

 

[1] Pierre Cahuc et André Zylberberg, Le négationnisme économique et comment s’en débarrasser, Paris, Flammarion, 2016.