Les gains de productivité de 2010 à 2019 en France : le rôle des performances productives et des réallocations

Sébastien Bock, Aya Elewa et Sarah Guillou

L’évolution de la productivité agrégée est un déterminant essentiel de la croissance économique. La productivité mesure l’efficacité avec laquelle les ressources productives sont mobilisées pour produire de la valeur. Elle résulte directement des performances productives des entreprises qui elles-mêmes découlent de la capacité des entreprises à optimiser leur processus de production dans un environnement en constante évolution.

Néanmoins, l’évolution de la productivité agrégée dépend aussi de la réallocation des ressources. Ces mouvements de ressources se manifestent par le déplacement des parts de marché entre entreprises pérennes mais aussi par l’entrée et la sortie d’entreprises résultant des dynamiques industrielles et concurrentielles.



Le rapport sur le tissu productif français publié par l’OFCE le 18 octobre 2023 analyse l’évolution de la productivité en France sur la décennie 2010-2019. Il interroge dans quelles mesures les performances productives des entreprises et les réallocations de ressources contribuent à l’évolution de la productivité et quels sont les secteurs générateurs de gains de productivité. Ce post synthétise ses principaux résultats et envisage les perspectives futures.

Des gains de productivité modestes au cours de la dernière décennie

L’analyse de l’évolution de la productivité nécessite tout d’abord de mesurer l’efficacité avec laquelle les entreprises produisent. Pour ce faire, nous estimons la productivité globale des facteurs (PGF) de chaque entreprise selon la méthode de Wooldridge (2009). Les données d’entreprises mobilisées proviennent des fichiers FARE et de la base tous salariés (BTS) de l’INSEE de 2010 à 2019. Nous considérons uniquement les entreprises du secteur marchand hors agriculture, immobilier et finance.

Ensuite, nous agrégeons les PGF des entreprises pour obtenir la PGF agrégée[1]. Cet indicateur mesure l’efficacité avec laquelle l’ensemble des facteurs de production tels que la main-d’œuvre, le capital et les matières premières se combinent pour produire les biens et services. L’augmentation de la PGF mesure le supplément de production qui n’est pas imputable à l’accroissement de ces facteurs de production mais qui provient d’un ensemble de phénomènes tels que le progrès technique, l’innovation, les changements institutionnels, des changements organisationnels et des caractéristiques idiosyncratiques des entreprises. Les résultats indiquent que la productivité agrégée du secteur marchand tel que défini plus haut croît modérément de 3,2 % sur l’ensemble de la période 2010-2019.

Enfin, nous décomposons l’évolution de la PGF agrégée selon la méthode de Melitz et Polanec (2015). Le taux de variation de la PGF entre 2010 et 2019 est donc décomposé en trois composantes principales :

Evolution de la productivité en pourcentage = Effet d’apprentissage des entreprises pérennes + Effet d’allocation des entreprises pérennes + Effet net des entrées d’entreprises.

L’effet d’apprentissage (EP) mesure la contribution de l’évolution de la productivité interne des entreprises pérennes à structure de marché fixe. Il capture l’influence de l’évolution des performances productives au sein des entreprises issue d’une utilisation plus efficace de leurs ressources. L’effet d’allocation (EA) mesure la contribution des déplacements des parts de marché entre entreprises pérennes. L’effet net des entrées (EN) détermine dans quelle mesure les déplacements de ressources issus des entrées et sorties d’entreprises contribuent aux gains de productivité. Ce dernier terme correspond à la somme des contributions des entrées et sorties d’entreprises.

Des gains de productivité tirés par la réallocation de l’activité entre entreprises pérennes et affectés par la détérioration des performances productives internes des entreprises

Les enseignements de la décomposition montrent que les entreprises pérennes contribuent pour 3,7 points de pourcentage (pp) aux gains de productivité agrégée grâce à la réallocation de l’activité entre entreprises pérennes, des moins productives vers les plus productives (6,9 pp) alors que l’évolution de la productivité interne des entreprises contribue négativement (-3,2 pp). Les entrées d’entreprises concourent négativement à l’évolution de la productivité agrégée pour -9,2 pp tandis que les sorties concourent positivement pour 8,7 pp. Dès lors, l’effet net des entrées est de -0,5 pp. Les entrées-sorties contribuent donc négativement à l’évolution de la productivité mais l’effet est quantitativement faible. Finalement, les gains de productivité de la décennie pré-Covid résulte d’une dynamique de restructuration de l’activité plutôt que d’une amélioration des performances productives propres aux entreprises pérennes.

Une hétérogénéité sectorielle importante mais une meilleure allocation des ressources dans les secteurs affichant des gains de productivité

On constate une forte hétérogénéité dans l’évolution de la productivité des différents secteurs. Le graphique 1 reporte la décomposition de l’évolution des productivités sectorielles ainsi que celle du secteur marchand dans son ensemble. Certains secteurs voient leur productivité croître comme le secteur manufacturier de haute technologie (HT) et de basse technologie (BT), l’eau et l’électricité, le commerce, les loisirs et autres services, les services scientifiques et techniques et le transport aérien. En revanche, l’industrie extractive, les services TIC, les services juridiques et comptables, le transport, la construction et l’hôtellerie-restauration affichent une productivité décroissante entre 2010 et 2019.

Bien qu’on retrouve aussi une disparité dans les déterminants de l’évolution des productivités sectorielles, l’effet d’allocation contribue toujours positivement pour les secteurs qui affichent des gains de productivité. La PGF du secteur du manufacturier de haute technologie croît de 22,8 %. L’effet d’allocation y contribue pour 17 pp s’ajoutant aux 5,5 pp de l’effet d’apprentissage. Le secteur du manufacturier basse technologie connaît une croissance de 2,9 % de sa productivité. L’effet d’allocation explique pour 3,9 pp de cette croissance mais il est en grande partie effacé par un effet d’apprentissage négatif de -3,3 pp. De même, la PGF du secteur du commerce croît de 14 % dont 13,7 pp lié à l’effet d’allocation entre entreprises pérennes. La PGF des services scientifiques et technologiques connaît une croissance de 20,8 % tirée principalement par l’effet d’allocation pour 17,7 pp.

Au sein des secteurs où la productivité décline, on observe généralement une contribution négative de l’effet d’apprentissage. La productivité des industries extractives décroît de 10 %. Cette décroissance est entièrement tirée par l’effet d’apprentissage pour -13,4 pp. On observe le même effet pour les secteurs de la construction, l’hôtellerie et la restauration et le transport. Ces secteurs ont une productivité qui décroît de 3,3 %, 21 % et 9,2 % respectivement. Cette décroissance est tirée par l’effet négatif d’apprentissage pour respectivement -9,2 pp, -12,7 pp et -3,5 pp. En revanche, on distingue quelques exceptions dans les services. La productivité des services TIC diminue de 5,7 %. Cette diminution est gouvernée par l’effet net négatif des entrées d’entreprises (- 34,9 pp) qui est en partie compensée par l’effet positif d’apprentissage (13,6 pp). Ce secteur affiche donc une amélioration des performances productives des entreprises pérennes mais les entrées-sorties ont dégradé la productivité de ce secteur. La productivité du secteur des services juridiques et comptables a chuté de 33,5 % alors que l’effet d’apprentissage et l’effet net des entrées ont limité cette baisse.

Les dynamiques de productivité intra-sectorielles plus que les réallocations d’activité entre secteurs gouvernent l’évolution agrégée

Bien que les tendances de productivité propres à chaque secteur influent sur les gains de productivité agrégée, les modifications de la composition sectorielle peuvent y contribuer également. Ainsi, les variations de la productivité agrégée sont décomposées en un effet de composition (EC) et un effet intra-sectoriel (EI). Le premier effet mesure la contribution des changements de composition sectorielle en matière de valeur ajoutée à niveau de productivité sectorielle donné. Le second effet quantifie la contribution des variations des productivités sectorielles à composition donnée. L’effet intra-sectoriel est décomposé comme précédemment selon la méthode Melitz et Polanec (2015). Le tableau affiche les résultats de ces décompositions.

À structure sectorielle d’activité constante, la PGF agrégée aurait crû de 2,9 % tandis qu’à productivités sectorielles constantes, elle aurait crû de seulement 0,3 %. Ainsi, les dynamiques intra-sectorielles de productivité contribuent pour près de 90 % à la croissance de la PGF sur la période 2010-2019. Les gains de productivité issus des dynamiques intra-sectorielles de productivité proviennent principalement de trois secteurs : le manufacturier de haute technologie (2,6 pp), le commerce (3,2 pp) et les loisirs et autres services (1,1 pp). Conformément aux résultats énoncés précédemment, l’effet d’allocation explique la totalité de l’effet intra-sectoriel avec une contribution de 3,7 pp. L’activité s’est déplacée vers des entreprises relativement plus productives au cours de la période au sein des secteurs. Là encore, le secteur manufacturier de haute technologie, le commerce et les loisirs et autres services sont les principaux contributeurs pour respectivement 1,9 pp, 2,1 pp et 0,3 pp. Au contraire, l’effet d’apprentissage et l’effet net des entrées intra-sectoriel contribuent négativement à l’évolution de la productivité agrégée pour -0,6 pp et -0,2 pp respectivement.

La contribution positive du changement de structure sectorielle indique que l’activité économique s’est légèrement déplacée vers des secteurs en moyenne plus productifs au cours de cette période. Les gains de productivité issus du changement de composition sectorielle de l’activité proviennent du déplacement de l’activité du secteur du Manufacturier de basse technologie (-3,8 pp), de la construction (-2,3 pp), des services TIC (-2,9 pp) et du secteur du transport (-1,2 pp) vers le manufacturier de haute technologie (1,3 pp), des services administratifs (3,5 pp), des services juridiques et comptables (1,6 pp), des loisirs et autres services (2,1 pp), de l’hôtellerie et de la restauration (1,6 pp) et des services scientifiques et techniques (1,2 pp).

La perspective de gains de productivité futurs fragilisée par un environnement économique turbulent

L’analyse des composantes de la dynamique de la productivité agrégée indique que les gains de productivité de 2010 à 2019 en France ont principalement été tirés par les réallocations de l’activité entre entreprises pérennes. Les entreprises les plus productives ont gagné des parts du marché. Ces gains de productivité reposent sur la prépondérance des dynamiques intra-sectorielles de productivité plutôt que de changements de composition sectorielle de l’activité.  Au contraire, les performances productives internes des entreprises pérennes se sont détériorées. Ce dernier résultat interroge sur la pérennité de la croissance économique à moyen et à long terme. Cette inquiétude n’a guère été évincée par les évolutions issues du choc de la pandémie.

En effet, une analyse préliminaire du début de la crise sanitaire montre une chute de la productivité issue d’une détérioration accrue des performances productives internes des entreprises, soulignant la difficulté des entreprises à ajuster leur capacité de production au choc de demande et aux restrictions sanitaires imposées. En outre, la mise en place massive d’aides de soutien aux entreprises par le gouvernement, si elle a permis d’éviter un délitement du tissu productif, a probablement partiellement bloqué la réallocation des ressources vers les entreprises plus productives (Guillou, Mau et Treibich, 2023).

La résolution de la crise devrait conduire à une résorption progressive de la chute de productivité (Valla et Aussilloux, 2023). D’une part, la levée des restrictions sanitaires permet un retour à la normale de l’activité améliorant mécaniquement les performances productives internes des entreprises. D’autre part, la capacité d’adaptation organisationnelle des entreprises durant la crise engendrera probablement aussi des gains de productivité. Par exemple, le développement de la pratique du télétravail pourrait impacter positivement la productivité des entreprises selon les conditions de sa mise en place (Bergeaud, Cette et Drapala, 2023), tout comme les investissements réalisés en logistique et en numérisation de l’appareil productif entrepris pendant la crise (Banque de France, 2022).

Néanmoins, des éléments plus récents sur l’évolution de l’environnement économique ne laissent pas présager un rattrapage rapide de la productivité à son niveau d’avant crise. Les entreprises feront face à des difficultés croissantes à ajuster leur capacité de production. Par exemple, les difficultés d’approvisionnement et les tensions sur le marché du travail impacteront très certainement la capacité des entreprises à ajuster leur processus de production aux évolutions de la demande (Dauvin, 2022 ; OFCE, 2022). En outre, la politique monétaire restrictive menée par la Banque Centrale Européenne à travers la montée des taux d’intérêt réduira l’accès au crédit des entreprises alors qu’elles sortent de la crise plus endettées (Banque de France, 2023). Les effets sur la productivité d’une telle politique sont ambigus (Aghion et al., 2018). D’une part, une dégradation de l’accès au crédit réduit la capacité des entrepreneurs à innover affectant ainsi négativement les performances productives internes des entreprises. D’autre part, cette détérioration de l’accès au crédit peut accélérer la sortie du marché des entreprises les moins productives et potentiellement offrir des opportunités à de nouvelles entreprises plus performantes et innovantes, entraînant ainsi une amélioration de l’efficacité allocative. Enfin, la nécessité de la transition écologique offre de nouvelles opportunités économiques mais impose aussi aux entreprises de s’adapter à de nouvelles contraintes qui ne manqueront pas de marquer le tissu productif (Pisani-Ferry et Mahfouz, 2023 ; Valla et Aussilloux, 2023).


[1] La PGF agrégée correspond à la moyenne des logarithmes des PGF des entreprises pondérés par leur poids dans la valeur ajoutée.




L’Inflation Reduction Act américain : une loi mal nommée

par Sandrine Levasseur[1]

Le 10 août 2023, soit moins d’un an après avoir signé l’Inflation Reduction Act ou « Loi de réduction de l’inflation », Joe Biden exprimait le regret de l’avoir ainsi nommée, ladite loi ayant selon lui « moins à voir avec la réduction de l’inflation qu’avec des mesures génératrices de croissance économique ». Par cette déclaration, sévèrement commentée par son adversaire Donald Trump, Joe Biden entérinait ainsi l’une des conclusions phare des diverses évaluations menées depuis un an, à savoir l’absence d’impact notable de l’Inflation Reduction Act (IRA) sur… l’inflation !



Dans ce qui suit, nous revenons sur la genèse de l’IRA et son contenu ainsi que sur le contexte macroéconomique dans lequel fut discutée puis votée la loi. Nous passons aussi en revue les évaluations de son impact sur les grandeurs macroéconomiques et, en premier lieu, sur l’inflation. Certes, les arcanes de la politique américaine nous demeureront toujours fermées, mais vu d’Europe (et de France), l’intitulé de ladite loi et sa budgétisation nous apparaissent rétrospectivement comme relevant d’une concession faite au Sénateur Manchin en vue d’obtenir son vote au Congrès dans un contexte de résurgence de l’inflation. Pour autant, rien n’indique non plus que l’IRA serait porteuse d’inflation comme ses détracteurs, notamment dans le camp républicain, le claironnent depuis plus d’un an.

Genèse et contexte de l’Inflation Reduction Act

Au commencement de l’Inflation Reduction Act (IRA), il y eut le Build Back Better Act (BBBA) ou « Loi pour reconstruire en mieux ». Visant à insuffler un nouveau souffle à l’économie américaine post-Covid, le BBBA consistait en un vaste programme de réformes sociales et environnementales proposées par l’administration de Joe Biden à la suite de son élection à la présidence des États-Unis en janvier 2021. Le BBBA, qui devait bénéficier initialement d’un montant de dépenses de 3 000 milliards de dollars, fut vidé d’une partie de sa substance après de multiples détricotages destinés à faire accepter le projet de loi au Sénat. Ainsi, le texte adopté le 19 novembre 2021 par la Chambre des représentants (la chambre basse du Congrès), avant qu’il ne soit présenté au Sénat (la chambre haute du Congrès) en décembre, portait sur des dépenses déjà réduites à 1 800 milliards de dollars.

Le BBBA fut vivement critiqué, y compris au sein du camp démocrate de Joe Biden, pour son impact sur les finances publiques mais aussi sur l’inflation. Notamment, le Sénateur Manchin dont la voix était cruciale pour remporter le vote, s’était clairement opposé à tout projet de loi qui ne donnerait pas lieu à une baisse du déficit public d’au moins 300 milliards de dollars et dont l’impact serait inflationniste.

Les débats autour du BBBA, puis de l’IRA, sont intervenus dans un contexte bien particulier. Depuis le début de l’année 2021, des pressions inflationnistes étaient à l’œuvre un peu partout dans le monde, mais encore davantage aux États-Unis (graphique 1). Le taux d’inflation américain avait ainsi dépassé la cible des 2 % en mars 2021 pour atteindre les 7 % en décembre 2021 au moment où le BBBA fut présenté au Sénat. Ces fortes pressions inflationnistes coïncidaient avec deux années de soutien budgétaire sans précédent depuis la guerre de Corée : au cours des années 2020 et 2021, quelque 5 200 milliards de dollars ont été injectées dans l’économie américaine, soit l’équivalent de 24 points de PIB de 2019. La concomitance du creusement des déficits publics (15,4 % du PIB en 2020 et 13,8 % en 2021 contre 5,4 % en 2019) et la reprise de l’inflation alimentèrent un vif débat entre économistes américains dont se nourrirent les représentants au Congrès et les sénateurs[2].

D’un côté, les défenseurs d’un soutien budgétaire massif à l’économie américaine ont mis en avant les facteurs d’offre comme responsables de l’inflation : goulots d’étranglement et ruptures des chaînes de valeurs post-Covid ont été analysés comme les principaux facteurs explicatifs des pressions inflationnistes. De l’autre côté, les opposants aux déficits publics ont argué de l’exacerbation de l’inflation par le biais d’une demande élevée du fait des mesures de soutien aux revenus des ménages américains. C’est dans ce contexte politique tendu, porté à son paroxysme par le déclenchement de la guerre en Ukraine en février 2022 et la crise énergétique qui suivit, que le Sénat américain échoua à obtenir un vote positif en faveur du BBBA. Le printemps puis le début de l’été 2022 vont alors donner lieu à des tractations politiques dont le dénouement intervint à la fin juillet avec la présentation de… l’Inflation Reduction Act auquel le Sénateur Manchin donna son approbation.

Principales dispositions budgétaires de l’IRA

Voté le 7 août 2022, l’IRA constitue une version allégée du BBBA reprenant l’essentiel des mesures liées à l’environnement et à la santé mais abandonnant toutes les mesures sociales visant à réduire les inégalités, notamment en termes d’éducation et de logement.

Le tableau 1 synthétise l’évaluation budgétaire des grandes dispositions de l’IRA réalisée par le Bureau budgétaire du Congrès américain (Congressional Budget Office, CBO) et, en miroir, celle réalisée par des chercheurs de l’Université de Pennsylvanie au moyen du modèle Wharton (Penn Wharton Budget Model, PWBM). Dans les deux cas, les évaluations ont été publiées en août 2022.

Les évaluations du CBO et du PWBM aboutissent, globalement, à un même impact de l’IRA sur le déficit public américain. Celui-ci serait réduit de 250 à 300 milliards de dollars sur les dix prochaines années, soit l’équivalent de 0,13 point de PIB annuellement.

Du côté des dépenses, l’IRA comporte deux volets. Le premier volet consiste en des mesures de lutte contre le réchauffement climatique, l’objectif étant de réduire de 50 % les émissions de gaz à effet de serre (EGES) à l’horizon 2030 par rapport à 2005. Plus précisément, les mesures prennent la forme de crédits d’impôt octroyés, d’une part, aux entreprises qui réalisent des investissements dans la production et l’utilisation d’énergies propres et d’autre part, aux ménages qui achètent des véhicules électriques et réalisent des travaux d’amélioration thermique de leur logement[3]. Des bonus sont également octroyés aux entreprises dès lors que les investissements dans la production d’énergies propres répondent à un certain contenu en intrants (matières premières critiques, biens intermédiaires et travail) d’origine nord-américaine et ce, selon des formules un peu complexes et évolutives au cours du temps[4]. De même, le crédit d’impôt dont peuvent bénéficier les ménages pour l’acquisition d’un véhicule électrique (VE), d’un montant maximal de 7 500 dollars, est lui aussi soumis à des exigences de contenu en intrants d’origine nord-américaine[5]. Enfin, les crédits d’impôt cesseront d’être versés une fois les objectifs d’EGES atteints. Autrement dit, l’évaluation de ce premier volet de dépenses est soumise à une certaine incertitude puisqu’elle dépend des hypothèses de comportements retenues pour les ménages et les entreprises et des disponibilités d’intrants nord-américaines (voir plus bas). Pour leur part, le CBO et le PWBM ont évalué les dépenses de l’IRA liées à la protection du climat à un peu moins de 370 milliards de dollars sur 10 ans (tableau 1).

Le second volet de l’IRA comporte un ensemble de mesures visant à diminuer les frais de santé des ménages modestes, en prolongeant la « Loi des soins abordables » (Affordable Care Act).

Du côté des recettes, ce second volet est assorti de dispositions visant à limiter les hausses de prix de certains médicaments (par exemple, le prix de l’insuline). Au total, selon les estimations du CBO, le coût budgétaire de la prolongation de l’Affordable Care Act s’élève à 64 milliards tandis que les dispositions visant à borner le prix des médicaments permettront aux finances publiques d’engranger une économie de 288 milliards de dollars (tableau 1). Les laboratoires pharmaceutiques participeront donc de manière importante au financement de l’IRA[6]. Les évaluations des dispositions relatives à la santé du PWBM sont du même ordre de grandeur que celles du CBO, à 20 milliards de dollars près sur 10 ans (tableau 1). Comparées aux évaluations des dispositions relatives à l’environnement, celles relatives à la santé ont donné lieu à peu de discussions. Si critique il y a, elle porte sur l’impact potentiellement négatif du plafonnement du prix des médicaments sur l’innovation pharmaceutique.

Les autres recettes de l’IRA proviennent de rentrées fiscales consistant, d’une part, en impôts sur les grandes entreprises (à hauteur de 313 milliards selon le CBO) au travers de l’instauration d’un taux minimum de 15 % sur le revenu des sociétés et, d’autre part, en gains d’efficience dans la collecte des impôts (à hauteur de 125 milliards) du fait de la modernisation des services fiscaux américains. Enfin, une réforme portant sur les reports d’intérêts des gestionnaires de capital-investissement devrait accroître les recettes fiscales de 13 milliards de dollars selon le CBO. Les estimations du PWBM concernant les rentrées fiscales liées à l’IRA sont concordantes avec celles du CBO, à 50 milliards de dollars près sur 10 ans (table 1).

Les évaluations budgétaires concurrentes de l’Inflation Reduction Act (IRA)

Les évaluations du CBO et du PWBM ne font pourtant pas consensus, notamment celles relatives aux dépenses liées au climat et à l’énergie (voir l’étude du Crédit Suisse (2022), celle de Goldman Sachs (2023), Cole et al. (2023), Bistline et al. (2023) et celle de PWBM (2023) qui actualise PWBM (2022)). En résumé, celles-ci pourraient être majorées par un facteur 2, voire par un facteur 3, portant ainsi leur montant à (grossièrement) 800 milliards, voire 1 200 milliards de dollars sur un horizon temporel de 10 ans contre moins de 400 milliards selon le CBO ou le PWBM (tableau 1).

La non-concordance dans les évaluations porte essentiellement sur deux éléments : (a) la massification des véhicules électriques et (b) le déploiement des capacités d’électrification.

Concernant (a), un examen détaillé des évaluations budgétaires du CBO montre que l’acquisition de véhicules électriques (VE) par les ménages et les entreprises est dotée de 14 milliards de dollars à l’horizon de 10 ans. Or, un calcul tenant compte des règles de bonus pour l’acquisition de VE montre qu’au maximum 1,8 million de VE bénéficiera de l’IRA à l’horizon de 10 ans selon le CBO. Sachant qu’aux États-Unis, environ 16 millions de véhicules font l’objet de nouvelles immatriculations chaque année, cela signifie que le CBO a évalué à 1,1 % la part des VE éligibles aux bonus de l’IRA dans les nouvelles immatriculations. C’est infime au regard des déclarations de Joe Biden (qui a émis un souhait de 50 % de VE dans les nouvelles immatriculations) ou des estimations censées mieux refléter les préférences des ménages américains pour les VE (entre 20 % selon Larsen et al. (2022) et 70 % selon Goldman Sachs (2023)). À titre d’exemple, Bistline et al. (2023) ont évalué à 390 milliards de dollars le coût budgétaire des VE dans le cadre de l’IRA, ce qui correspond à une part des VE de 44 % dans les nouvelles immatriculations en 2030 (contre 32 % dans un scénario contrefactuel sans IRA).

Cependant, la prise en compte des contraintes liées au contenu en intrants nord-américains des VE pourrait réduire le déploiement des VE bénéficiant des crédits d’impôt de l’IRA, de même que le prix des VE encore très élevé. Il faut avoir à l’esprit qu’en 2022, la Chine représentait plus des 2/3 des parts de marché mondiales de batteries électriques contre environ 10 % pour les États-Unis. La capacité de l’industrie américaine à développer son secteur des batteries électriques (et pour cela à disposer de suffisamment de matières premières critiques) est donc cruciale pour un recours massif aux subventions de l’IRA[7].

Concernant (b), la vitesse de déploiement des capacités d’électrification dépendra, entre autres, du coût des technologies « propres » (éolien, solaire) mais aussi de celui des capacités de transport et de stockage de l’électricité. Le territoire américain est en effet un grand territoire et l’endroit où l’énergie peut être facilement produite n’est pas forcément celui où elle est très demandée (cas de l’éolien). Là encore, la disponibilité de matières premières critiques sera cruciale pour réaliser les investissements en capacité de production électrique. Selon les hypothèses de modélisation retenues, les capacités d’électrification additionnelles sont évaluées entre 40 et 120 gigawatts par an (voir Bistline et al., 2023). À titre d’exemple, dans leur scenario central, Bistline et al. (2023) évaluent les crédits d’impôt octroyés au titre du déploiement de ces capacités additionnelles à 320 milliards de dollars contre 131 milliards dans l’évaluation du CBO[8].

En avril 2023, le PWBM a procédé à une réévaluation des dépenses budgétaires imputables à l’IRA pour les multiplier lui aussi par un facteur 3. En résumé, à de rares exceptions près, les évaluations du CBO constituent la fourchette basse des évaluations du coût budgétaire de l’IRA.

Impacts macro-économiques de l’IRA

Les modélisations mobilisées par le CBO et l’Université de Pennsylvanie (en août 2022) pour évaluer l’impact macroéconomique de l’IRA aboutissent à la même conclusion : l’IRA n’aura aucun effet sur l’inflation et ce, quel que soit l’horizon temporel retenu. Plus généralement, les modélisations montrent que les effets de l’IRA sur le PIB, la productivité et l’emploi seront faibles relativement à un scénario sans IRA et ce, y compris à long terme (Moodys, 2022 ; Tax Foundation, 2022). Même les modélisations qui contredisent les évaluations budgétaires du CBO n’invalident pas ces conclusions (Bistline et al., 2023).

De prime abord, l’absence d’impact de l’IRA sur l’inflation peut surprendre, eu égard à l’intitulé de la loi. Il est intéressant d’avoir à l’esprit qu’au moment de son vote en août 2022, Joe Biden lui-même a présenté l’IRA comme une loi diminuant le prix de certaines catégories de biens (ceux de l’énergie, ceux des médicaments) plutôt que diminuant le prix de l’ensemble des biens. Bistline et al. (2023) évaluent la baisse des prix de l’électricité au détail imputable à l’IRA à 2,2 % par an à l’horizon 2030 et à 5,4 % à l’horizon 2040. Les évaluations de Roy et al. (2022) vont dans le même sens : ils estiment la baisse des prix de l’électricité au détail imputable à l’IRA comprise entre 5,7 et 6,7 % à l’horizon de 10 ans.

Deux éléments permettent de comprendre pourquoi l’impact de l’IRA sur l’inflation, et plus généralement sur les autres variables macroéconomiques (PIB, salaires, productivité, emploi), sera plutôt limité quel que soit l’horizon considéré :

1. Les dépenses en médicaments et en énergie représentent seulement une petite part du budget des ménages américains. Le poids des prescriptions de médicaments dans l’indice des prix à la consommation américain (IPC) s’établit en effet à 1 % et celui de l’électricité et du gaz naturel à 3,6 %. Dès lors, l’impact d’une baisse du prix de l’énergie et des soins de santé ne peut avoir qu’un impact négligeable sur le niveau agrégé des prix et donc sur l’IPC américain. Selon Larsen et al. (2022), à l’horizon 2030, un ménage américain épargnera l’équivalent de 112 dollars par an du fait de la baisse des coûts de l’énergie. Sur une base de 123,6 millions de ménages américains, cela représente annuellement moins de 14 milliards de dollars, soit 0,06 point de PIB. Plus largement, Roy et al. (2022) estiment qu’un ménage américain moyen économisera annuellement entre 170 et 220 dollars chaque année au cours de la prochaine décennie du fait de factures d’électricité réduites et de coûts des biens et services plus faibles. Au niveau agrégé, l’économie réalisée par les ménages américains serait de l’ordre de 21,5 à 28 milliards de dollars par an, soit 0,09 à 0,12 point de PIB.

2. La réduction du déficit budgétaire imputable à l’IRA, telle qu’évaluée par le CBO, est elle-même faible, de l’ordre de 0,13 point de PIB annuellement. Même si on retient l’hypothèse d’un coût budgétaire plus élevé de l’IRA du fait d’un recours aux crédits d’impôt plus important qu’escompté initialement, le supplément d’impôts payés par les entreprises du fait d’une activité économique davantage stimulée viendra amortir l’impact sur les finances publiques américaines. Il serait donc possible, non pas que le déficit public baisse comme projeté par le CBO, mais qu’il augmente. En point de PIB, l’augmentation du déficit public serait cependant relativement faible y compris si les dépenses budgétaires imputables à l’IRA venaient à être multipliées par un facteur 3.

De la même façon, les pressions inflationnistes liées à la relocalisation d’activités sur le territoire américain où le coût de production est plus élevé qu’à l’étranger (en termes de matières premières et de salaires) verront leur impact « dilué » au niveau macroéconomique.

L’IRA : une concession politique faite aux opposants au BBBA (i.e. au Sénateur Manchin) ?

Compte tenu de l’absence d’impact notable de l’IRA sur l’inflation, on peut s’étonner de son intitulé. Pourquoi ne pas l’avoir nommé, par exemple, Climate Change Act puisque c’est au fond ce que porte cette loi, à savoir l’importance du changement climatique, au-delà de son mode de financement par l’impôt sur les entreprises.

Les discussions entourant le BBBA, nous l’avons rappelé, interviennent dans un contexte économique et politique particulier. Les États-Unis renouaient avec des hausses de prix sans précédent depuis 40 ans que certains, dont le sénateur Manchin, attribuaient à des soutiens budgétaires trop importants. En juillet 2022, au moment où ce dernier négociait le contenu du BBBA à la baisse, le taux d’inflation américain frôlait les 9 % et constituait une variable très scrutée par la population. De son côté, Joe Biden ne pouvait faire l’économie d’une loi portant des ambitions climatiques : il lui fallait concrétiser son retour dans les accords de Paris auprès de ses partenaires internationaux et ainsi satisfaire son électorat de gauche sensibilisé aux questions écologiques. Joe Biden se devait donc de trouver un accord avec le sénateur Manchin. D’où la tentation forte de laisser nommer la nouvelle mouture du BBBA « loi de réduction de l’inflation ». Après tout, elle promettait a minima la baisse des prix des médicaments et de l’énergie … « It fit the politics of the moment ».


[1] Je remercie Christophe Blot, Sarah Guillou et Xavier Ragot pour leurs discussions et remarques sur une précédente version de ce texte. Les éventuelles erreurs et omissions demeurent de ma seule responsabilité.

[2] Sur le débat, on pourra consulter, outre Aurissergues, Blot et Bouzou (2021), les travaux de Bianchi et al.(2021), Ball et al. (2022) ou encore Jorda et al. (2022).

[3] Voir Bistline et al. (2023) et Kleimann et al. (2023) pour davantage de détails.

[4] L’origine nord-américaine des intrants inclut, outre les États-Unis, le Canada et le Mexique.

[5] Concernant les VE, l’exigence de contenu en intrants d’origine nord-américaine est cependant levée lorsque le véhicule est acquis en leasing.

[6] Les prix des médicaments américains sont parmi les plus élevés au monde.

[7] A ce jour, les ventes de VE aux États-Unis se sont révélées plutôt décevantes. Depuis le 1er janvier 2023, date d’entrée en application de l’IRA, on observe seulement une légère accélération des immatriculations de VE : elles ont atteint, en moyenne mensuelle, 91 109 unités au cours du 1er semestre 2023 contre 63 045 unités sur l’année 2022, soit respectivement 6,9% et 5,3 % des nouvelles immatriculations de véhicules (source : Automotive News). Pour certains modèles de VE, pourtant éligibles aux subventions de l’IRA, les délais de livraison se sont substantiellement raccourcis, voire les stocks ont commencé à augmenter. Le prix des VE, encore élevé, et l’anxiété d’autonomie (range anxiety) liée à la crainte de ne pouvoir recharger la batterie au moment opportun, constitueraient à ce jour les principaux freins à l’émergence de la VE aux États-Unis. L’accroissement des investissements dans les infrastructures de recharge est censé réduire à terme l’anxiété d’autonomie des automobilistes américains.

[8] Un an après la signature de l’IRA, 50 projets de production d’énergies renouvelables ont été recensés par Bank of America, pour un montant total de 30 milliards de dollars et la création de 18 000 emplois. Pour autant, ces investissements ne devraient se matérialiser qu’à partir de 2024 ou 2025 et aucun chiffrage n’a été avancé concernant leur impact sur les finances fédérales. Cependant, si on suit la pratique usuelle consistant à l’évaluer à hauteur de 40 % des investissements, cet impact se monterait à ce jour à 12 milliards de dollars pour des capacités additionnelles d’électrification de 25 gigawatts. Selon Bank of America, un certain nombre de projets dans l’éolien a été mis en attente faute de clarté suffisante dans la législation, d’où des investissements encore très timides dans la production d’énergies renouvelables.




Pour ouvrir le débat : dix observations à propos du rapport “Les incidences économiques de l’action pour le climat”

par Jean-Luc Gaffard [1]

Introduction Le rapport Les incidences économiques de l’action pour le climat [2] propose une approche des problèmes posés par la transition écologique étayée sur un ensemble de réflexions et d’analyses qui a le mérite de formuler un scénario argumenté, clair et cohérent pouvant servir de guide à la politique économique. Le propos qui suit est d’ouvrir le débat sur les choix assumés dans le rapport, en tout premier lieu celui de plaider pour un rythme accéléré d’une transition qui, de ce fait, a immédiatement un coût élevé et doit être pilotée par l’État. Si une telle accélération devait provoquer des destructions excessives et cumulatives, le problème pourrait se poser dans des termes différents car il faudrait concilier le temps propre en l’occurrence du changement climatique avec celui des mutations des structures productives et des habitudes de consommation, ce qui aurait pour effet de mettre au centre du jeu le comportement des entreprises et des institutions financières en présence d’irréversibilité et d’incertitude.



1. Le rapport Les incidences économiques de l’action pour le climat énonce trois propositions. Une mutation rapide du tissu productif est nécessaire pour répondre à l’ampleur du changement climatique. Elle doit résulter de choix publics au contraire de ce qui s’est produit dans le cas des mutations énergétiques précédentes qui étaient longues à prendre place et relevaient du choix des entreprises guidé par les forces du marché. Le montant considérable des investissements publics requis devra être financé par la dette publique ou la fiscalité.

Première observation. Le scénario que ces propositions décrivent n’est confronté à aucun autre, au motif d’être compatible avec le scénario national bas carbone et de répondre à l’urgence climatique qui prime sur toute autre considération et devient l’unique objectif. Il a une dimension essentiellement macroéconomique et ne retient pour engager la transition climatique que la seule action publique dont l’efficacité est subordonnée à la capacité du gouvernement de s’en donner les moyens. Le propos de ce qui suit est d’en établir certaines limites.

2. Le discours repose sur la modélisation de trajectoires optimales qui répondent à des objectifs techniques de réduction des émissions de gaz à effet de serre. Il est avant tout question de remplacer un capital « brun » par un capital « vert », un capital « carboné » par un capital « décarboné », au terme d’une phase de transition au cours de laquelle il faut s’attendre à un ralentissement temporaire des gains de productivité et de la croissance.

Deuxième observation. Le changement relève d’un mécanisme de substitution de capital physique à des ressources fossiles sous l’influence du progrès technique, un mécanisme qui était déjà celui retenu en réponse au défi de la finitude du stock de ces ressources sur laquelle alertait le Rapport du Club de Rome paru en 1972[3]. Pourtant, ce n’est pas d’une simple substitution de facteurs dont le résultat serait connu dont il s’agit, mais d’une substitution de processus. À l’irréversibilité qui tient à l’épuisement des stocks de ressources primaires (et à l’accumulation du stock de carbone) s’ajoute celle liée à la non-transférabilité de nombre d’équipements et de qualifications[4]. Une capacité de production ancienne doit être détruite et une nouvelle doit être construite. Un tel processus de destruction créatrice (au sens de Schumpeter de rupture d’un équilibre), non seulement prend du temps, mais s’inscrit également dans un contexte où à l’irréversibilité des décisions d’investissement vient s’ajouter une incertitude relative à l’information sur les technologies et les préférences futures. Les déséquilibres peuvent perdurer voire s’amplifier. De telle sorte qu’il est difficile de s’abstraire de la question de la viabilité du sentier suivi comme conséquence de ce qui est une véritable révolution industrielle.

3. Sans nier la possibilité de survenance de déséquilibres notamment sous la forme de chômage et d’inflation, l’analyse présente des changements économiques définis par des nouvelles technologies et de nouvelles préférences. Seule est alors débattue la question du rythme du changement dont la réponse est dans les mains des pouvoirs publics et dont il est recommandé l’accélération.

Troisième observation. Cette analyse mise sur la connaissance par les décideurs publics des technologies et des préférences, y compris à moyen terme. Or les facteurs d’incertitude y compris d’ordre géopolitique restent considérables. Une transition brutale et rapide pourrait alors se traduire par des destructions répétées d’actifs physiques et humains liées à des bifurcations successives dues à des erreurs d’anticipation notamment sur la nature des technologies avec comme conséquence possible des difficultés rencontrées par les entreprises une hausse du taux de chômage et des baisses de revenus qui menaceraient la viabilité de la transition.

En arrière-plan des déséquilibres sectoriels (entre offre et demande), se profilent des distorsions dans la structure temporelle du tissu productif, entre construction et utilisation de capacités de production, qui tiennent à ce que les investissements coûtent avant de rapporter un revenu avec comme conséquence que les ressources libérées, qu’il s’agisse de ressources financières ou de ressources humaines (les qualifications) sont insuffisantes au regard des besoins des nouvelles activités. Le revenu global, le niveau global de l’emploi et les gains de productivité s’en trouvent affectés négativement[5].

Les déséquilibres sectoriels induisent des réactions le plus souvent asymétriques – prix et salaires étant plus flexibles à la hausse qu’à la baisse – avec pour effet d’une variance accrue une augmentation simultanée du taux d’inflation et du taux de chômage[6]. Ces phénomènes traduisent la dépendance de sentier qui lie le nouveau à l’ancien. L’amplification de l’un ou de l’autre est d’autant moins exclue que les déséquilibres sont fortement accrus d’entrée de jeu du fait d’une transformation trop brutale et trop rapide de l’appareil productif.

4. La mutation est assimilée à un choc d’offre auquel doit répondre un changement des préférences impulsé par des incitations notamment sous la forme de subventions publiques. Le bien-être reste implicitement établi en relation avec les fonctions d’utilité individuelles et renvoie à ce que devrait être la société au terme de la transition. Dès lors, se posent, uniquement, deux questions : celle d’une mesure de l’utilité qui inclurait des aspects non monétaires, hors des aspects environnementaux, et celle de l’existence de biais cognitifs, qui appellerait l’introduction de correctifs.

Quatrième observation. Le bien-être n’est pas mis en rapport avec les changements intervenus dans les conditions de production et de répartition, et donc avec les déséquilibres qui surgissent en cours de route comme conséquence de ces changements[7]. Rien n’est dit de la façon dont l’évolution des montants et de la structure des revenus influence les préférences, qu’il s’agisse des effets sur la taille des marchés ou des effets d’hystérèse sur les choix individuels. Des préférences existent initialement, de nouvelles préférences définies a priori répondent à l’urgence écologique, ce qui se passe en cours de route est supposé n’avoir aucun effet sur le point d’arrivée. La théorie économique « ordinaire » du bien-être est sauve puisque, in fine, production et répartition reflèteront les préférences retenues d’emblée comme optimales (par la collectivité) au regard de la contrainte environnementale. Il est pourtant difficile de négliger aussi bien l’influence en cours de route sur la production de l’évolution des volumes et de la structure de la demande que l’inertie des habitudes de consommation. De là, sans doute, la nécessité d’éviter des ruptures trop brutales du côté de la production et leurs effets destructifs.

5. La transition a des effets sur les inégalités attribués dans le rapport, non aux différences de revenus, mais à d’autres dimensions de la différenciation entre les ménages que sont le type de logement ou le type de lieu de résidence, ce qui implique d’établir des règles de redistribution sur d’autres critères que les critères de revenu. Il est avant tout question de partage équitable des sacrifices à l’aide de dispositifs conditionnels de soutien public particulièrement délicats à mettre en œuvre.

Cinquième observation. Les différences de sacrifice entre ménages, qui ne sont pas directement attribuées aux écarts de revenus, leur sont souvent corrélées. En outre, la répartition primaire des revenus liée à la qualité des emplois et aux niveaux de salaire n’est pas prise en considération alors que la transition appelle une restructuration du tissu productif et une recomposition des métiers dont il faudrait considérer les effets précisément sur la qualité des emplois et les niveaux de salaires au lieu de tout miser sur la redistribution bien que cela reste difficilement modélisable.

6. Le financement public de la transition repose sur un redéploiement des dépenses publiques, principalement les dépenses fiscales, un endettement public accru et un alourdissement de la fiscalité. Le redéploiement des dépenses dont le potentiel est significatif n’est pas jugé suffisant à lui seul. L’endettement est jugé souhaitable tant que le taux d’intérêt est inférieur au taux de croissance, mais cette possibilité est frappée d’incertitude. Une hausse temporaire des prélèvements obligatoires, en l’occurrence sur le patrimoine financier, est recommandée.

Sixième observation. Chacune de ces modalités de financement soulève des difficultés. Un redéploiement brutal et rapide ne peut que mettre en difficulté des entreprises, faute pour elles d’avoir le temps nécessaire pour s’adapter, et déstabiliser les recettes fiscales. Un alourdissement de la dette publique est d’autant plus difficilement envisageable que le taux de croissance pourrait être trop faible. Opérer une substitution entre « bonne » et « mauvaise » dette est d’autant plus délicat à mettre en œuvre qu’il est difficile de les distinguer notamment si l’on reconnaît la nécessité des dettes consenties pour faire face aux chutes de revenus et d’emploi nées de la transition. Reste effectivement la hausse des prélèvements obligatoires sur le patrimoine financier dont on voit, cependant, mal comment elle pourrait être non anticipée et surtout en quoi son caractère temporaire serait crédible et préviendrait tout changement de comportement des détenteurs de capitaux dans un contexte de forte volatilité avec possibilité de fuite des capitaux et de chute des cours.

Il pourrait, en revanche, être opportun de reprendre la question du financement de la transition en rappelant que les investissements dans de nouvelles activités peuvent être financés à partir des profits réalisés dans les anciennes activités autrement que par la taxation des unes et les subventions aux autres. Le revenu de l’exploitation des ressources pétrolières doit pouvoir aider au financement des investissements dans les énergies renouvelables comme le fait TotalEnergies en dédiant 25% de ses investissements au renouvelables à partir de ses revenus pétroliers et gaziers, de même que la vente de véhicules thermiques doit pouvoir aider au financement des investissements dans les véhicules électriques. Ce n’est pas, alors, une affaire de dette ou de fiscalité publiques, mais une affaire de gestion financière des entreprises impliquant leurs relations avec les détenteurs de capitaux dont la patience devrait aider à rendre viable la transition. D’autant que la demande de pétrole ou celle de véhicules thermiques, pour reprendre ces exemples, ne diminuent pas pour la simple raison que l’offre en est restreinte. Il faudrait plutôt s’attendre, dans ce cas de figure, à une hausse des prix et des pertes de pouvoir d’achat.

7. La transition climatique est présentée comme une composante significative du retour de l’inflation à court terme et comme un facteur de réduction de sa volatilité à long terme. Non sans faire état de difficultés à moyen terme, liées notamment aux tensions sur les marchés de matériaux critiques, qui seraient toutefois progressivement absorbées. Ce à quoi s’ajoutent les tensions suscitées par ce qui est présenté comme un choc d’offre négatif à court ou moyen terme (une hausse des coûts) et plus généralement comme des frictions jugées peu alarmantes. Dans cette perspective, la politique monétaire n’est retenue que comme un outil indirect de la transition climatique et doit finalement n’avoir d’autre objectif que la stabilité des prix. Il n’est plus question d’assouplissement quantitatif « vert », seule est débattue la question de la cible d’inflation à retenir avec comme seule conclusion la nécessité d’agir avec doigté sur les taux d’intérêt.

Septième observation. La politique monétaire est censée devoir poursuivre une cible qui recouvre un ensemble de prix d’équilibre incluant les taxes à commencer par la taxe carbone. La seule vraie préoccupation reste, dans cette approche, de casser les anticipations d’inflation. Les comportements des entreprises en matière de production, d’emploi et d’investissement face aux déséquilibres ne sont pas évoqués ou, plus précisément, sont supposés répondre mécaniquement à la contrainte monétaire. Il est, pourtant, intéressant de noter que l’un des rares passages du rapport où il est question des entreprises est celui dans lequel est mentionnée une étude de la Banque de France qui conduit celle-ci à retenir comme seul scénario vertueux en termes d’inflation celui dans lequel la transition serait pilotée par l’investissement privé qui permettrait d’augmenter l’offre à hauteur de la demande et donnerait lieu à des gains de productivité. Si tel est vraiment le cas, il est difficile de réduire le contrôle de l’inflation à celui du taux d’intérêt et de ne pas envisager plus avant le fonctionnement des marchés du crédit. Cela signifie d’accepter des tensions inflationnistes dès lors qu’elles résultent d’investissements « verts » qui ont un coût avant de produire des revenus. Cela signifie aussi de prendre garde à des risques de déflations non maîtrisables. Autant d’objectifs qui requièrent d’associer à la politique monétaire des mesures visant à la réorganisation du système financier de façon à privilégier des engagements à long terme.

8. La question européenne et celle des relations internationales sont principalement abordées dans le rapport sous l’angle des stratégies mises en œuvre par les différents ensembles géopolitiques. La tarification du carbone est au cœur de la stratégie de l’Union Européenne. Elle est présentée comme celle qui a la faveur des économistes parce qu’elle repose sur le signal-prix, procure des recettes qui peuvent être redistribuées, et garantit l’efficience des choix individuels des entreprises et des ménages. Les subventions à destination des entreprises pour stimuler la production d’énergie verte, les véhicules électriques ou à hydrogène et l’industrie verte sont privilégiées par la stratégie américaine avec l’adoption de l’Inflation Reduction Act. Leur montant n’est pas fixé a priori : il dépend de la demande et non d’enveloppes budgétaires préalablement arrêtées. Le financement prévu repose sur la fixation d’un taux de taxation plancher du profit des sociétés (15%) et la diminution du prix des médicaments, donc des profits de l’industrie pharmaceutique : ni l’une, ni l’autre de ces mesures ne relève d’une taxation du capital.  Les subventions aux entreprises sont également privilégiées par la stratégie chinoise. Les différences de prix moyen du carbone entre ces entités reflètent ces différences de stratégie.

Huitième observation. Si le risque encouru par les pays de l’Union Européenne de perte de compétitivité conduisant à une désindustrialisation est mentionné, aucune discussion n’est engagée sur ce qui la distingue vraiment des autres ensembles. Ce qui est considéré comme ayant la faveur des économistes repose sur des éléments de doctrine pour le moins fragiles. La stratégie préconisée dans le rapport allie le rôle du marché, réduit au mécanisme des prix, à des investissements publics massifs. La stratégie américaine s’appuie sur l’initiative des entreprises, sous condition pour elles de conduire des choix innovateurs. Ce qui les distingue est que l’une mise tout sur l’action publique, l’autre reconnaît aux entreprises (non au seul jeu des prix sur des marchés concurrentiels) une place déterminante.

9. Le choix explicite d’une croissance « verte » repose sur l’idée que la productivité est une donnée purement technique, dont les variations reflètent l’évolution des parts respectives de technologies « brunes » et technologies « vertes ». Ainsi diminue-t-elle au début de la transition en raison de l’avantage en termes de coût acquis par les technologies « brunes » avant d’augmenter à mesure que les technologies « vertes » sont davantage demandées et mises en œuvre et que s’installe le nouvel équilibre.

Neuvième observation. La transition écologique est un bouleversement d’une telle ampleur qu’il échappe à une approche en termes d’équilibre. La productivité mesurée le long du sentier de transition ne reflète pas seulement les techniques mises en œuvre. Elle reflète aussi les défauts de coordination (la persistance des déséquilibres et les différences de temporalité des évolutions du produit et de l’emploi), qui explique ce que l’on appelle le paradoxe de la productivité. Il suffit pour que la productivité baisse que le produit diminue plus vite que l’emploi, ce qui peut survenir y compris si le plein emploi devait être maintenu par une baisse des salaires[8]

Le sujet est, certes, celui de l’aptitude de l’économie engagée dans la transition écologique à retrouver un taux de croissance suffisamment élevé en contrepartie de l’endettement nécessaire, mais surtout son aptitude à maîtriser des fluctuations, que l’on ne peut pas assimiler à des soubresauts, pendant la période de convergence vers un taux de croissance de la productivité préalablement déterminé. Le sujet n’est pas de réaliser un équilibre qui serait aussi un optimum, mais de s’assurer de la viabilité d’une évolution hors de l’équilibre dans un contexte d’incertitude radicale. Le contrôle des fluctuations nées des ruptures des modes de production et de consommation procède, non seulement d’interventions publiques globales, mais aussi de la façon dont sont organisés les entreprises et les marchés. Ces modes d’organisation doivent être définis en rapport avec l’exigence de viabilité globale de l’économie, autrement dit en établissant un fondement macroéconomique des comportements microéconomiques, ce qui n’est autre qu’une invitation à considérer la structure des agrégats y compris leur dimension institutionnelle et organisationnelle.

10. L’analyse des incidences économiques de l’action pour le climat s’inscrit dans une démarche suivant laquelle l’offre commande la demande tout en faisant de la production le décalque de technologies et de préférences préalablement déterminées en relation avec des contraintes physiques (climatiques) elles-mêmes assimilées à des données objectives. Ce qui fait sa « nouveauté » est que le choix des technologies et des préférences devient une affaire collective, entendez par là publique.

Dixième observation. Deux visions de la production s’opposent : une vision ex post et une vision ex ante, qui commandent la démarche d’analyse des phénomènes de transition[9]. L’analyse économique de la transition écologique communément retenue relève de la première catégorie. La production est vue comme finalement adaptée à des technologies et des préférences « vertes » données. Certes, les anciens équipements et les anciennes qualifications doivent être remplacés. Cela crée des déséquilibres, mais ceux-ci sont jugés temporaires (transitoires). Seule est considérée la vitesse du changement que l’on entend aligner sur la vitesse du changement climatique. Le temps dans sa complexité n’est pas considéré si l’on entend par là l’articulation entre l’irréversibilité des investissements en capital physique comme en capital humain et l’incertitude qui pèse à la fois sur les technologies et les préférences. Or dans un tel contexte, imposer un rythme élevé de changement augmente les coûts immédiats, qu’il s’agisse des coûts financiers ou des coûts humains, et rompt sur le papier les liens entre le passé et le futur à commencer par les liens financiers. Cela a une double conséquence : d’une part, le comportement de l’entreprise est ignoré parce qu’il est présumé, à juste titre, être marqué par une certaine inertie, d’autre part, le recours à l’État (aux finances et aux contraintes publiques) est privilégié.

Une vision ex ante de la production identifie celle-ci à un processus dont le point d’arrivée est, par nature, inconnu. Il en est ainsi des technologies et des préférences qui se construisent en chemin. Le propos est alors d’analyser l’articulation entre les différentes formes productives qui doivent se succéder au cours du temps, c’est-à-dire l’articulation entre la destruction et la création de ressources productives, entre construction et utilisation de capacités de production. Cela signifie reconnaître l’existence d’effets d’hystérèse inséparables de l’irruption de la nouveauté, notamment l’influence récurrente du chômage et des chutes de revenus sur les capacités d’apprentissage ainsi que sur la formation des préférences. Le problème n’est plus d’adopter une configuration du système productif et de choisir le rythme de cette adoption. Il est de s’assurer de la viabilité d’un processus endogène de création (d’apprentissage par essais et erreurs). Le rythme de l’utilisation des ressources « ne dépend pas principalement d’une décision exogène, disons de politique économique, mais des structures industrielles, technologique et de consommation »[10]. Le nœud du problème réside dans les contraintes réelles et financières qui résultent de la spécificité des ressources existantes et structurent ce processus. Il existe une double inertie : celle des capacités de production et celle des habitudes de consommation qui, les unes comme les autres, s’inscrivent dans un temps historique. « Ces différents temps propres imposent un délai aux mutations structurelles – et nul doute que toute utilisation d’une ressource nouvelle, que toute innovation technologique détermine à des degrés divers une mutation structurelle. Le non-respect de ce délai (…) produit – quelles que peu importantes qu’elles soient relativement au débat sur la finitude du monde – des crises économiques. L’émergence simultanée de l’inflation et du chômage peut en effet être rigoureusement expliquée en termes d’évolution structurelle et d’asymétrie »[11]

Dans ce contexte, les mécanismes de financement jouent un rôle central. L’objectif est, pour les entreprises, de disposer de ressources financières dans les montants et aux moments requis. Il est alors difficile d’ignorer que les ressources financières internes sont le produit des activités anciennes et que les ressources externes dépendent du degré de patience des financeurs.

Conclusion. L’enjeu de ces observations est d’identifier les menaces qui pèsent sur la viabilité d’une économie soumise à des changements structurels et qui ne peuvent pas être écartées au motif qu’elles seraient temporaires en se réclamant d’un principe de convergence vers un hypothétique équilibre de long terme. L’enjeu est, consécutivement, de mettre l’accent sur les modes de coordination qui ne relèvent pas que de l’État ou du marché, des politiques macroéconomiques, budgétaire ou monétaire, ou du mécanisme des prix, mais aussi de l’organisation des entreprises et du système financier. C’est à ce dernier chantier, d’ordre institutionnel et politique, auquel il importe de s’attaquer.

Création de ressources, spécificité de ces ressources, apprentissage en cours de route caractérisent le processus de développement et correspondent à une nouvelle façon de concevoir et de percevoir la production et l’environnement. L’environnement est internalisé : ce n’est plus, seulement une contrainte, il devient un objectif et une opportunité.

Le propos n’est pas de nier l’urgence climatique, mais de s’assurer de la viabilité économique et sociale de la transition qui passe par des adaptations graduelles. Une coordination intertemporelle efficace requiert des acteurs qui la conduisent d’être en mesure de planifier leur activité à long terme, à commencer par les entreprises. Ce ne peut être obtenu autrement que grâce à des modes de gouvernance des entreprises et une organisation de la finance adaptés à cette exigence. Le droit économique, en tant que droit des rapports économiques, doit ici être mobilisé en complément de l’analyse économique[12]. Il s’agit de concevoir un mode expérimental de gouvernance qui repose sur l’articulation entre elles des actions conduites par les différentes parties prenantes aux questions environnementales et permet d’échapper au tout État comme au tout marché, à l’exclusivité de la réglementation publique ou de la taxation. Il s’agit d’établir les conditions organisationnelles, ayant trait aussi bien au contrats de travail qu’aux contrats de financement, d’un choix écologique commun des différents acteurs, non de précipiter le mouvement sous l’injonction d’incitations par le canal de la réglementation ou des prix. Il s’agit de permettre à tous les acteurs de s’engager de manière crédible dans des investissements à long terme. Tel est le sens que l’on peut ou doit donner à une planification écologique.

La contradiction irréductible entre la préservation des éléments naturels et la croissance économique est une dimension aujourd’hui essentielle de ce que Mireille Delmas-Marty[13] dénomme les vents contraires qu’il s’agit de concilier en tentant de stabiliser plutôt que d’immobiliser. C’est pourquoi il faut se garder d’une solution simple consistant à faire confiance à la seule intervention publique ou au jeu des seules forces du marché et se préoccuper des conditions de la création et du développement des entreprises capables d’internaliser dans leurs stratégies les objectifs environnementaux. La transition écologique entre dans ces changements structurels qui émaillent l’évolution des économies de marché confrontées à une instabilité intrinsèque tout en étant capables de résilience dès lors que sont mises en œuvre des mécanismes de régulation au niveau macroéconomique mais aussi à celui de l’organisation des entreprises[14].


[1] Je remercie François Geerolf, Mathieu Plane, Xavier Ragot et Christine Rifflart pour leurs commentaires. Je reste seul responsable du contenu de ce billet.

[2] Jean Pisani-Ferry et Selma Mahfouz, Les incidences économiques de l’action pour le climat, Rapport à la Première Ministre, France Stratégie, mai 2023.

[3] Voir Meadows D. H. et alii, 1972, The Limits to Growth, New-York, Universe Book; et pour la critique Solow R. M., 1974, « The Economics of Resources or the Resource of Economics », Richard Ely Lecture, American Economic Review, mai, pp. 1-14.

[4] Georgescu-Roegen N., 1971, The Entropy Law and the Economic Process, Cambridge Mass., Harvard University Press. Chapter 9; Georgescu-Roegen N., 1976, Energy and Economic Myths, New York, Pergamon Press, p. 3-36.

[5] Hicks J. R., 1973), Capital and Time, Oxford, Clarendon Press ; Amendola M. et Gaffard J-L., 1998, Out of Equilibrium, Oxford, Clarendon Press; Gaffard J-L, Amendola M., et Saraceno F. « Le temps retrouvé de l’économie » Odile Jacob, 2020.

[6] Fitoussi J-P., 1973), Inflation, équilibre et chômage, Paris, Cujas.

[7] Les limites de la théorie « ordinaire » du bien-être sont énoncées par l’un de ses principaux contributeurs, John Hicks. Voir Hicks J. R., 1981), « A Manifesto », in Wealth and Welfare, Collected Essays on Economic Theory vol. 1, Oxford, Blackwell.

[8] Amendola M., Gaffard J-L., Saraceno F., 2005, « Technical Progress, Accumulation of Capital and Financial Constraints: Is the Productivity Paradox Really a Paradox? », Structural Change and Economic Dynamics, n° 16, pp. 243-261.

[9] Amendola M. et Gaffard J-L., 1998, Out of Equilibrium, Oxford, Clarendon Press.

[10] Cohendet P., Fitoussi J-P., Héraud J-A., 1979), Ressources naturelles et irréversibilité, Revue d’Économie Politique, vol. 89, n° 3, p. 386.

[11] Cohendet et alii, Ibid. Le lien établi entre inflation, chômage et évolution structurelle renvoie à Fitoussi J-P, 1972), Inflation, équilibre et chômage, Paris, Cujas.

[12] Voir Gaffard J-L et Martin G. J., 2023), Droit et économie de la transition écologique – Regards croisés, Paris, Mare & Martin, à paraître octobre.

[13] Delmas-Marty M., 2019), Sortir du pot au noir, l’humanisme juridique comme boussole, Paris, Buchet-Chastel.

[14] Voir Gaffard J-L., 2023, Instabilité et résilience des économies de marché, Paris, Classiques Garnier.




L’intelligence artificielle Made in France à la recherche de ses grands groupes industriels

par Johanna Deperi, Ludovic Dibiaggio, Mohamed Keita et Lionel Nesta

Perçue comme la promesse de machines « intelligentes », l’intelligence artificielle (IA) est annoncée comme la source de bouleversements industriels à la mesure des révolutions majeures du XXe siècle. Ces enjeux justifient la multiplicité des politiques nationales et l’ampleur des investissements des principaux acteurs de l’IA. Á la suite des États-Unis, l’ensemble des pays industrialisés et certains pays émergents ainsi que les géants industriels se sont lancés dans des stratégies offensives annonçant des plans d’investissements considérables[1]. En nous appuyant sur PATSTAT, la base de données unique et exhaustive en matière de brevets, nous présentons ici deux singularités de la France, développées dans un Policy brief publié sur le site de l’OFCE.



La première singularité française est que sans être un leader mondial de l’innovation incorporant de l’intelligence artificielle, la France montre une activité modérée mais significative dans ce domaine

Le graphique 1 classe les 10 premiers pays producteurs de brevets. Avec respectivement 30% et 26% des brevets IA, les États-Unis et la Chine dominent la production mondiale d’innovations incorporant de l’IA. L’Union européenne et le Japon représentent tous deux 12%. Ainsi quatre brevets IA sur cinq émanent de ces quatre zones géographiques.  La Corée du Sud représente 6% des brevets IA.  Au sein de l’Union européenne, l’Allemagne est le pays le plus actif dans le domaine de l’IA. La France apparaît au septième rang mondial avec 2,4% de la production de brevets IA. Les 10 premiers pays comptabilisent 90% et les 20 premiers presque 97%.

Si l’on prend en compte la population, la Corée du Sud se singularise en produisant plus de 1 000 brevets IA par million d’habitants. Avec environ 800 brevets par million d’habitants, le Japon et les États-Unis se distinguent également par leur forte intensité en brevets IA.  Avec 234 brevets par million d’habitants, l’Europe se montre peu active. Mais ceci cache une forte disparité entre pays. Les Pays-Bas (574 brevets par million d’habitants), l’Allemagne (475) mais également la Finlande (748) et la suède (701) se montrent les plus actifs. Á l’inverse, l’Italie (72), l’Espagne (69), le Portugal (39), de même que les anciens pays de l’Est accusent un net retard. Avec 312 brevets par million d’habitants, la France se classe 15e au niveau mondial et garde une position médiane dans le monde et en Europe.

Une analyse plus fine révèle que la France est spécialisée en apprentissage automatique, en apprentissage non supervisé et en modèles graphiques probabilistes et aussi dans le développement de solutions liées aux sciences médicales, aux domaines des transports et de la sécurité. Cela traduit une chaîne de valeur IA en France faiblement intégrée. Cela vient pour l’essentiel d’un manque d’intégration dans les phases de la chaîne de l’innovation situées en aval.

La seconde singularité française est relative à la place importante de sa recherche publique qui contraste avec le retard affiché des grands groupes industriels français 

Le graphique 2 présente les principales organisations privées et publiques productrices de brevets IA.  L’aspect le plus saillant est l’absence de grands groupes français du classement mondial (le premier grand groupe Français, Thalès, se classe 37e au niveau mondial), conjointement à la présence significative des institutions publiques de recherche. Par exemple, le CNRS se classe 2e avec 891 brevets, le Commissariat à l’Énergie Atomique (CEA) et l’Institut Pasteur sont respectivement 4e et 5e, l’INSERM occupe la 7e place, l’INRIA la 8e et l’Institut Curie la 9e place. On compte donc six institutions françaises parmi les dix principaux organismes de recherche européens.  Aussi, la France se distingue par une forte présence de sa recherche publique dans la production d’innovation incorporant de l’IA.

Une analyse des réseaux de collaborations à partir des co-brevets, c’est-à-dire les brevets appartenant à plusieurs organisations, révèle notamment que les réseaux français apparaissent comme étant essentiellement intra-nationaux et faiblement ouverts à l’international et à la mixité institutionnelle. Ils s’opposent aux autres réseaux d’innovation américains, chinois, japonais ou encore allemands plus ouverts à la mixité institutionnelle et à l’international.

Que retenir de ce rapide tour d’horizon ? Au vu de la performance remarquable des institutions françaises de recherche publique et dans la mesure où l’IA est un domaine basé sur la science, il n’y a pas lieu d’être pessimiste. La base scientifique est avérée. Mais le retard affiché des grands groupes industriels français, relativement aux acteurs majeurs mondiaux, nous laisse perplexes. Nous craignons que la France ne devienne un laboratoire mondial de l’IA, située en amont des activités d’innovation proprement dites, supportant les coûts fixes et irrécouvrables liés à chaque microprojet, sans trouver le relais nécessaire au niveau local. En bref, notre crainte est que l’intelligence artificielle made in France se trouve à terme sans débouché national et devienne un exportateur technologique net, sans les effets en aval de captation de la valeur ajoutée et de création d’emplois.


[1] Le rapport de l’OCDE, Identifying and Measuring Developments in Artificial Intelligence: Making the Impossible Possible, (OCDE, 2020) en est une excellente illustration.




L’industrie européenne des véhicules électriques doit-elle craindre le protectionnisme vert américain ?

par Sarah GUILLOU

L’Inflation Reduction Act (IRA) a été voté par le Congrès américain le 22 août 2022. Il agite aujourd’hui les gouvernements européens qui expriment unanimement leurs inquiétudes sans toutefois s’accorder sur les remèdes. Ils sont guidés sans doute par les industriels qui voient se détériorer leur compétitivité-coût en raison du différentiel de prix de l’énergie. Anticipant que cette détérioration va durer, leur stratégie d’investissement implique à présent la comparaison de l’attractivité de différentes localisations. C’est là que l’IRA entre dans les arbitrages. Mais est-elle vraiment une menace pour l’industrie européenne étant donné l’organisation mondiale de la production ?



La loi de réduction de l’inflation flèche près de 400 milliards de dollars de dépenses publiques pour financer des investissements et des comportements économiques qui s’inscrivent dans une trajectoire de décarbonation de l’économie américaine. En matière de véhicules électriques, c’est près de 24 milliards de dollars de dépenses qui sont prévus. Le contentieux autour de cette loi vient de son caractère protectionniste parce qu’elle conditionne l’obtention des subventions, notamment à l’achat des véhicules propres (7500 dollars pour un véhicule neuf), à des conditions de localisation de l’assemblage mais aussi d’origine des composants à partir de 2024.

La réalité de la menace dépendra des réactions des entreprises européennes et de la substitution de leur investissement en Europe par des investissements aux Etats-Unis. Cependant, l’attractivité financière de l’IRA est à modérer par la structure et la dynamique du marché mondial. Ce billet a pour objectif de décrire les rapports de force dans l’industrie pour mettre en perspective les opportunités offertes par l’IRA.

En 2022, le marché très dynamique des véhicules électriques est européo-asiatique

Le marché des véhicules électriques est un marché extrêmement dynamique avec une projection de croissance phénoménale. Les ventes au niveau mondial ont été multipliées par 4 en unités depuis 2019 atteignant en 2021 6,6 millions de véhicules, dont 3,3 millions en Chine, 2,3 en Europe et 600 000 aux Etats-Unis. Ce nombre qui représente aujourd’hui 10% des véhicules vendus, pourrait atteindre 200 millions d’ici 2030. Il en est de même pour le marché des batteries dont l’activité est très corrélée à celle des véhicules électriques (VE). D’une demande estimée à 340 GWh en 2021, les projections la situent à 3500 GWh en 2030.[1]

Ce dynamisme est lié à la prise de conscience des individus, des entreprises et des Etats de la menace du changement climatique. Ces acteurs influencent la demande, les prix et les politiques qui accélèrent l’autonomisation vis-à-vis des énergies fossiles. Pour cela, la batterie est nécessaire à la fois pour stocker les énergies renouvelables et pour passer des véhicules à combustion aux véhicules électriques.

Du côté de la demande, 16 à 17% des voitures sont électriques en Europe et en Chine, mais seulement 5% aux Etats-Unis.

Du côté de l’offre, l’Europe produit un quart des voitures électriques contre 10% aux Etats-Unis et cela, surtout grâce à Tesla, longtemps le premier constructeur mondial de véhicules électriques. La Chine en produit plus de 50%.

En 2020, les plus grands constructeurs de VE sont l’américain Tesla (19%), les allemands VW et BMW (20%), le franco-japonais Renault-Nissan ( 9%), le coréen Hyundai-Kia (7%) et le chinois BYD (6%). En 2021, la croissance fulgurante du chinois BYD le propulse dans les 3 premiers : Tesla, VW et BYD concentre 1/3 de l’offre.

Du côté des batteries, la Chine produit plus de 75% des batteries dans la technologie dominante ion-lithium et 80% des anodes qui composent les batteries. L’Europe ne produit que 7% des batteries en 2021, ce qui est équivalent à la production américaine en raison de l’installation notamment de l’entreprise japonaise Panasonic aux Etats-Unis. En 2021, la Chine, le Japon et la Corée du Sud produisent 97% des cathodes et 99% des anodes. Les premiers producteurs de batteries sont le chinois CATL, le sud-coréen LG Energy solution et le japonais Panasonic. Suivent le sud-coréen SK Innovation et le chinois BYD. Le marché est encore plus concentré que celui des voitures électriques. Les trois premiers producteurs de batteries concentrent 65% de la production et les trois premiers producteurs d’anodes sont chinois et concentrent 55% de la production.

Face à cette domination euro-asiatique, les Etats-Unis sont indéniablement un vaste marché de clients mais c’est aussi un marché peuplé de constructeurs locaux bien installés, d’acteurs asiatiques (hors Chine) et européens très nombreux. La concurrence y est donc intense.

Malgré le coût de l’électricité qui s’installe dans un cycle haussier et le coût de l’extraction des minerais nécessaires à la fabrication des batteries, le choix politique en faveur du développement du marché de VE semble bien ancré, surtout en Europe et en Chine. Les Etats-Unis, autrefois en retrait vis-à-vis de cette tendance, ont basculé du côté des pays qui soutiennent désormais activement le passage à une économie décarbonée.

Un marché où la régulation est clé pour le déploiement des investissements

La continuité et l’ancrage d’un tel engagement politique sont des éléments clé pour le déploiement d’une industrie des VE. C’est l’état des anticipations de demande sur un marché qui détermine les investissements. Or la régulation est déterminante pour anticiper les conditions de l’offre (par exemple est-ce que tous les constructeurs et sous-traitants vont devoir se convertir ), d’infrastructures (y-aura-il suffisamment d’infrastructures pour recharger les batteries), les conditions de la demande (subvention à l’achat) et des préférences des consommateurs. Or les Etats-Unis se sont prononcés tardivement en faveur de la décarbonation du transport. De leur côté, l’UE et la Chine sont bien plus engagées.

En Europe, les incitations sont fortes et l’industrie automobile est clairement orientée vers l’électrique. De l’interdiction de la vente de véhicules avec des moteurs à combustion en 2035 aux objectifs de réduction des gaz à effets de serre en passant par les limites de CO2 par km qui s’imposent aux constructeurs, l’Union européenne a posé des incitations sans équivoque vers le passage à une industrie automobile reposant sur les batteries et l’énergie électrique.

Ce qui distingue l’UE des Etats-Unis est un engagement plus ancien et constant en faveur des batteries, induisant des signaux cohérents et croissants pour l’ensemble des sous-traitants qui interviennent dans cette industrie, de l’électronique au recyclage en passant par les producteurs d’infrastructure de recharge. A côté des régulations sur la décarbonation de l’économie, l’engagement européen a pris corps en 2017 avec l’Alliance pour la batterie qui regroupait des chimistes (BASF, Solvay), des constructeurs de batterie (Northvolt, Saft) et des constructeurs automobiles (Peugeot). Celle-ci s’est transformée en Plan d’Intérêt Important Commun Européen depuis 2019. Cet engagement pluriannuel se traduira par 3,2 milliards d’euros d’argent public (France, Allemagne, Italie…) auxquels 5 milliards d’euros privés devraient s’additionner. S’ajoutent à ces plans des subventions des Etats en propre soit pour financer la demande (7000 euros en France pour l’achat d’un véhicule électrique), soit pour soutenir l’installation d’une usine, soit pour entrer au capital d’entreprises. Quand l’Allemagne accueille des implantations d’usines de Tesla (2019) ou CATL (2019), elle subventionne une partie des investissements. Par exemple, l’usine de CATL qui s’est construite à Erfurt (Thuring) a bénéficié d’une subvention de 8 millions d’euros sur 2 milliards d’euros d’investissement. Le gouvernement hongrois qui accueille 7,34 milliards d’euros à Debrecen pour une usine de 100 GWh de CATL subventionne une partie de l’installation.

Cette constance des signaux publics tant dans la régulation que dans la croissance des subventions a ancré les stratégies d’investissement des industriels. Un retournement est toujours possible notamment en raison du coût de l’énergie mais il concernerait d’abord les entreprises qui ont déjà des filiales aux Etats-Unis et qui pourraient redistribuer leurs actifs pour tirer parti des opportunités des subventions américaines. Mais le marché américain est encore étroit puisqu’il concerne moitié moins de ménages pour le moment et les infrastructures publiques sont moins engagées qu’en Europe. Les subventions à l’achat existaient d’ailleurs aux Etats-Unis avant l’IRA puisqu’elles avaient été mises en place dès 2009 (American Recovery and Reinvestment Act – ARRA). La nouveauté de l’IRA consiste principalement à les conditionner à la localisation de l’assemblage et à l’origine des composants.

Malgré les défauts de leur définition (pas conditionnées aux revenus, montant maximum de voitures éligibles par constructeur), ces subventions de l’ARRA n’ont guère changé les préférences des automobilistes américains. Le marché européen a donc continué d’attirer des investisseurs américains comme Tesla en Allemagne ou Envision en France.

En Chine, la politique en faveur des VE et des batteries a été encore plus volontariste qu’en Europe en pondérant davantage l’industrie que les objectifs environnementaux. Le gouvernement chinois a en effet massivement soutenu la mise en place d’une industrie de batteries et des véhicules électriques par des quotas imposés aux constructeurs, une limitation des immatriculations, une commande publique de bus électriques, un marché des droits à polluer et des investissements dans l’extraction. L’industrie des véhicules électriques fait partie du plan de la stratégie Chine-2025. Et force est de reconnaître que l’économie chinoise est devenue un acteur incontournable de l’industrie dans la technologie dominante du moment.

La chaîne de valeur de production de l’industrie est dominée par la Chine, devenue difficilement contournable à court terme

L’UE contrôle très peu de matières premières et est peu présente dans la chaîne de valeur de la production des batteries, tout comme les Etats-Unis.

Avant d’assembler les cellules dans des corps de batteries — ce que les constructeurs automobiles font le plus souvent à présent — quatre étapes préalables sont nécessaires : i) l’extraction des métaux fondamentaux ; ii) le raffinage et le façonnage de ces métaux ; iii) la production d’éléments de cellules comme l’anode, la cathode, l’électrolyte et autres séparateurs ; et iv) les cellules de batteries qui assemblent ces éléments.

Or la chaîne de valeur des composants est encore très largement concentrée en Asie pour les composants et spécialement en Chine pour les intrants en métaux (voir CNUCED, 2019). On l’a vu, la Chine domine les étapes iii) et iv), mais elle domine aussi l’étape du raffinage des métaux. Le lithium, le cobalt, le graphite, le manganèse, et le nickel sont des matériaux communément utilisés pour la fabrication des cellules.  Les mines sont concentrées en Australie, au Chili et en République démocratique du Congo. La Chine n’a de situation de monopole que sur le graphite (65% des mines et 85% du produit raffiné) mais contrôle la moitié des capacités de raffinage du lithium et du cobalt.

Dès lors, refuser le partenaire chinois est un frein à court et moyen terme pour tous les producteurs, européens et américains (voir Bonnet et al. 2022).

Les constructeurs automobiles européens ont des partenariats bien avancés avec le chinois CATL dont les usines en Allemagne et bientôt en Hongrie vont fournir les batteries des véhicules européens des 5 prochaines années. BMW est même entré au capital de CATL. Volkswagen a signé en 2019 un accord d’approvisionnement avec Ganfeng Lithium pour dix ans. Le constructeur suédois national, National Electric Vehicle Sweden, a signé un accord d’approvisionnement en batteries avec CATL.

Les constructeurs européens travaillent avec les partenaires chinois, ce qui complique d’autant plus leur éventuelle éligibilité à l’IRA.

Comment réagir à l’IRA ?

Les Européens exportant des véhicules électriques aux Etats-Unis ne seront pas éligibles aux subventions à l’achat non seulement en raison des conditions d’assemblage mais aussi de l’inclusion de contenu chinois.

Les conditions de production justifiant la subvention américaine sont très contraignantes étant donné la domination chinoise sur la chaîne de valeurs.

En effet, l’IRA est protectionniste à deux niveaux. Non seulement cette loi conditionne l’éligibilité aux subventions, à la localisation de la production finale (qui peut se résoudre à de l’assemblage) sur le territoire nord-américain mais la loi conditionne en outre dès 2024 les composants des véhicules propres et dès 2025 les intrants en métaux, à ne provenir que des pays avec lesquels les Etats-Unis ont un accord de libre-échange, c’est-à-dire le Mexique et le Canada.

Il ne fait aucun doute que l’IRA est une loi protectionniste. Mais en matière environnementale, l’interventionnisme européen n’est pas en reste. Au jeu de la comptabilité comparée des mécanismes régulateurs qui singularisent le marché local, l’UE n’a peut-être pas intérêt à se mesurer ; au jeu de l’autonomie vis-à-vis des composants chinois, l’Europe a déjà choisi son camp ; au jeu des subventions, l’UE a perdu d’avance n’ayant pas de budget propre dédié à la politique industrielle. Il lui reste à construire son autonomie et sa stratégie propre.

Rappelons que les industriels européens éligibles, qui investiront aux Etats-Unis, vont bénéficier des subventions américaines et peuvent renforcer leur pouvoir de marché mondial voire leur compétitivité. Par exemple les subventions américaines vont financer la R&D des entreprises européennes. Par ailleurs, l’UE ne va pas perdre son attractivité de taille de marché. La question est de savoir combien cette attractivité est altérée par le coût relatif de l’énergie et c’est là qu’elle doit se battre.

Car si les industriels semblent si attirés par la politique américaine c’est aussi parce que le prix de l’énergie y est aujourd’hui 4 fois moins cher.

L’industrie européenne va-t-elle perdre des emplois industriels dans ce domaine ?

Tout dépendra de la durée du différentiel de compétitivité de coût de production car l’avantage de la taille du marché européen pourrait continuer à perdre de son attractivité.

En résumé, le marché des VE et des batteries est en pleine croissance et est encore dominé par l’Asie et l’Europe et plus particulièrement la Chine sur de nombreux segments de la chaîne de valeur. L’industrie a été soutenue par des politiques industrielles et environnementales favorables, avec un succès notable en Chine qui a su utiliser l’arme de son vaste marché. Les Etats-Unis arrivent tard sur ce marché mais ont deux atouts : leur taille et les montants de subventions offerts par l’IRA. Cependant, le marché américain conserve des inconvénients encore structurels pour des investisseurs potentiels : en retard sur le plan de la régulation, des incitations publiques, des préférences des consommateurs moins éduquées, de moindre infrastructure de bornes de chargement, un marché très concurrentiel et des contraintes de production qui vont ralentir le déploiement.

Les risques ne vont vraiment se réaliser qu’à moyen-long terme, le temps que le marché américain rattrape le retard exposé plus haut. Le versement des subventions crée une concurrence déloyale qui pourrait à terme conduire à des exportations plus importantes en provenance des Etats-Unis. Des droits de douane de riposte au niveau européen peuvent être envisagés dans le cadre de la réglementation de l’OMC.

Par ailleurs, forts de l’expérience russe, les Européens doivent anticiper la gestion de l’asymétrie de la dépendance aux composants chinois des usines européennes.


[1] Source : IEA (2022)




Compte rendu du séminaire « Théorie et économie politique de l’Europe », Cevipof-OFCE, séance n° 4 du 8 avril 2022

La décolonisation numérique de l’Europe

Intervenants : Brunessen BERTRAND (Chaire DataGouv, Université de Rennes 1), Julien NOCETTI (Académie militaire de Saint-Cyr Coëtquidan & GEODE), Pierre NORO (Learning Planet Institute de l’Université Paris Cité)

Le séminaire « Théorie et économie politique de l’Europe », organisé conjointement par le Cevipof et l’OFCE (Sciences Po), vise à interroger, au travers d’une démarche pluridisciplinaire systématique, la place de la puissance publique en Europe, à l’heure du réordonnancement de l’ordre géopolitique mondial, d’un capitalisme néolibéral arrivé en fin du cycle et du délitement des équilibres démocratiques face aux urgences du changement climatique. La théorie politique doit être le vecteur d’une pensée d’ensemble des soutenabilités écologiques, sociales, démocratiques et géopolitiques, source de propositions normatives tout autant qu’opérationnelles pour être utile aux sociétés. Elle doit engager un dialogue étroit avec l’économie qui elle-même, en retour, doit également intégrer une réflexivité socio-politique à ses analyses et propositions macroéconomiques, tout en gardant en vue les contraintes du cadre juridique.

Réunissant des chercheurs d’horizons disciplinaires divers, mais également des acteurs de l’intégration européenne (diplomates, hauts fonctionnaires, prospectivistes, avocats, industriels etc.), chaque séance du séminaire donnera lieu à un compte rendu publié sur les sites du Cevipof et de l’OFCE.

***

La perspective géostratégique : hiérarchiser les niveaux de dépendance numérique de l’Europe

Julien Nocetti, chercheur à l’Académie militaire de Saint-Cyr Coëtquidan et à GEODE, souligne que la notion de souveraineté numérique n’est pas appréhendée de la même manière selon les différents acteurs européens. La montée en puissance de la notion de souveraineté numérique peut se dater à partir des révélations d’Edward Snowden en 2013 sur les activités de surveillance et d’espionnage d’Internet et des réseaux de téléphonie mobile opérées par les Etats-Unis via la NSA (National Security Agency), ainsi que la prise de conscience de l’ampleur du pouvoir des plateformes numériques américaines sur les sociétés européennes. En Occident, le thème est dans un premier temps principalement porté par les parlementaires et les entrepreneurs du numérique, beaucoup moins par les gouvernements. Quant aux régimes autoritaires, ils ont pensé de longue date la souveraineté numérique sous le prisme du contrôle de l’information. Il s’agit là d’un biais que nos démocraties européennes doivent bien se garder d’adopter en matière de respect de la vie privée et de tyrannie de la transparence en ligne, au risque d’un certain alignement des pratiques numériques entre démocraties et régimes autoritaires.



La souveraineté numérique européenne correspond à l’idée de projeter l’UE en tant qu’acteur du numérique dans les différentes enceintes internationales. Les Etats membres de l’UE ont désormais bien conscience de l’effet de grignotage ou de dépeçage de leurs prérogatives étatiques produit par la puissance des géants du numériques américains (« GAFAM »), acteurs privés régis par le droit étasunien, et chinois (« BATX »). La souveraineté numérique européenne diffère en cela de l’acception américaine des enjeux du numérique, davantage appréhendés à travers le prisme de la sécurité nationale et des intérêts nationaux, et non de la souveraineté. Cette opposition conceptuelle du sujet entre Européens et Américains se révèle particulièrement dans la difficulté des Européens à penser le phénomène de déspatialisation des relations internationales, avec une grande difficulté à juridiciser cette déspatialisation, quand les Etats-Unis ont été très prompts à comprendre et s’adapter à cette nouvelle donne : en compensant la perte en contrôle effectif de l’espace par le déploiement d’un pouvoir déterritorialisé (la « maîtrise des signes hors sol du pouvoir »).

Il faut relever une évolution significative de la compréhension du numérique en Europe, entre 2010 et aujourd’hui. Il y a dix ans, la question était de savoir qui contrôlait Internet. Aujourd’hui, avec l’extension exponentielle du champ du numérique, l’attention se focalise sur la maîtrise des technologies émergentes critiques (5G, IA, quantique, approvisionnement en semi-conducteurs, maîtrise d’algorithmes sensibles), avec en arrière-fond constant la dimension de l’autonomie stratégique numérique, véritable « buzz word » qui s’est répandu au sein de la bulle bruxelloise. Les Etats membres du Nord et de la baltique ont une approche plus prosaïque du sujet, avec l’enjeu de maintenir une capacité d’action européenne dans ces domaines et d’identifier les dépendances numériques les plus critiques (les semi-conducteur), ce qui suppose être en mesure de hiérarchiser les niveaux de dépendance (et de dépasser ainsi une approche trop strictement centrée sur l’idée de « décolonisation numérique »). Car le débat européen, spécifiquement en France, peut avoir tendance à se focaliser de manière obsessionnelle sur les GAFAM[1], sans percevoir toute la complexité du sujet.

La perspective juridique : du marché unique du numérique à la transition numérique

Brunessen Bertrand, professeure de droit public et titulaire de la Chaire DataGouv à l’Université de Rennes 1, expose l’évolution du sujet du point de vue du droit européen. Pendant longtemps, le prisme a été celui du marché unique du numérique avec la question de l’adaptation des législations européennes à l’économie numérique. Un changement notable a lieu à partir de 2020 et la nouvelle Commission Von der Leyen qui substitue le paradigme de la transition numérique à celui du marché unique du numérique. L’Europe prend conscience de son retard, possiblement irrattrapable, en matière numérique et en fait alors un axe prioritaire et structurant de sa politique. On assiste aujourd’hui à un déblocage des compétences européennes. La pandémie du Covid-19 a précipité l’expansion des usages numériques comme des cyberattaques. Dans un laps de temps record, l’UE s’est dotée en matière de numérique d’une constellation normative (régulation des plateformes, des services numériques et des données, intelligence artificielle, droits et principes du numérique), d’une « boussole numérique », d’une politique budgétaire et d’un début de politique industrielle. L’UE cherche un modèle qui se distingue du modèle américain et du modèle chinois : un modèle fermement arrimé aux droits et aux valeurs européennes. On passe d’un objectif très économique à une véritable politique publique européenne du numérique.

Sur le plan de la base juridique, en l’absence de véritable transfert de compétence des États membres à l’UE en matière de numérique (sauf en matière de protection des données à caractère personnel), l’UE mobilise un ensemble très varié de dispositions des traités. Par exemple, l’UE peut aborder le numérique via sa compétence en matière de recherche et développement technologique et de l’espace (Article 4 § 3 TFUE)[2]. Plus généralement, l’UE instrumentalise la notion de marché intérieur au travers de la notion de marché unique du numérique. La base juridique semble fragile, mais la démarche générale est cohérente.

Sur le plan de relance européen, celui-ci affirme très fortement l’ambition de souveraineté numérique européenne qui se décline dans les dimensions du marché intérieur, de la politique de défense, de la politique économique et commerciale, de la politique industrielle, et de la défense des valeurs européennes. Chez les juristes, l’idée n’est plus taboue (même s’il n’est pas question de souveraineté au sens strict). Il s’agit bien de rendre aux États leur souveraineté dans l’espace numérique (selon une logique d’« empowerment » des États). Cette prise de conscience politique de grande difficulté à exister seul dans le cyberespace a permis de débloquer l’européanisation du secteur numérique, à la base très national et malgré un contexte de montée des populismes et de sentiment anti-européen.

La stratégie normative de l’UE dans le numérique s’appuie aujourd’hui sur une ambition juridique forte, avec la mobilisation d’outils d’extraterritorialité. 2020 est marqué par un foisonnement de productions institutionnelles et juridiques : livre blanc sur l’intelligence artificielle, stratégie numérique, stratégie sur les données, Digital Market Act, plan pour l’éducation numérique, actions dans les secteurs des fintechs et de la cybersécurité. L’UE démontre ainsi un fort tropisme juridique avec l’instrumentalisation du droit du marché intérieur et la revendication des principes et des valeurs consacrées dans les traités européens. L’enjeu est d’adapter sur le plan légistique les ambitions politiques, avec l’objectif de présenter une grande loi européenne par grand sujet numérique, et d’avoir ainsi une législation européenne identifiable dans le monde entier, comme emblème ou porte-drapeau, comme façon d’être au monde, en assumant l’extraterritorialité des lois européennes (pour l’accès au marché intérieur européen). L’UE semble ainsi esquisser les contours d’une diplomatie numérique qui assume un certain unilatéralisme en la matière, en jouant sur le « Brussels effect » (l’effet d’entrainement de la régulation européenne au niveau mondial).

La confiance numérique est une autre dimension essentielle du sujet, avec les conditions d’utilisation et d’appropriation du numérique par les usages. L’UE travaille sur les questions d’intermédiaires de confiance, de création d’une identité européenne sécurisée, ainsi que sur la cybersécurité et les certifications numériques.

Un dernier aspect du sujet est la défense, avec l’accent mis sur le double usage civil et militaire des technologies numériques. Lancé en 2021 et doté de 7,9 Md€ (pour la période 2021-2027), le Fonds européen de défense (FED) intègre ainsi une stratégie d’articulation entre les enjeux de défense et les enjeux technologiques numériques, avec une attention accrue aux chaines de valeurs européennes entre défense et innovations technologiques critiques. Il a vocation à soutenir les projets de synergie entre industries civiles, spatiales et de défense. Dans cette même logique, il est à noter que la « Boussole stratégique » européenne[3] accorde une place importance à la cyberdéfense.

La perspective décoloniale : sortir l’Europe de sa dépendance épistémologique

Pierre Noro, du Learning Planet Institute de l’Université Paris Cité et ancien coordinateur de la chaire « Digital, Gouvernance et Souveraineté » à Sciences Po, après avoir nuancé l’expression de « colonisation numérique », affirme néanmoins la pertinence de la pensée décoloniale pour penser la dépendance européenne en matière de numérique. Outre sa dépendance aux outils numériques, l’Europe est confrontée à une dépendance épistémologique. Ses besoins numériques ne sont pas définis en fonction des besoins européens, mais selon les outils numériques américains existants (prenons l’exemple de l’attribution à Microsoft de l’hébergement de la base de données médicales de l’État français, sans appel d’offre et donc sans définition des besoins). Cette dépendance épistémologique se nourrit du phénomène de pantouflage, avec des aller-retours de hauts fonctionnaires et de décideurs politiques français entre la sphère étatique et les grandes entreprises du numérique et les cabinets de conseil privé. Les GAFAM sont ainsi en mesure d’imposer à l’Europe un « impérialisme des besoins » qu’ils sont à même de définir selon leurs propres intérêts stratégiques. L’Europe connaît ainsi une « dépossession de ses propres besoins numériques ». Par exemple, il est impossible en France de contester la stratégie nationale de déploiement de la 5G, alors que la couverture Internet à haut débit est supérieure en France par rapport à celle des États-Unis. Le metaverse de Facebook est également un besoin qui n’est pas validé par les utilisateurs (mais avant tout un besoin des entreprises).

L’impérialisme numérique va plus loin puisqu’il produit une désappropriation des futurs en déterminant par lui-même les futurs possibles, rendant alors difficile d’ancrer le numérique dans les valeurs et les besoins européens. Par exemple, en France, l’enjeu du cloud souverain débouche systématiquement sur l’idée de créer des GAFAM à la française, sans même questionner la pertinence en France et en Europe du modèle des GAFAM américain (et alors que les États-Unis eux-mêmes questionnent aujourd’hui le modèle des GAFAM). N’est-ce pas en effet un combat perdu d’avance que de créer des copies européennes (en open source) des GAFAM et autres applis américaines ? Mais pour sortir de la dépendance épistémologique européenne, il est impératif de se détacher des discours de l’urgence, et de ramener la marge au centre, en pensant les usages numériques davantage en termes de convivialité. L’Europe y parvient par le droit, en jouant de sa puissance de marché et de l’affirmation de l’extraterritorialité du droit européen (exemple du Règlement général sur la protection des données et ses effets sur les politiques de cookies).

De même, l’Europe est capable de porter des projets comme GAIX-X relatif au développement d’une infrastructure de données en nuage (même si là encore des GAFAM américains et des BATX chinois font partie du projet), le European Blockchain Services Infrastructure (EBSI) centré sur la souveraineté des utilisateurs, l’identité numérique européenne (avec une réforme du règlement eIDAS) et le Self-sovereign identity (identité numérique contrôlée par les utilisateurs et validée par des certificateurs européens et qui permet de se passer des instruments d’authentification Google).

En adoptant une approche de l’innovation numérique ancrée dans les valeurs européennes, l’Europe n’est pas désarmée (elle n’est pas en situation d’ex-colonie) grâce au droit européen et ses moyens technologiques, à la condition de rompre avec l’injonction de l’urgence et de mettre la marge au centre.

Julien Nocetti juge hypothétique une troisième voie européenne en matière de numérique, entre deux écosystèmes prédateurs (la vision libertarienne américaine et la vision techno-autoritaire chinoise). Certes, le positionnement européen est très marqué par les valeurs européennes, mais est-ce suffisant pour constituer une Europe puissance dans le domaine du numérique ? D’autre part, sur les termes employés, il est également question de protection de la démocratie (Thierry Breton parle de « souveraineté informationnelle » de l’Europe). En relations internationales, il faut faire attention à ne pas emprunter des termes qui ne sont pas les nôtres, mais américains ou chinois. Sur le « Brussels effect » : l’Europe possède en effet une puissance normative, mais avec une limite car le positionnement normatif européen joue un peu le rôle d’arbitre. Or les arbitres en Relations internationales ne gagnent pas. Aux Etats-Unis, on observe une décorrélation entre les actions de régulation interne et le soutien étatique à l’international accordé aux GAFAM.

Brunessen Bertrand revient sur l’enjeu de la blockchain qui sont des anti-plateforme (du fait de la désintermédiation propre à la blockchain). Comment concilier l’industrie du minage (blockchain) et la transition énergétique ? Comment appliquer le RGPD à la blockchain ?

Pierre Noro juge que le positionnement sur les valeurs n’est pas suffisant, mais nécessaire, au risque de courir derrière les États-Unis pris comme référentiel qui n’est pas le nôtre. Ainsi, les tentatives d’entreprises européennes dans le cloud souverain, qui cherchaient à copier les exemples américains, ont fait long feu. En ancrant le numérique européen dans les valeurs et les besoins européens, l’Europe pourrait se retrouver en « avance de phase » dans l’innovation technologique et industrielle numérique. Le problème des Européens est en effet que l’Europe « court mal » dans cette course, alors qu’elle est confrontée à des asymétries budgétaires majeures avec les Américains et les Chinois. Il faut alors chercher des raccourcis, des disruptions, pour être en avance de phase, qui pourraient être trouvés dans l’éthique (avec l’importance commerciale croissante des sujets éthiques dans le numérique), par la création de navigateurs ou d’applications qui respectent des valeurs et/ou qui répondent à l’exigence de sobriété énergétique. D’autre part, pour pallier la faiblesse européenne en matière de capital-risque, l’Europe se doit d’être très offensive en matière d’investissements publics. Or, en France notamment, la doctrine de la commande publique, qui est un levier de soutien financier majeur, est très déficiente, avec des marchés publics destinés à être remportés par des entreprises non-françaises ou non-européennes (label « Cloud de Confiance »). Enfin, la « décolonisation » numérique de l’Europe implique des investissements massifs en infrastructures (comme l’équipement en centres de données).

Maxime Lefebvre, diplomate, souligne que si l’Europe a fait beaucoup de choses en termes de régulation, la question demeure de savoir comment développer des acteurs du numériques européens qui parviennent à la taille critique. Visiblement l’Europe n’arrive pas à rattraper les GAFAM américain. Il faudrait à ce sujet étendre nos discussions avec les entreprises françaises et européennes.

Brunessen Bertrand répond à la question de Jérôme Creel, directeur du département des études de l’OFCE, sur la neutralité de la Commission européenne vis-à-vis des politiques industrielles numériques nationales. La Commission européenne n’est pas vraiment neutre, mais procède par encouragement. Elle déploie un faisceau d’instruments, fait de droit souple, de « bacs à sable » règlementaire et de coordination, en mobilisant ses compétences d’appui pour progressivement européaniser les compétences nationales en matière de numérique. D’autre part, en matière de R&D, l’Europe propose beaucoup de canaux de financement, comme des partenariats public-privé et des entreprises communes dans le quantique ou les semi-conducteurs.

Adeline Wintzer, doctorante au Cevipof, demande s’il existe des outils d’évaluation du niveau des investissements en Europe. Sont-ils suffisants ? Quid d’un protectionnisme européen dans le domaine numérique ? D’autre part, les objectifs commerciaux européens dans le numérique ne semblent pas aussi clairs que ceux des États-Unis et de la Chine.

Sarah Guillou, économiste à l’OFCE, remarque que pour le numérique, et alors que l’objectif de compétitivité est traditionnellement premier dans l’UE, la dimension de souveraineté tend à prendre le pas sur celle de la compétitivité, avec une volonté affichée de financer les investissements nécessaires dans le numériques et des incitations à la digitalisation des États (avec un arbitrage entre se digitaliser rapidement en recourant à des prestataires hors UE ou prendre le temps de construire une politique industrielle numérique européenne).

Julien Nocetti estime que l’emboîtement des ambitions et des projets européens dans le numérique se reflète dans le cadre financier pluriannuel (CFP) avec un changement d’échelle, avec le programme Horizon 2020 qui cible le numérique, le programme Europe numérique, le mécanisme d’interconnexion en Europe et dans le domaine spatial. Il reste que l’Europe est confrontée à une asymétrie majeure sur le plan de l’effort budgétaire consacré à la R&D vis-à-vis des GAFAM (le programme Horizon 2020 équivaut à 2% des investissements R&D de Amazon). Le financement de l’innovation est la grande faiblesse de l’Europe qui dépend très fortement de capital-risqueurs américains ou israéliens, ce qui pénalise l’essor de start-up européennes capables de passer à l’échelle tout en restant européennes. Enfin, il y a un lien entre décolonisation et captation des cerveaux européens, avec la multiplication des laboratoires de recherche américains et chinois en Europe dans des domaines sensibles comme l’IA, le quantique ou les algorithmes. La dimension des ressources humaines est sous-estimée. Elle emporte trois enjeux : 1/ l’enjeu de formation (être en mesure de former nos propres chercheurs et experts), 2/ l’enjeu de retenir ces compétences et 3/ l’enjeu de capter des cerveaux non-européens.

Xavier Ragot, président de l’OFCE, remarque que la question du numérique a fait voler en éclat la pensée de l’intervention publique, avec la difficulté persistante de l’Europe pour la production d’acteurs numériques. Le numérique est un bien d’expérience : le consommateur ne connaît pas la valeur du produit sans l’avoir au préalable essayé, ce qui limite la capacité de la puissance publique d’influer sur les usages des consommateurs (sauf en santé publique). Pour l’Europe, il semble difficile d’aller au-delà d’une articulation fine entre politique de la concurrence et politique d’environnement du financement.

Julien Nocetti juge que l’Europe doit accepter de « perdre du temps », malgré un contexte d’accélération du temps. Il remarque d’autre part que le débat sur le numérique en Allemagne a du mal à comprendre l’approche par la souveraineté : il est davantage question du prisme de l’auto-détermination des individus.


[1] Voir par exemple la tribune du député (Modem) Philippe Latombe, « Face aux agressions des Gafam, l’écosystème tech doit s’unir », La Tribune, 6 avril 2022. Le député y parle de « guerre d’occupation numérique » des GAFAM.

[2] Article 4 § 3 du TFUE : « Dans les domaines de la recherche, du développement technologique et de l’espace, l’Union dispose d’une compétence pour mener des actions, notamment pour définir et mettre en œuvre des programmes, sans que l’exercice de cette compétence ne puisse avoir pour effet d’empêcher les États membres d’exercer la leur. » L’UE peut également mobiliser ses compétences en matière de politique industrielle (art. 173 TFUE), de politique de la concurrence (art. 101 et 109 TFUE), de politique commerciale (art. 206 et 207 TFUE), de réseaux transeuropéens (art. 170 et 172 TFUE), de recherche et développement technologique et d’espace (art. 179 et 190 TFUE), de politique énergétique (art. 194 TFUE), de rapprochement des législations dans le but d’améliorer l’établissement et le fonctionnement du marché intérieur (art. 114 TFUE), de libre circulation des marchandises (art. 26 et 28 à 37 TFUE), de libre circulation des personnes, des services et des capitaux (art. 45 et 66 TFUE), d’éducation, de formation professionnelle, de jeunesse et de sport (art. 165 et 166 TFUE), et de culture (art. 167 TFUE).

[3] Adoptée le 21 mars 2022, la Boussole stratégique dote l’UE d’un plan d’action pour renforcer la politique de sécurité et de défense de l’UE d’ici à 2030.




Dispersion des marges des entreprises à l’international

Stéphane Auray
et Aurélien Eyquem

La forte mondialisation des économies a accru
l’intérêt que l’on se doit de porter à l’importance des marges bénéficiaires
des entreprises tournées vers l’international. Il sera entendu par marge
bénéficiaire le différentiel entre le coût marginal de production et le prix de
vente. Les évidences empiriques s’accumulent pour montrer que ces marges ont beaucoup
augmenté ces dernières années (Autor, Dorn, Katz, Patterson, et Reenen, 2017 ;
Loecker, Eeckhout, et Unger, 2020) et que les grandes entreprises représentent
une part croissante des fluctuations agrégées (Gabaix, 2011). Par ailleurs, la
dispersion des marges bénéficiaires est considérée dans la littérature comme
une source potentielle de mauvaise allocation des ressources – capital et
travail –, que ce soit au sein d’économies considérées fermées aux échanges
internationaux (voir Restuccia et Rogerson, 2008) ou encore, par exemple, Baqaee
et Farhi, 2020) mais également au sein des économies considérées ouvertes aux
échanges commerciaux (Holmes, Hsu et Lee, 2014 ou Edmond, Midrigan et Xu, 2015).
Enfin, il a été montré récemment par Gaubert et Itskhoki (2020) que ces marges sont
un déterminant essentiel de l’origine granulaire – liée à l’activité des
grandes firmes exportatrices – des avantages comparatifs, autrement dit un déterminant
de la compétitivité dans les échanges.



Dans un article récent (Auray et Eyquem, 2021) nous
introduisons une dispersion des marges bénéficiaires en supposant une
tarification stratégique via une concurrence
à la Bertrand dans un modèle à deux
pays avec effets de variété endogène et commerce international à la Ghironi et Melitz (2005). Notre but
est de comprendre l’interaction entre ces marges, la productivité des
entreprises et les phénomènes d’entrée et de sortie sur les marchés domestiques
comme étrangers. S’il existe des distorsions dans l’allocation des ressources,
comme c’est généralement le cas dans ces modèles, notre objectif corollaire est
d’étudier la mise en œuvre de politiques fiscales optimales.

Dans les modèles à firmes hétérogènes tels que celui
de Ghironi et Melitz (2005), les firmes sont supposées hétérogènes en termes de
productivité individuelle. Les firmes les plus productives sont plus
susceptibles d’entrer sur les marchés parce qu’elles sont plus à même de payer
les coûts fixes d’entrée, que ce soit sur les marchés locaux ou à
l’exportation. Par ailleurs ces firmes étant plus efficaces, elles produisent à
des coûts plus faibles, ce qui leur permet de s’arroger de plus grandes parts
de marché. Ces effets qui semblent relativement intuitifs ont déjà été
largement validés empiriquement. De manière générale, l’introduction de
comportements de tarification stratégique permet aux entreprises ayant les plus
grandes parts de marché de bénéficier d’un plus grand pouvoir de fixation des
prix qui les conduit à extraire des marges plus importantes – étant entendu que
les prix de vente qui en résultent peuvent quant à eux se révéler inférieurs à
ceux de leurs concurrents. Une littérature croissante sur le commerce
international souligne l’importance de ces comportements stratégiques et de la
dispersion des marges qui en résulte dans la détermination des schémas
d’ouverture au commerce ou de leur composition sectorielle (voir par exemple
Bernard, Eaton, Jensen et Kortum, 2003) ; Melitz et Ottaviano, 2008 ;
Atkeson et Burstein, 2008) mais dans l’ampleur des gains de bien-être liés au commerce
(Edmond, Midrigan et Xu, 2015). En effet, l’ouverture au commerce, au-delà de
ses effets habituels, pourrait réduire les effets néfastes de la dispersion des
marges via l’augmentation de la
concurrence qui en résulte et donc accroître ses effets positifs.

Tout d’abord et tel qu’anticipé, lorsque la politique fiscale est passive, la concurrence à la Bertrand génère une répartition des marges telle que les entreprises de plus grande taille – donc les productives – proposent des tarifications plus faibles, attirent des parts de marché plus importantes et obtiennent des marges bénéficiaires plus importantes. De plus, Le mécanisme de sélection des entreprises exportatrices décrit par Melitz (2003) implique que ces dernières sont plus productives et facturent donc des marges bénéficiaires plus élevées. Ces résultats sont intuitifs et correspondent à la distribution observée des marges (voir Holmes, Hsu,et Lee, 2014).

Deuxièmement, nous caractérisons l’allocation optimale des
ressources et montrons comment elle peut être mise en œuvre. Le meilleur
équilibre possible corrige intégralement les distorsions de prix, implique une
dispersion nulle des marges et un niveau quasi-nul de ces marges. Il est mis en
œuvre, comme souvent dans cette littérature, par de généreuses subventions qui
annulent les marges tout en préservant l’incitation des entreprises à entrer
sur les marchés nationaux et d’exportation, c’est-à-dire en leur permettant de
couvrir les coûts fixes d’entrée. Cet équilibre de premier rang peut être mis
en place en utilisant une combinaison de subventions des ventes spécifiques à chaque
entreprise, un régime d’imposition des bénéfices différencié entre entreprises
non-exportatrices et exportatrices et une fiscalité spécifique sur travail.

Dans un modèle similaire où les marges sont supposées
identiques à toutes les entreprises, le meilleur équilibre est identique mais,
en revanche, beaucoup plus facile à mettre en œuvre grâce à un seul instrument de
politique économique : une subvention uniforme et variable dans le temps pour
toutes les entreprises.

Dans les deux cas, les gains associés à de telles politiques
sont très importants par rapport au laisser-faire, représentant un
accroissement potentiel de la consommation des ménages de l’ordre de 15%. Cependant,
compte tenu de la complexité de la mise en œuvre d’un régime avec des marges hétérogènes
et au regard de son coût pour les finances publiques, supérieur à 20% du PIB –
la mise en œuvre nécessite d’importants montants de subventions, que les marges
soient hétérogènes ou homogènes – nous considérons les politiques alternatives
de second rang, où le nombre d’instruments de politique économique est limité
et où l’on impose que le budget du gouvernement soit équilibré. Nous constatons
que ces restrictions réduisent considérablement la capacité des décideurs à
réduire les pertes de bien-être associées à l’équilibre de laisser-faire, et
que seulement un tiers des gains potentiels de bien-être peuvent être mis en
œuvre dans ce cas.

Troisièmement, alors que les allocations de premier rang
sont indépendantes du degré du comportement de tarification, nous constatons
que les pertes de bien-être observées dans l’équilibre de laisser-faire sont
inférieures lorsque les marges sont hétérogènes et supérieures en moyennes aux
marges observées en l’absence de tarification stratégique. Même si cela peut
sembler surprenant, le résultat peut être rationalisé en considérant les effets
de la dispersion des marges à la fois sur la marge intensive – quantité produite
par entreprise – et sur la marge extensive – le nombre d’entreprises sur les
marchés. En effet, la concurrence à la
Bertrand implique que la dispersion et le niveau moyen des marges sont
positivement liés. La dispersion des marges augmente ainsi le niveau des marges
avec deux effets. D’une part, toutes choses égales par ailleurs, des marges plus
élevées réduisent la quantité produite par chaque entreprise – la marge
intensive – et induisent une mauvaise allocation des ressources qui génère des
pertes de bien-être. D’autre part, des marges bénéficiaires plus élevées
impliquent des bénéfices attendus plus élevés pour les entrants potentiels, ce
qui stimule l’entrée et augmente ainsi le nombre d’entreprises existantes – la
marge extensive. Selon notre modèle, les gains de bien-être associés au second
effet dominent les pertes de bien-être associées au premier effet. Le résultat
implique donc que la dispersion des marges bénéficiaires peut générer des gains
de bien-être, du moins lorsque aucune autre politique fiscale ou industrielle
n’est menée.

Quatrièmement, alors que les résultats précédents sont
principalement concentrés sur les implications de notre modèle et des
politiques optimales associées en moyenne au cours du temps, nous étudions
également les leurs propriétés dynamiques. Dans le cadre de politiques fiscales
passives (laisser-faire), lorsque l’économie subit des chocs de productivité
agrégés – technologiques par exemple – le modèle se comporte globalement comme
le modèle à la Ghironi et Melitz (2005). Une prédiction originale de notre
modèle est que les marges bénéficiaires sont globalement contracycliques tandis
que les marges bénéficiaires à l’exportation sont procycliques. La politique
optimale implique des ajustements des taux d’imposition afin de renverser cette
tendance, d’aligner toutes les marges au long du cycle économique et de rendre
toutes les marges procycliques. Ces résultats sont conformes aux conclusions des
études qui concentrent le comportement cyclique optimal des marges avec firmes
hétérogènes dans des modèles d’économies fermées (Bilbiie, Ghironi et Melitz,
2019) et ouvertes (Cacciatore et Ghironi, 2020). Pour autant, conditionnellement
à des chocs de productivité agrégés, la dispersion des marges bénéficiaires a
peu d’effets quantitativement en comparaison d’un modèle similaire avec marges
homogènes.

Enfin, dans l’esprit de Edmond, Midrigan et Xu (2015), nous
menons une expérience de libéralisation commerciale par laquelle les coûts du
commerce diminuent progressivement et définitivement à presque zéro. Nous
constatons que les gains de bien-être à long terme sont beaucoup plus
importants lorsque la politique conduite est optimale. D’autre part,
l’équilibre de laisser-faire indique que les gains de bien-être à court terme
sont affectés par la dispersion des marges. En effet, la dispersion des marges
affecte la dynamique de création des entreprises résultant d’une libéralisation
des échanges de manière critique. Comme dans Edmond, Midrigan et Xu (2015), la
dispersion des marges réduit les gains de bien-être à long terme du commerce,
mais pour une raison différente : elle affecte le dynamisme dans la création d’entreprises
et réduit le nombre d’entreprises à long terme. Cependant, puisque dans ce cas,
moins de ressources sont investies à court terme pour créer de nouvelles
entreprises, la consommation augmente davantage à la marge intensive à court et
moyen termes – moins de 10 ans. Alors que les gains de bien-être à long terme
de l’intégration commerciale varient de 12% à 14,5% selon les étalonnages, les
gains de bien-être à court terme avec marges hétérogènes peuvent être jusqu’à 3%
plus importants qu’avec marges homogènes.

Les conclusions de cette étude conduisent à une
approche plus nuancée des marges bénéficiaires des entreprises que celle
habituellement avancée par la littérature. En effet, si ces marges et leur
dispersion ont bien des effets négatifs sur l’économie, elles ont également un
rôle important à jouer dans les phénomènes d’entrée de firmes et de
participation aux marchés internationaux. Nos travaux viennent en complément
d’une approche strictement microéconomique des questions de politique
industrielle, qui conclurait de manière univoque quant à la nocivité des
pouvoirs de marchés à l’origine de ces marges. À ce titre, à la manière de
Schumpeter, ils convoquent une vision plus équilibrée du rôle des marges des
entreprises dans les économies modernes qui ferait état d’une tension entre
distorsions de concurrence et incitations à la création d’entreprises.

Références bibliographiques

Auray
Stéphane et Aurélien Eyquem, 2021, « The dispersion of Mark-ups in an Open Economy ».

Autor
David, David Dorn, Lawrence F. Katz, Christina Patterson et John Van Reenen,
2017, « Concentrating
on the Fall of the Labor Share », American
Economic Review
, 107 (5):180-185.

Baqaee
David Rezza et Emmanuel Farhi, 2020, « Productivity and Misallocation in General Equilibrium », The Quarterly Journal of Economics, 135
(1):105-163.

Berman N.,
P. Martin et T. Mayer, 2012, « How do Different Exporters React to Exchange Rate Changes?  », Quarterly Journal of
Economics,
127 (1):437-492.

Bernard
Andrew B., Jonathan Eaton, J. Bradford Jensen et Samuel Kortum, 2003, « Plants and Productivity in
International Trade », American Economic Review, 93 (4):1268-1290.

Bilbiie
Florin O., Fabio Ghironi et Marc J. Melitz, 2008, « Monetary Policy and Business Cycles with
Endogenous Entry and Product Variety », In NBER
Macroeconomics Annual 2007
, Volume 22, NBER Chapters. National Bureau of
Economic Research, Inc, 299-353.

Bilbiie
Florin O., Fabio Ghironi et Marc J. Melitz, 2019, « Monopoly Power and Endogenous
Product Variety: Distortions and Remedies », American
Economic Journal: Macroeconomics
, 11 (4):140-174.

Cacciatore
Matteo, Giuseppe Fiori et Fabio Ghironi, 2016, « Market Deregulation and Optimal Monetary Policy
in a Monetary Union », Journal of International
Economics
, 99 (C):120-137.

Cacciatore
Matteo et Fabio Ghironi, 2020, « Trade, Unemployment, and Monetary Policy », NBER Working Paper, 27474.

Edmond
Chris, Virgiliu Midrigan et Daniel Yi Xu, 2015, « Competition, Markups, and the Gains from
International Trade », American Economic Review, 105(10):3183-3221.

Etro
Federico et Andrea Colciago, 2010, « Endogenous Market Structure and the Business Cycle », Economic Journal, 120(549):1201-1233.

Gabaix
Xavier, 2011, « The
Granular Origins of Aggregate Fluctuations », Econometrica, 79(3):733-772.

Gaubert
Cecile et Oleg Itskhoki, 2020, « Granular Comparative Advantage », Journal of
Political Economy
(à paraître).

Ghironi F. et
M. J. Melitz, 2005, « International Trade and Macroeconomic Dynamics with Heterogeneous Firms », Quarterly Journal of Economics,
120(3):865-915.

Holmes
Thomas J., Wen-Tai Hsu et Sanghoon Lee, 2014, « Allocative Efficiency, Mark-ups, and the
Welfare Gains from Trade », Journal of International Economics, 94(2):195-206.

Loecker Jan
De, Jan Eeckhout et Gabriel Unger, 2020, « The Rise of Market Power and the Macroeconomic
Implications [“Econometric Tools for Analyzing Market Outcomes”] », The Quarterly Journal of
Economics
, 135(2):561-644.

Melitz Marc
J., 2003, « The
Impact of Trade on Intra-Industry Reallocations and Aggregate Industry Productivity », Econometrica, 71(6):1695-1725.

Melitz Marc
J. et Gianmarco I. P. Ottaviano, 2008, « Market Size, Trade, and Productivity », Review of Economic Studies, 75(1):295-316.

Restuccia
Diego et Richard Rogerson, 2008, « Policy Distortions and Aggregate Productivity with
Heterogeneous Establishments »,
Review of Economic
Dynamics
, 11(4):707-720.




États-Unis : en attendant la relance

par Christophe Blot

À
l’image des performances économiques de l’ensemble des pays industrialisés,
l’activité a fortement reculé au deuxième trimestre 2020 outre-Atlantique avant
un rebond tout aussi marqué le trimestre suivant. Aux États-Unis, la gestion de
la crise repose en grande partie sur les États et l’élection de Joe Biden ne
devrait pas modifier ce cadre puisqu’il déclarait le 19 novembre qu’il
n’ordonnerait pas de confinement global. Pour autant, la situation sanitaire
connaît une nouvelle dégradation avec plus de 200 000 nouvelles contaminations
par jour en moyenne depuis début décembre. De nombreux États adoptent en
conséquence des mesures prophylactiques plus contraignantes sans pour autant
revenir sur un confinement tel que celui observé au printemps. Cette situation
pourrait ternir la situation conjoncturelle en fin d’année et aussi le début du
mandat du nouveau Président élu en novembre dernier. Elle rend surtout encore
plus nécessaire la mise en œuvre d’un nouveau plan de relance retardé par la
période électorale.



Comme dans la zone euro, la reprise américaine s’est enclenchée dès la fin du confinement. Le PIB a progressé de 7,4 % au troisième trimestre alors qu’il avait chuté de 9 % au trimestre précédent. Comparativement au niveau d’activité de fin 2019, la perte d’activité s’élève à 3,5 points contre 4,4 points dans la zone euro. La situation sur le marché du travail s’est également rapidement améliorée avec une baisse de 8 points du taux de chômage, selon les données du Bureau of Labor Statistics de novembre, depuis le pic du mois d’avril à 14,7 %. Ces performances sont la conséquence logique de la levée des restrictions mais aussi des plans de relance massifs votés en mars et en avril et qui ont massivement permis d’absorber les pertes de revenu pour les ménages et dans une moindre mesure pour les entreprises américaines (voir ici). La reprise de la consommation reste toutefois marquée par le maintien de certaines restrictions, notamment dans les secteurs à fortes interactions sociales où les dépenses sont toujours inférieures de près de 25 % à ce qu’elles étaient au quatrième trimestre 2019 (graphique 1). Quant à la consommation de biens, elle a été beaucoup moins affectée par la crise et se retrouve à plus de 12 % de son niveau d’avant-crise pour les biens durables et 4,4 % pour les biens non durables. Toutefois, la plupart de ces mesures de soutien ont pris fin et les discussions entamées à la fin de l’été au Congrès n’ont pas permis d’aboutir à un accord entre Républicains et Démocrates. Or, en dépit du rebond, les conséquences sanitaires de l’épidémie et les conséquences économiques du confinement sur le marché du travail nécessitent une politique discrétionnaire dans un pays où les stabilisateurs automatiques sont généralement considérés comme plus faibles[1]. Ces nouvelles aides seraient d’autant plus nécessaires qu’un durcissement des mesures prophylactiques se profile et que la dynamique de reprise semble s’essouffler. Les premiers chiffres de la consommation pour le mois d’octobre indiquent en effet un tassement de la consommation de services et l’emploi s’est également stabilisé en novembre, restant bien inférieur à son niveau de la fin de l’année 2019.

Pourtant, après l’échec des discussions au Congrès, il faudra maintenant attendre le premier trimestre 2021 pour qu’un nouveau plan de soutien soit voté et pour une éventuelle ré-orientation de la politique budgétaire américaine après la victoire de Joe Biden. À l’automne, les Démocrates proposaient une enveloppe de 2 000 milliards de dollars (9,5 points de PIB), soit presque autant que les mesures adoptées en mars-avril 2020 qui s’élevaient à 2 400 milliards (10,6 points de PIB)[2]. L’aide permettrait notamment de soutenir le pouvoir d’achat des personnes au chômage par une allocation fédérale supplémentaire. Même si le chômage est bien inférieur à celui du deuxième trimestre, il reste supérieur à son niveau d’avant-crise et est aujourd’hui caractérisé par un accroissement du chômage de longue durée qui n’est généralement pas indemnisé. La part des chômeurs sans emploi depuis au moins 27 semaines s’élève à 37 % (soit 3,9 millions de personnes, graphique 2) en novembre et la durée médiane du chômage est passée de 9 semaines fin 2019 à près de 19 semaines en novembre 2020. Par ailleurs, les États dont les recettes fiscales ont diminué avec la crise pourraient bénéficier d’un transfert fédéral évitant des coupes dans les dépenses[3].

Pourtant, malgré la fin du suspense sur l’issue des élections présidentielles, l’incertitude politique et économique n’a pas été totalement levée. En effet, il faudra attendre début janvier pour savoir si les Démocrates bénéficieront également d’une majorité au Congrès. Ils ont certes conservé la Chambre des Représentants mais il faudra attendre début janvier pour le Sénat avec un de scrutin prévu en Géorgie qui déterminera la couleur politique des deux derniers sièges[4]. Les deux sièges sont aujourd’hui détenus par des sénateurs républicains. Toutefois, Joe Biden a gagné l’État de 0,2 points contre Donald Trump, première victoire en Géorgie pour un candidat démocrate depuis 1992. Les deux élections sénatoriales se jouant au scrutin direct dans l’intégralité de l’État, les résultats seront probablement serrés.  En cas de défaite de l’un des candidats démocrates, Joe Biden serait contraint de composer avec l’opposition. Or, comme le souligne Paul Krugman, les Républicains sont généralement plus enclins, une fois dans l’opposition, à promouvoir l’austérité. Les indicateurs d’incertitude de Bloom, Baker et Davies reflète bien cette situation puisqu’en novembre, l’incertitude de politique économique s’est accrue (graphique 3). Cette incertitude est certes plus faible qu’au printemps mais se maintient à un niveau plus élevé que celui observé entre 2016 et 2019. Pendant ce temps, la croissance risque de s’essouffler et après une reprise en fanfare la croissance pourrait être plus timide, ce qui se répercutera sur le marché du travail. Quels que soient les résultats, un plan sera sans doute voté au premier trimestre 2021 mais son adoption pourrait être plus longue si elle est conditionnée à un accord entre Républicains et Démocrates au Congrès. Ce temps risque cependant d’être long face à l’urgence de la crise sanitaire et sociale et plonger dans la pauvreté une fraction importante des plus fragiles.

Source :
Baker, Bloom & Davis.
https://www.policyuncertainty.com/index.html


[1] Voir par
exemple Dolls, M., Fuest, C. & Peichl, A., 2012, « Automatic stabilizers and economic crisis: US vs. Europe », Journal of Public
Economics
, 96(3-4), pp. 279-294.

[2]
Comparativement, les plans européens sont de plus faible ampleur allant de 2,6
points de PIB pour la France à 7,2 points pour le Royaume-Uni.

[3]
Rappelons en effet que les États se sont généralement dotés de règles
budgétaires limitant leur capacité à être en déficit.

[4] Sur les
100 sièges du Sénat, les Républicains en détiennent d’ores et déjà 50. En cas
d’égalité entre les deux partis, c’est la voix de la future vice-Présidente
Kamala Harris qui permettra de les départager. Une
seule victoire en Géorgie leur permettrait donc de conserver la majorité
.




Investissement et capital productif publics en France: état des lieux et perspectives

par Mathieu Plane, Xavier Ragot, Francesco Saraceno

Comparé aux autres pays de l’OCDE, le capital public en France est élevé ainsi que la qualité des infrastructures. Mais la tendance depuis dix ans n’est pas favorable. L’investissement public brut est sur une tendance décroissante depuis maintenant plusieurs années. Le taux de croissance de l’investissement public net montre une chute plus importante encore. Cela signifie que la dépréciation du capital public et des infrastructures n’est que très partiellement compensée.



La valeur patrimoniale
des administrations publiques est encore positive mais a subi une chute
importante et atteint un point bas inquiétant. En effet, la dette publique a
cru plus vite que le capital public.

En plus des effets de
long terme, les analyses montrent que l’investissement public a l’avantage de stimuler
l’activité économique à court terme. Pendant la période de crise de la
Covid-19, il faut s’attendre à des effets positifs importants en France du fait
de la situation économique courante. L’investissement public est presque
autofinancé en période de récession.

Les collectivités locales
sont le premier investisseur public. Elles réalisent près de 70 % de
l’investissement public civil. L’investissement public pour les ouvrages de
génie civil, le logement, l’éducation et la protection de l’environnement est
principalement réalisé par les collectivités locales.

Trois fonctions de
l’investissement public demandent un effort particulier. La première est la
maintenance des infrastructures existantes, en particulier de génie civil. La
seconde est la transition énergétique et l’investissement pour la biodiversité,
dont les montants totaux nécessaires sont élevés. Enfin la troisième concerne les
infrastructures de l’économie numérique.

Le plan de relance de 100
milliards d’euros indique une inflexion encore modeste en faveur de l’investissement
public. En effet, les montants nécessaires sont élevés sur plusieurs années. À
court terme, l’enjeu essentiel est la mise en œuvre rapide de l’investissement
public afin de bénéficier à la fois des effets de court et long terme.

Pour consulter l’étude : https://www.ofce.sciences-po.fr/pdf/pbrief/2020/OFCEpbrief79.pdf




Une histoire du désajustement franco-allemand (1995-2011)

Par Hadrien Camatte et Guillaume Daudin

Les
salaires par employé des secteurs « abrités » ont progressé beaucoup
plus rapidement en France qu’en Allemagne entre 1993 et 2012 (+47
 % en cumulé en France, +12 % en Allemagne). Selon X. Ragot et M. Le
Moigne, cette modération salariale des secteurs abrités en Allemagne serait
responsable de la moitié de l’écart de performances à l’exportation entre les
deux pays (28 points d’écarts en 2011, en prenant 1995 comme base).  



Grâce
à une approche capturant les chaînes de valeurs (modèle PIWIM) et en suivant
les hypothèses
utilisées
par X. Ragot et M. Le Moigne
, nous
estimons que l’écart de dynamique des salaires abrités entre la France et
l’Allemagne entre 1996 et 2011 explique 40 % de l’écart de performance à
l’exportation entre les deux pays (avec l’élasticité-prix des exportations
σ = 3). Ce résultat est un peu inférieur à celui
obtenu par X. Ragot et M. Le Moigne (50
 % du
total de l’écart) sur un horizon un peu plus étendu (1993-2012 pour X. Ragot /
M. Le Moigne) et sur des données agrégées.

Compte
tenu de la forte incertitude autour de l’élasticité-prix des exportations, nous
réalisons deux variantes : la première en retenant
σ = 2 (test de robustesse de X. Ragot et
M. Le Moigne) et σ = 1,3
correspondant
au coefficient de compétitivité-prix de long-terme du modèle
FR-BDF de la Banque de France. Dans le premier cas,
l’écart de dynamique des salaires abrités entre la France et l’Allemagne entre
1995 et 2011 explique près de 30% de l’écart de performance à l’exportation
entre les deux pays, tandis que l’effet obtenu est de 18 % en utilisant
FR-BDF. Ces résultats sont de nature à confirmer l’importance de la dynamique
des salaires abrités dans la performance du secteur exposé en France vis-à-vis
de l’Allemagne, ce qui a pu conduire à une baisse de son taux de marge ou de
ses performances à l’exportation.

* * *

Dans l’article « France et Allemagne : une histoire du
désajustement européen 
»
(2015, Revue de l’OFCE), X. Ragot et
M. Le Moigne étudient les raisons de la divergence économique entre la France
et l’Allemagne depuis le milieu des années 1990. Selon eux, la modération
salariale allemande dans les secteurs abrités[1]
serait responsable de la moitié de l’écart de performances à l’exportation entre
les deux pays et expliquerait environ 2 points de pourcentages – pp – du
taux de chômage français. « Le problème de l’offre en France est
essentiellement le résultat du désajustement européen. » écrivent les deux
auteurs. Certains travaux de recherche soutiennent cette thèse : à la
Banque de France, J. Carluccio[2]
a montré par exemple que les différences constatées au niveau des prix
immobiliers peuvent expliquer jusqu’à 70 % de l’écart de croissance des
salaires entre les deux pays entre 1996 et 2012. En revanche, d’autres travaux[3]
nuancent le rôle de la hausse des coûts du travail spécifique aux services dans
les pertes de parts de marché françaises à l’exportation. Selon V. Vicard et L.
Le Saux, les contributions significatives des services abrités aux exportations
manufacturières ne sont issues que de quelques secteurs des services, dont les
coûts unitaires du travail évoluent à un rythme proche de celui observé dans le
secteur manufacturier.

Cette note propose d’explorer
cette question en mobilisant le modèle PIWIM (Push-cost Inflation through
World Input-output Matrices
), qui permet une approche sectorielle prenant
en compte l’évolution des chaînes de valeur mondiales.

1 – Un état
des lieux : les salaires abrités français ont progressé nettement plus
vite que les salaires exposés allemands entre 1995 et 2011

La progression des salaires
abrités par tête a été beaucoup plus rapide en France qu’en Allemagne entre
1995 et 2011
(+47 %
en cumulé en France, +12 % en Allemagne soit quatre fois plus, voir graphique
1). Cet écart est beaucoup plus faible entre les salaires exposés français et
allemands : entre 1995 et 2011, ils ont augmenté en cumulé de 61 % en
France par rapport à 32 % en Allemagne, soit « seulement » deux
fois plus (voir graphique 2). L’utilisation des rémunérations par tête plutôt
que les salaires par tête ne change pas le diagnostic, même si l’écart est légèrement
plus creusé entre la France et l’Allemagne dans le secteur exposé (annexes 1).

      Bien que les salaires par tête aient progressé plus fortement en France qu’en Allemagne dans l’ensemble des secteurs abrités, il existe toutefois une grande hétérogénéité entre les secteurs (voir graphique 3 et graphiques en annexes 2). Par exemple, les salaires par tête ont progressé de 84 % dans les activités immobilières en France entre 1995 et 2011, tandis qu’ils ont baissé de 2 % en Allemagne sur cette période. En revanche, l’écart de progression des salaires par tête des services administratifs et de soutien n’a été que de 10 points entre la France et l’Allemagne sur la période, soit 20 points de moins que la moyenne des secteurs abrités. Ce point est central pour tenir compte de la critique de V. Vicard et L. Le Saux, dans la mesure où il s’agit du secteur abrité qui fournit le plus d’intrants au secteur exposé (annexes 2). Aussi, nous pondérons les secteurs abrités par rapport la production exportée pour tenir compte de cette critique.

2 – Méthode :
Que ce serait-il passé si les salaires abrités français avaient évolué comme
les salaires abrités allemands ?

Notre stratégie consiste à bâtir un
scénario contrefactuel de manière séquentielle :

  • Nous construisons un scénario contrefactuel de prix de production abrités, en supposant que les salaires de chaque secteur abrité français (par tête) ont évolué comme les salaires des secteurs équivalents allemands (par tête). Le passage des salaires au prix de production se fait sous l’hypothèse que l’excédent brut d’exploitation est constant. Nous utilisons les données de salaires et d’emploi d’Eurostat pour calculer des salaires par tête pour chaque secteur abrité de la base TiVA de l’OCDE pour la France et pour l’Allemagne.
  • Nous construisons un scénario contrefactuel de prix d’exportation, en calculant l’évolution des prix d’exports français si les salaires abrités français avaient évolué au même rythme que les salaires abrités allemands. Le modèle PIWIM utilisé avec la base de données TiVA nous permet d’obtenir le rôle des prix de production des secteurs abrités dans le total des prix d’exportation, pour la France et l’Allemagne entre 1995 et 2011. Pour mémoire, le modèle PIWIM utilise les tableaux d’entrées/sorties au niveau mondial des bases TiVA (OCDE) et WIOD (Commission européenne). Pour chaque année, il permet de calculer la sensibilité des prix des exportations aux salaires des secteurs abrités. La base TiVA (version 2016) est retenue car elle commence en 1995 (vs. 2000 pour WIOD)
  • À partir du scénario contrefactuel de prix
    d’exportation, nous en déduisons des performances à l’exportation
    contrefactuelles.
    Il
    n’est malheureusement pas possible d’utiliser PIWIM pour cette étape et de
    raisonner en équilibre général, dans la mesure où il s’agit d’un modèle
    purement comptable. L’hypothèse relative à l’élasticité-prix est fondamentale,
    dans la mesure où il existe une forte incertitude des estimations empiriques de
    la littérature : si la plupart des estimations macroéconomiques font état
    d’une élasticité proche de l’unité pour la France, d’autres peuvent aller jusqu’à
    6 (Broda
    et Weinstein[4],
    2006). Comme l’hypothèse de
    cette élasticité conditionne les résultats du contrefactuel de performances à
    l’exportation, nous choisissons d’utiliser σ = 3, σ = 2 et σ = 1,3. Les deux
    premières élasticités sont celles utilisées par X. Ragot et M. Le Moigne, 3
    étant considérée comme une valeur moyenne et 2 étant utilisée comme test de
    robustesse. Nous ajoutons à ces deux élasticités un scénario avec le
    coefficient de long-terme de la compétitivité-prix dans FR-BDF (1,3), le modèle
    de prévision utilisé à la Banque de France.

3 – Résultats

D’après le modèle PIWIM, si
les salaires abrités français avaient évolué comme les salaires abrités allemands,
toutes choses égales par ailleurs, les prix d’exports français totaux auraient
été inférieurs de 3,9 pp par rapport à leur progression réelle (graphique 4).

Sur cette période, l’écart de
performances à l’exportation (exportations en volume / demande mondiale) entre
la France et l’Allemagne s’élève à 28 points (graphique 5).

  1. En
    utilisant l’élasticité de de la compétitivité-prix σ = 3
    à l’évolution contrefactuelle des prix
    d’exportations (-3,9 pp), nous obtenons un effet de l’écart de dynamique des
    salaires abrités de l’ordre de 12 points, soit un peu plus de 40 % du
    total de l’écart ;
  2. En
    utilisant l’élasticité de de la compétitivité-prix σ = 2
    correspondant au test de robustesse de X.
    Ragot et M. Le Moigne, nous obtenons un effet de l’écart de dynamique des
    salaires abrités de l’ordre de 8 points, soit près de 30 % du total de
    l’écart ;
  3. En
    utilisant l’élasticité de de la compétitivité-prix σ = 1,3
    correspondant à l’élasticité-prix de
    long-terme de la compétitivité-prix de l’équation des exportations du modèle FR-BDF
    de la Banque de France à l’évolution contrefactuelle des prix d’exportations (-3,9
    pp), nous obtenons un effet de l’écart de dynamique des salaires abrités de
    l’ordre de de 18% du total de l’écart.

À élasticité-prix identique,
notre résultat (40 % de l’écart) est un peu inférieur à celui trouvé par
X. Ragot et M. Le Moigne (50%) sur un horizon toutefois un peu plus large
(1993-2012 vs. 1996-2011 pour cette étude). L’utilisation de données
désagrégées, avec une meilleure prise en compte de l’évolution des salaires
abrités de chaque service de soutien est également susceptible d’expliquer une
partie de l’écart. Il est également cohérent avec les résultats obtenus par R.
Cézar et F. Cartellier (« Compétitivité prix et hors-prix : leçons des chaînes
de valeur mondiales
 »,
Bulletin de la Banque de France,
224/2, juillet-août 2019), qui trouvent qu’en France, l’essentiel de la hausse
du coût unitaire du travail corrigé de l’insertion dans les chaînes de valeur
mondiales provient des secteurs de services, surtout abrités, alors que cet
effet est faible en Allemagne. Malgré la prise en compte de la critique de V.
Vicart / L. Le Saux et quelle que soit l’élasticité-prix retenue, ces
simulations confortent l’importance de la dynamique des salaires abrités dans
les divergences de performances à l’exportation de la France et de l’Allemagne. 

* Les prix à l’exportation français et allemands ont évolué à un rythme très proche depuis 1995, alors que les exportations en volume ont progressé beaucoup plus vite en Allemagne qu’en France. Dans un modèle d’offre et de demande, cela suggère que l’Allemagne a bénéficié d’un choc d’offre positif lié à la modération des prix des intrants.

Annexe 1 : Salaire et rémunération par employé


Annexe 2 : Importance
comparée des secteurs abrités en France et en Allemagne

Poids dans la production des secteurs abrités 

La part des différents secteurs abrités dans la production abritée est assez proche en France et en Allemagne.

Poids des consommations intermédiaires
issues des secteurs abrités dans la production des secteurs exposés

Les branches commerces, réparation d’automobiles et activités de services administratifs et de soutien sont les deux branches des secteurs abrités qui fournissent le plus d’intrants au secteur exposé.

Annexe 3 : Salaire par tête dans les secteurs abrités entre 1995 et 2011

Annexe 4 : Taux de marge net
par industrie (EBE et revenu mixte net/Valeur ajoutée)

Une critique assez usuelle consiste à dire que la fixation des prix d’exportations est réalisée par la concurrence et que l’ajustement est réalisé par les marges des exportateurs et in fine par l’innovation, l’investissement et la compétitivité hors prix. Si le taux de marge net des secteurs abrités a évolué de manière assez concomitante en France et en Allemagne entre 1995 et 2011 (cf. G A), celui-ci a connu des dynamiques très différentes dans le secteur exposé depuis le début des années 2000 : il a augmenté en Allemagne, malgré une forte chute observée pendant la crise de 2009, alors qu’il a baissé de façon quasi ininterrompue en France sur cette période (cf. G B).  

[1] Le
secteur abrité rassemble l’ensemble des biens non-exportables : la
construction, le commerce de gros et de détail, le transport, l’hébergement et
la restauration, les services immobiliers, les autres services, notamment les
services principalement non-marchands.

[2] Cf. Carluccio J., 2014, « L’impact
de l’évolution des prix immobiliers sur les coûts salariaux : comparaison
France-Allemagne 
», Bulletin de la
Banque de France
, n°196, 2e trimestre.

[3] Cf. Vicard V. & Le Saux L., 2014, « Les coûts du travail des
services domestiques incorporés aux exportations pèsent-ils sur la
compétitivité-coût ?, » Bulletin de
la Banque de France
, Banque de France, n° 197, pages 55-65.

[4] Broda
C. et Weinstein D., 2006, « Globalization and the Gains from Variety », The Quarterly Journal of Economics,
121(2) 541–585.