1

La France (presque) « championne du monde » de la dépense sociale et de la baisse de la pauvreté

par Raul Sampognaro et Xavier Timbeau

La France serait « championne du monde » de la dépense (publique) en protection sociale. Selon l’OCDE, les dépenses publiques en protection sociale[1] s’établissaient à 25,7 % du PIB en 2016. Ces dépenses sont proches de celles des pays scandinaves (29 % du PIB en Finlande, 25 % au Danemark, 21 % en Suède), de la Belgique (20 %) ou l’Autriche (24 %). A l’autre extrême, les pays anglo-saxons se caractérisent par de faibles dépenses de protection sociale. En particulier, l’Irlande dépense seulement 10 % de son PIB ­– une exception dans l’Union européenne – et les Etats-Unis 8,7 %.

Ces chiffres masquent des différences sur le domaine couvert par le système de protection sociale public dans les différents pays. En France, les retraites et le système de santé reposent largement sur un financement public, ce qui n’est pas nécessairement le cas ailleurs. Une grande part des droits ouverts en France sont directement liés aux cotisations sociales payées (notamment pour la retraite-survie[2]) ou servent à financer une dépense, a priori contrainte, qui ne devrait pas être limitée par des considérations de ressources individuelles (en santé).

Lorsque l’on exclut ces dépenses (retraites et santé), la France consacre 6,8 % de son PIB à la protection sociale, chiffre inférieur à celui des pays scandinaves (11 % de PIB au Danemark ou 8 % en Finlande). En revanche, les dépenses sociales sont plus faibles dans les pays méditerranéens (3 % du PIB en Italie et en Espagne ou 1 % en Grèce) ou au Japon (3 %). Sur ce champ restreint, incluant notamment les dépenses en « famille et enfants », « chômage », « logement » et « pauvreté et exclusion », la moyenne pondérée (pour les pays où les données détaillées sont disponibles[3]) des dépenses des pays de l’OCDE se situe à 4,5 % du PIB. La France dépense ainsi plus que la moyenne de l’OCDE.

Ainsi restreintes, les dépenses ont presque explicitement pour but la redistribution monétaire et la réduction de la pauvreté[4]. Une corrélation négative est observée entre le taux de pauvreté monétaire et le niveau des dépenses redistributives (graphique 1) au sein des pays membres de l’OCDE[5]. Une moindre dépense de protection sociale se traduit par une prévalence plus forte de la pauvreté monétaire. En France, le taux de pauvreté après transferts sociaux s’établit à 14 %, alors que le taux s’établit à 17 % dans l’ensemble de l’Union européenne.

Graphe-Pauvrete_post21-06Les écarts de taux de pauvreté ne dépendent pas directement et uniquement des dépenses sociales. D’une part, celles-ci poursuivent d’autres objectifs (assurer un revenu au-dessus du seuil de pauvreté aux personnes en situation de handicap, compléter les revenus des ménages médians avec enfants, …). D’autre part, il faut aussi tenir compte du point de départ avant redistribution, c’est-à-dire la distribution qui découle des rémunérations de marché. Selon Eurostat, le taux de pauvreté (primaire, après retraite) en France aurait été de 21 % en absence de redistribution. Le système socio-fiscal réduit donc le taux de pauvreté de 37 %. Au sein de l’Union européenne, la réduction n’est que de 28 % (pour une réduction de 7 points du taux de pauvreté).

En pourcentage du taux de pauvreté avant redistribution, seuls les Pays-Bas et le Royaume-Uni diminuent le taux de pauvreté de façon comparable à ce qui est fait en France alors que les dépenses dans ces deux pays sont plus faibles (5 % de leur PIB en protection sociale hors « retraite-survie » et « santé »), suggérant que le ciblage des dispositifs peut avoir un effet sur le lien pauvreté monétaire dépenses sociales (voir le billet du Blog de l’OFCE : « Aides sociales » : un rôle majeur dans la réduction de la pauvreté monétaire en France).

En tout état de cause, l’analyse de l’efficacité du système de protection sociale ne peut pas se réduire à la comparaison de chiffres globaux mais doit, dans un premier temps, définir les objectifs (réduire la pauvreté, son intensité, la pauvreté des enfants, assurer l’égalité des chances, réduire la persistance de la pauvreté, …), puis entrer dans les complexités causales de chacune des composantes de la redistribution.

 

[1] La notion de protection sociale est celle de la nomenclature internationale COFOG. Elle distingue la protection sociale au sens strict (catégorie 10) des dépenses de santé non individualisables (comme certaines dépenses hospitalières, catégorie 7). La publication « La protection sociale en France et en Europe en 2016 » de la DREES inclue dans la protection sociale la catégorie COFOG 7. Le montant des dépenses de protection sociale (10) plus santé (7) dans les données COFOG 2018 est de 34,2% pour la France. La différence provient de la révision des données opérées par la DREES et des différences de champ mineures.

[2] Il faut noter que le système de retraite français actuel génère une redistribution entre les retraités, au profit des petites retraites. Voir Gérard Cornilleau et Henri Sterdyniak, 2017, « Faut-il une nouvelle réforme des retraites ? », OFCE policy brief 26, 2 novembre, pour plus de détails.

[3] Ce qui exclut notamment les États-Unis.

[4] Défini par la part de la population ayant un niveau de vie inférieur à 60 % du revenu médian.

[5] On observe également une corrélation négative entre taux de pauvreté et dépenses pour lutter contre l’exclusion (COFOG 10.7). Cependant la catégorie 10.7 (1,1% du PIB pour la France) n’épuise pas toutes les mesures destinées à lutter contre la pauvreté.




Des ajustements d’ampleur à attendre pour la zone euro

par Bruno Ducoudré, Xavier Timbeau et Sébastien Villemot

Les déséquilibres de balance courante sont au cœur du processus qui a mené à la crise de la zone euro à partir de 2009. Les premières années d’existence de l’euro, jusqu’à la crise de 2007-2008, ont en effet été celles du creusement des déséquilibres entre pays dits du Nord (ou du cœur) et ceux dits du Sud (ou de la périphérie) de l’Europe, comme cela est visible sur le graphique 1.

IMG1_post20-06

Le processus de divergence des balances courantes a subi un net coup d’arrêt après 2009 et les déficits extérieurs ont disparu dans la presque totalité des pays de la zone euro. Pour autant, l’écart reste significatif entre pays du Nord et pays du Sud, et on ne peut pas encore parler de reconvergence. Par ailleurs, la résorption des déficits (italiens et espagnols) mais pas des excédents (allemands et néerlandais) a radicalement changé le rapport de la zone euro au reste du monde : alors que la zone avait un compte courant proche de l’équilibre entre 2001 et 2008, un excédent significatif se forme à partir de 2010, pour atteindre 3,3 % du PIB en 2016. Autrement dit, le déséquilibre qui était interne à la zone euro s’est déplacé en un déséquilibre externe entre la zone euro et le reste du monde, notamment les États-Unis et le Royaume-Uni. Ce déséquilibre alimente le protectionnisme de Donal Trump et implique une tension sur le taux de change. Alors que le change nominal interne à la zone euro n’est pas une variable d’ajustement, le taux de change entre l’euro et le dollar peut s’ajuster.

Maintenir un tel excédent de la zone euro sur le long terme semble peu probable. Certes, les pressions à l’appréciation de l’euro sont aujourd’hui contenues par la politique monétaire particulièrement accommodante de la Banque centrale européenne (BCE), mais lorsque viendra le moment de la normalisation des politiques monétaires, il est probable que l’euro s’appréciera significativement. Outre un impact déflationniste, cela pourrait relancer la crise de la zone, en creusant à nouveau les déficits extérieurs des pays du Sud par une perte de leur compétitivité. Les motifs de sortie de la zone euro s’amplifieront alors.

Dans une étude récente[1] nous cherchons à quantifier les ajustements qui restent à effectuer pour parvenir à résorber ces différents déséquilibres de balance courante, aussi bien à l’intérieur de la zone euro que vis-à-vis du reste du monde. À cette fin, nous estimons des taux de change réel d’équilibre à deux niveaux. D’abord du point de vue de la zone euro dans son ensemble, avec l’idée que l’ajustement du taux de change réel passera par celui du taux de change nominal, notamment de l’euro vis-à-vis du dollar : nous estimons la cible de long terme de la parité euro/dollar à 1,35 dollar pour un euro. Ensuite, nous calculons des taux de change réels d’équilibre au sein même de la zone euro, car si le taux de change nominal entre les pays membres ne varie pas du fait de l’union monétaire, les niveaux de prix relatifs permettent des ajustements de taux de change réel : nos estimations indiquent que des désajustements substantiels subsistent (cf. graphique 2), le désajustement moyen (en valeur absolue) par rapport au niveau de l’euro s’élevant à 11% en 2016. Le différentiel nominal relatif entre l’Allemagne et la France s’élèverait à 25 %.

IMG2_post20-06Dans la situation actuelle, il n’y a plus accumulation de créances de certains pays de la zone euro sur d’autres, mais accumulation de certains pays de la zone euro sur d’autres pays du monde. Cette fois-ci le taux de change (effectif, pondéré par les actifs bruts accumulés) peut servir de variable d’ajustement. Ainsi une appréciation de l’euro réduirait l’excédent courant de la zone euro et déprécierait la valeur des actifs, probablement accumulés en monnaie étrangère. D’autre part, la France apparaît maintenant comme le dernier pays en déficit significatif de la zone euro. Relativement aux autres pays de la zone euro, c’est la France qui contribue (négativement) le plus aux déséquilibres avec l’Allemagne (positivement). Si l’euro s’appréciait, il est probable que la situation de la France serait plus dégradée encore et que l’on retrouverait une situation d’accumulation de position nette interne, mais cette fois-ci entre la France (pour le côté débiteur) et l’Allemagne (créditeur). Ce ne serait pas comparable à la situation d’avant 2012, puisque la France est un plus grand pays que la Grèce ou le Portugal et donc que la question de la soutenabilité se poserait dans des termes très différents. En revanche, la résorption de ce déséquilibre par l’ajustement des prix est d’un ordre de grandeur tel que compte tenu des différentiels de prix relatifs qu’il est vraisemblable de maintenir entre la France et l’Allemagne, il faudrait plusieurs décennies pour y parvenir. Il est d’ailleurs frappant de constater que somme toute, depuis 2012, alors que la France a engagé une coûteuse réduction des coûts salariaux par le CICE et le Pacte de responsabilité d’une part, et que l’Allemagne instaurait un salaire minimum et connaît une dynamique salariale plus franche dans un marché du travail proche du plein emploi d’autre part, le déséquilibre relatif entre la France et l’Allemagne, exprimé en ajustement de prix relatif, n’a pas bougé.

Il faut tirer trois conséquences de cette analyse :

  1. Le déséquilibre qui s’est installé aujourd’hui ne se résorbera que difficilement et toute mesure visant à l’accélérer est la bienvenue. Continuer la progression modérée des salaires nominaux en France, stimuler la progression des salaires nominaux en Allemagne, rétablir en faveur des salaires le partage de la valeur ajoutée allemande, persister dans l’appréciation du salaire minimum sont autant de pistes prolongeant celles que nous avons évoquées dans les différents rapports iAGS. Une TVA sociale inversée, ou du moins une baisse de la TVA en Allemagne serait également un moyen de réduire l’épargne nationale allemande et, en l’accompagnant d’une hausse des cotisations sociales allemandes, d’accroître la compétitivité des autres pays de la zone euro ;
  2. Le déséquilibre interne d’avant la crise est devenu un déséquilibre externe à la zone euro qui induit une pression à l’appréciation effective de l’euro. L’ordre de grandeur est conséquent, il pèsera sur la compétitivité des différents pays de la zone euro et fera réapparaître sous une forme différente le problème connu avant 2012 ;
  3. L’appréciation de l’euro induite par les excédents courants de certains pays de la zone euro génère une externalité pour les pays de la zone euro. Du fait de réponses différentes de leurs balances courantes à une variation des prix relatifs, ce sont l’Italie et l’Espagne qui verront leur balance courante réagir le plus alors que celle de l’Allemagne y réagira le moins. Autrement dit, l’appréciation de l’euro, relativement, dégradera plus la balance courante de l’Italie et de l’Espagne que celle de l’Allemagne et réinstallera un régime de déséquilibre interne presque comparable à celui d’avant 2012. Cette externalité et la moindre sensibilité de la balance courante de l’Allemagne aux prix relatifs plaide pour une réduction des déséquilibres par une progression de la demande interne allemande, c’est-à-dire une réduction de leur épargne nationale. Les outils peuvent être une relance de l’investissement public, une baisse des impôts directs sur les personnes ou encore une augmentation plus rapide du salaire minimum par rapport à la productivité et l’inflation.

[1] Sébastien Villemot, Bruno Ducoudré, Xavier Timbeau : « Taux de change d’équilibre et ampleur des désajustements internes à la zone euro », Revue de l’OFCE, 156 (2018).




Statistique publique : une révolution silencieuse

par Pierre Madec et Xavier Timbeau

Parfois des révolutions se produisent sans que personne ne s’en rende vraiment compte. L’été dernier, l’INSEE et la DREES ont mis en accès libre, sous la licence CeCILL, leur modèle de microsimulation de la législation socio-fiscale : INES. Développé depuis plus de 20 ans, ce modèle représente une grande partie de la fiscalité et des prestations en espèces du système redistributif français. Couplé à une base de données qui donne une information annuelle précise sur plus de 50 000 ménages représentatifs (130 000 individus), le but premier de ce modèle est de simuler l’effet de la fiscalité et des prestations sur la population française. Si l’on veut connaître les conséquences d’une hausse du taux de la première tranche de l’impôt sur le revenu, INES permet, foyer fiscal par foyer fiscal, de calculer l’impôt sur le revenu avant et après la modification du barème et d’en déduire la masse d’impôts collectés ou encore il permet de savoir quels foyers paient davantage d’impôts selon les caractéristiques retenues. Fait remarquable, en l’état, le modèle INES fournit une bonne approximation des masses agrégées des principaux prélèvements et des principales prestations.

L’intérêt n’est pas seulement de pouvoir simuler des réformes, mais aussi de disposer d’une photographie sur les revenus et la source de ces revenus. On peut ainsi mesurer la pauvreté monétaire, suivre les inégalités ou analyser l’impact des structures familiales sur le niveau de vie. C’est ainsi que l’INSEE et la DREES alimentent la publication Portrait social de la France chaque année, en mettant à jour la législation sociale et fiscale et en utilisant la nouvelle base décrivant les ménages et leurs revenus, l’ERFS. A l’automne 2016, l’INSEE a publié l’impact des modifications de la législation 2014 sur la distribution du revenu disponible des ménages par revenu et par structure familiale. Le modèle INES est également utilisé pour produire une prévision du taux de pauvreté, une année avant que les données définitives n’en permettent le calcul complet (11 mois précisément), améliorant ainsi un angle mort du système statistique. On connaît le taux de croissance du PIB 30 jours après la fin du trimestre, bien avant le taux de pauvreté (il faut attendre 21 mois), le premier retient plus l’attention que le second dans le débat public.

Mais la révolution n’est pas dans la construction d’un outil aussi formidable soit-il ou encore dans le recours au logiciel libre. La révolution est que par la mise à jour annuelle du modèle INES, la DREES et l’INSEE ouvrent la voie à une nouvelle forme de publication de la statistique publique. Auparavant cette dernière informait le public en produisant une photo agrégée de la situation économique (les comptes nationaux­), par nature plutôt floue, ou en donnant le détail de cette photographie individu par individu (représentatif), disons une photo nette. Dorénavant, les institutions statistiques donnent leur interprétation en code informatique de l’ensemble de la législation. Ce code est l’instrument qui permet de calculer quel impact a cette législation sur la vie des citoyens, mais également de savoir ce qui se passerait avec toute proposition alternative. Ce n’est pas une photo, ni un film, particulièrement net, mais un univers à explorer, une représentation multidimensionnelle et interactive.

De telles innovations étaient en germe dans plusieurs administrations fiscales, avec la mise en ligne du calculateur d’impôt, mis à la disposition des contribuables. Parfois, le code public de ces calculateurs donnait l’interprétation par l’administration fiscale de la législation fiscale. INES s’inscrit dans cette ligne, mais vise à donner une information plus exhaustive (celle des prestations, pas seulement celle de la fiscalité de l’impôt sur le revenu) et plus opérationnelle (elle permet de  calculer l’impact redistributif, d’appliquer cette législation à un échantillon représentatif, …, elle ne donne pas de simples cas type). Par ailleurs, l’INSEE et la DREES mettent à jour et publient depuis 2010 les législations fiscales et sociales codées et interprétées. C’est cette régularité et cette transparence qui ouvre une nouvelle ère dans la statistique publique. Le débat sur les indicateurs reste parfois à un niveau conceptuel ou général et est souvent ancré dans des pratiques de publications qui tiennent de la photographie plus ou moins floue. Donner une information sur les inégalités de revenu, en publiant les indices de Gini ou les déciles de revenu, améliore la connaissance d’une société. Donner accès aux interactions entre les prestations, les structures familiales ou la distribution des revenus ouvre la porte à de nouvelles pratiques essentielles au fonctionnement d’une démocratie, et ne repose plus sur les avis d’administrations sur le coût, la faisabilité ou les conséquences de telle ou telle réforme.

La complexité de la mise en œuvre d’un tel instrument, la difficulté de l’accès aux données de l’échantillon représentatif (qui demande de passer par le Comité du secret et de se soumettre à une procédure lourde) font que l’utilisation de cette nouvelle source nécessite l’intermédiation d’experts. Mais cette intermédiation sera ouverte et pourra être mobilisée par presque tout le monde. Donnons un exemple : nous avons très récemment évalué le coût de la mesure « revenu universel » proposée par Benoît Hamon en mobilisant INES. Potentiellement, nous pouvons de cette façon explorer les voies de financement ou envisager des variantes de la proposition. Par exemple, l’articulation entre le revenu universel et les prestations actuellement versées peut se faire selon différentes options. Faut-il continuer à verser une indemnité pour le congé parental (au-delà du congé maternité) lorsqu’on verse le RUE qui est d’un montant forfaire supérieur ? Faut-il compléter le RUE pour les mères isolées inactives afin de réduire la pauvreté des enfants ? Comment articuler le RUE avec les APL ou les autres minima sociaux ? La complexité d’un système de prestations (qui cherche à traiter de situations très diverses au nom de principes pas toujours explicites) oblige à aller au-delà de calculs approximatifs ou de cas-type bien choisis.

C’est là que réside une innovation majeure pour la statistique au XXIe siècle : ouvrir ce qui autrefois était l’apanage d’administrations discrètes et souveraines à tout un chacun. Ce n’est pas une petite révolution.




« RUE » : une ambition à financer

par Pierre Madec et Xavier Timbeau

Cette évaluation du Revenu universel d’existence (RUE), proposition phare de Benoît Hamon, met en lumière un impact potentiellement important du dispositif sur le niveau de vie des ménages les plus modestes et sur les inégalités de niveau de vie. S’il était mis en œuvre, le Revenu universel d’existence aurait pour effet de faire de la France l’un des pays les plus égalitaires de l’Union européenne. En contrepartie, le coût « net » du dispositif pourrait s’avérer élevé, de l’ordre de 45 à 50 milliards d’euros. Compte tenu du coût de la mesure, son financement par une réforme de l’impôt sur le revenu pourrait accroître encore la redistribution du système socio-fiscal français mais conduirait à une hausse considérable des taux marginaux supportés par les ménages les plus aisés.

En en faisant l’une des propositions phares de son programme pour la présidentielle, Benoît Hamon a relancé le débat autour du revenu universel. Projet radical et sujet à de nombreuses controverses (voir par exemple Allègre et Sterdyniak, 2017), la quantification d’un tel projet est nécessaire. En partant du projet de Benoît Hamon, significativement modifié ces dernières semaines, nous tentons ici, sous un certain nombre d’hypothèses importantes (individualisation totale ou partielle, dépendance aux autres prestations sociales) un premier travail d’évaluation. L’idée ici n’est pas d’entrer dans le débat de savoir si les modalités d’application retenues sont ou non pertinentes, à l’exemple de l’exclusion des retraités, ou de juger si la proposition dans sa forme actuelle s’est éloignée d’un idéal d’universalité. Le but ici est de s’extraire de ce type de débat et de qualifier et quantifier les effets de la mise en œuvre du RUE tel que proposé par le candidat à la présidentielle.

La dernière version de la première étape du revenu universel d’existence (RUE) peut se résumer ainsi : « le revenu universel correspond à une hausse de revenu net qui commence à 600 euros pour les personnes sans ressources et s’annule ensuite à 1,9 SMIC brut ».

Ainsi posée, la proposition est celle d’une allocation différentielle permettant de ne pas faire apparaître un surcroît d’impôt artificiel chez ceux dont la situation de revenu n’est pas modifiée par le revenu universel.

Pour les couples mariés, le dispositif n’est pas automatiquement individualisé puisqu’il laisse le choix de maintenir ou non une imposition commune. Les couples dont le quotient conjugal est inférieur au montant potentiel de RUE devraient choisir l’individualisation. C’est le cas des couples au sein desquels les ressources et la différence de revenu sont faibles. A contrario, les couples pour lesquels le quotient conjugal procure un avantage plus élevé que le RUE devraient faire le choix de maintenir une imposition commune[1]. Ce sera notamment le cas des couples au sein desquels l’un des individus a des revenus très élevés et l’autre aucun revenu[2].

Pour les ménages les plus modestes le RUE remplace le RSA et la Prime d’activité, et le calcul des prestations sociales (allocations logement et familiales, Allocation adulte handicapé, bourses, …) n’est pas modifié, leurs montants étant inclus dans les ressources servant de référence pour le calcul du revenu universel.

Dans le cadre général, pour l’ensemble des foyers fiscaux dont les ressources sont inférieures à 1,9 SMIC brut, soit 2 800 euros brut par mois, le RUE est égal à la différence entre le montant de base de 600 euros par mois (7 200 euros par an) et 27,4% des ressources brutes du foyer fiscal. Pour les foyers fiscaux non imposables, le RUE est considéré comme un impôt sur le revenu négatif. Pour les foyers imposables ayant des ressources comprises entre 1,5 et 1,9 SMIC brut (3,8 SMIC dans le cas d’un couple marié), le RUE vient diminuer l’impôt dû, augmentant le revenu disponible pour le ménage, ce revenu supplémentaire s’annulant à 1,9 SMIC. Le coût pour les finances publiques de la mesure pour ces ménages correspond donc à la différence entre le montant du RUE et l’impôt sur le revenu actuellement acquitté. Pour les foyers fiscaux dont les ressources brutes sont supérieures à 1,9 SMIC brut (3,8 SMIC pour les couples mariés), le système actuel s’applique et le gain est nul (graphique 1).

Formellement, le montant mensuel de RUE perçu par le foyer fiscal composé d’un seul adulte et ayant des ressources inférieures à 1,9 SMIC brut est assis sur la formule suivante :

RUE = 600 – 0,274 x RB

RB, les ressources brutes, correspondent au revenu imposable brut (RIB), au sens du code des impôts, du foyer fiscal augmenté d’un coefficient 1,33 permettant d’approximer la conversion entre revenu imposable et ressources brutes des charges et cotisations, assiette retenue pour le calcul du RUE. Dans le cas d’un couple marié, le RUE est calculé de la façon suivante, le RUE tel que proposé n’étant alors pas individualisé :

RUE = [600 – 0,274 x RB/2] x 2

Afin de mesurer l’impact redistributif de la mesure, nous avons mobilisé le modèle de micro simulation INES[3] de la DREES et l’INSEE (voir encadré)La dernière version opérationnelle du modèle datant de 2015, les résultats présentés devront être interprétés en écart à la législation de 2015. De fait, des dispositifs tels que la Prime d’activité, mise en place en 2016, ne sont pas ici pris en compte au contraire de la Prime pour l’emploi (PPE).

 

RUE graph 1

Les plus de 18 ans encore rattachés fiscalement au foyer fiscal de leurs parents, éligibles au RUE, devraient, dès janvier 2018, quitter le foyer fiscal de leurs parents afin de pouvoir bénéficier du RUE. Il est à noter que ce cas n’est pas traité dans notre évaluation, compte tenu de la complexité de la prise en compte des transferts entre parents et enfants lorsqu’ils ne sont pas dans le même foyer fiscal. Nous nous concentrerons ainsi sur les ménages pour lesquels la personne de référence était âgée de 18 à 64 ans soit 20 millions de ménages parmi les 28,3 millions de ménages français, les autres, retraités, n’étant pas éligibles au dispositif.

Le RUE a été modélisé comme une ligne supplémentaire dans le calcul de l’impôt sur le revenu, son montant venant se soustraire, sous les conditions d’âge, de ressources et de statut marital explicitées précédemment, à cette dernière.

Sous ces hypothèses, le RUE devrait bénéficier à 11,6 millions de ménages dont la personne de référence est âgée de 18 à 64 ans pour un coût brut de l’ordre de 51 milliards d’euros soit une moyenne de 4 400 euros par an et par ménage bénéficiaire.

Le coût brut n’est pas le coût pour les finances publiques. En effet, la mise en place du RUE engendrerait de facto la disparition du RSA-socle et de la Prime d’activité du système socio-fiscal français. En 2016, ces deux dispositifs ont eu un coût budgétaire proche de 15 milliards d’euros (10 milliards d’euros pour le RSA et 5 milliards pour la Prime d’activité). De plus, les interactions entre le revenu universel et les autres prestations sociales ne sont pas encore tout à fait arrêtées dans la proposition de Benoît Hamon[4]. Si le montant perçu de RUE venait à être pris en compte pour le mode de calcul des autres prestations sociales, les montants versés au titre de celles-ci se réduiraient significativement. Le coût brut du revenu universel resterait inchangé mais des économies pourraient être réalisées sur des prestations sociales. Nous faisons l’hypothèse ici que le montant perçu en prestations sociales par le ménage est pris en compte lors du calcul définitif. Autrement dit, nous soustrayons au montant de RUE perçu par le ménage 27,4% du montant de l’ensemble des prestations sociales en espèces (allocation logement et familiale, bourses, Allocation adulte handicapée, …, soit 32 milliards d’euros par an pour les bénéficiaires potentiels du RUE) qu’il perçoit. Si cette prise en compte des prestations dans le calcul du montant du RUE est rendue complexe par la structure du modèle de microsimulation, il est possible d’estimer la réduction du montant global de RUE versé en prenant en compte l’ensemble des prestations sociales à environ 6 milliards d’euros.

Dans le cas où cette option serait privilégiée – ce que nous supposons faute de plus de précisions – le coût « net » du RUE, exclusion faite des 18-25 ans rattachés fiscalement à leurs parents, serait alors de l’ordre de 30 milliards d’euros, soit un montant proche de celui affiché par le candidat, montant auquel une fois encore il conviendra d’additionner le montant dû aux individus âgés de 18 à 24 ans qui sont aujourd’hui fiscalement rattachés à leurs parents. En 2015, sur les 5,2 millions d’individus de 18 à 24 ans, 1,7 million étaient fiscalement indépendants de leurs parents. En le majorant du coût brut supplémentaire (si tous les 18-24 ans ne sont plus rattachés au foyer fiscal de leurs parents) il serait donc de l’ordre de 25 milliards d’euros auquel il conviendrait de soustraire 27,4 % des bourses (0,115 milliard d’euros par an environ) et aides au logement versées (1,4 milliard d’euros par an) ainsi que l’avantage fiscal dont bénéficient actuellement les parents des dits individus (avantage majoré à 1 500 euros par an et par enfant, au maximum 5,2 milliards si tous les foyers sont au plafond).

Ciblé sur les ménages à bas revenus, le dispositif, non financé par une augmentation de l’imposition des ménages ou une baisse des prestations sociales, impacterait positivement le bas de la distribution des niveaux de vie (graphique 2)[5].

En moyenne, les ménages du premier décile de niveau de vie devraient voir leur niveau de vie augmenter de 257 euros par mois et par unité de consommation (UC), soit une hausse de 38% de leur niveau de vie moyen. Le gain pour les ménages du deuxième décile devrait être quant à lui deux fois inférieur à 137 euros par mois et par unité de consommation, soit une augmentation de 13% de leur niveau de vie moyen.

RUE graphe 2

Compte tenu du fait que le RUE, contrairement à nombre de prestations, soit attribué non pas aux ménages mais aux foyers fiscaux, certains membres (non rattachés fiscalement mais cohabitants comme les couples non mariés non pacsés) de quelques ménages des derniers déciles de la distribution des niveaux de vie devraient percevoir le RUE (et le dernier décile plus que le neuvième par un effet de composition). En d’autres termes, il existe des foyers fiscaux à faible revenu brut au sein de ménages à niveau de vie élevé[6].

Sous ces hypothèses d’application du RUE, le niveau de vie médian serait relevé de 3,6% et le taux de pauvreté, c’est-à-dire la part des ménages français ayant des ressources inférieures à 60% du niveau de médian, c’est-à-dire environ 1 000€/mois/unité de consommation, atteindrait 8,5% contre 13,4% à l’heure actuelle. Le niveau de vie médian des ménages les plus pauvres – c’est-à-dire ceux ayant un niveau de vie inférieur au seuil de pauvreté –  atteindrait 11%. L’intensité de la pauvreté, mesurée comme l’écart relatif entre le niveau de vie médian de la population pauvre et le seuil de pauvreté, se verrait elle aussi réduite d’un tiers passant de 17% aujourd’hui à 11%.

Enfin, le coefficient de Gini de niveau de vie, indicateur d’inégalité, serait lui diminué de 0,04 à un niveau de 0,26, faisant ainsi passer la France d’une situation médiane en termes de Gini au niveau européen à une situation parmi les moins inégalitaires, le Gini médian européen se situant en 2015 à 0,30 (et le plus bas à 0,25).

Sans les jeunes (18-24 ans) rattachés fiscalement à leurs parents, le coût net du RUE serait de l’ordre de 30 milliards d’euros. En les ajoutant, sous réserve d’une évaluation plus fine, le coût net serait de l’ordre de 49 milliards. Ces montants sont loin des 400 milliards un temps annoncés, mais restent non négligeables[7]. Si l’on finançait le RUE par une réforme de la fiscalité des personnes, cela conduirait à une hausse considérable des taux marginaux touchant les déciles les plus élevés de la distribution des revenus. Pour rappel, l’impôt sur le revenu des personnes physiques est une ressource de 74 milliards annuels. La mobilisation d’une autre base fiscale comme le patrimoine est également possible mais aboutirait à une hausse très significative de cette fiscalité. La taxe foncière et l’ISF apportent aujourd’hui un peu moins de 30 milliards d’euros. Par ailleurs, les effets redistributifs du RUE – conséquents selon notre évaluation –, seraient amplifiés par une hausse des fiscalités déjà progressives.

_________________________________________________________________________

Encadré : Le modèle de micro simulation Ines (Sources : INSEE, DREES)

Ines est l’acronyme d’« Insee-Drees », les deux organismes qui développent conjointement le modèle. Le modèle est basé sur les enquêtes Revenus fiscaux et sociaux (ERFS) de l’Insee, qui comprennent plusieurs centaines d’informations sur chaque individu et des données précises et fiables sur les revenus, issues des déclarations fiscales. Il permet de simuler toutes les années législatives récentes sur les millésimes d’ERFS récents.

Ce modèle est utilisé pour réaliser des études à périodicité annuelle, mais il est aussi mobilisé dans le cadre d’études approfondies afin d’éclairer le débat économique et social dans les domaines de la redistribution monétaire, la fiscalité ou la protection sociale. Enfin, il est parfois utilisé comme outil d’appui à la réflexion pour répondre à des sollicitations ponctuelles de divers Hauts conseils, de ministères de tutelle ou d’organismes de contrôle (IGF, Cour des comptes, Igas).

Le modèle Ines simule :

— les prélèvements sociaux et fiscaux directs : les cotisations sociales, la CSG, la CRDS et l’impôt sur le revenu (y. c. la prime pour l’emploi) ;

— les prestations sociales autres que celles correspondant à des revenus de remplacement : les aides personnelles au logement ; les principaux minima sociaux : le revenu de solidarité active (RSA), l’Allocation pour adulte handicapé (AAH) et ses compléments, les allocations du minimum vieillesse et l’Allocation supplémentaire d’invalidité (ASI) ; les prestations familiales : allocations familiales (AF), complément familial, Allocation de rentrée scolaire (ARS) et les bourses du secondaire, Prestation d’accueil du jeune enfant (Paje) et ses compléments (complément libre choix d’activité – CLCA – et complément libre choix du mode de garde – CMG), les subventions publiques pour la garde d’enfants en crèches collectives et familiales, l’Allocation de soutien familial (ASF) et l’Allocation d’éducation de l’enfant handicapé (AEEH) ; la Prime d’activité.

Les principales omissions concernent les taxes et aides locales (taxe foncière par exemple) et l’Impôt de solidarité sur la fortune. Les pensions de retraite, les allocations chômage et la taxe d’habitation ne sont pas simulées mais sont présentes dans les données. Les prélèvements indirects n’entrent pas non plus dans le champ d’analyse du modèle Ines stricto sensu. Le modèle simule, sur barèmes, les différentes prestations auxquelles chaque ménage a droit et les impôts et prélèvements qu’il doit acquitter. Ines est adossé à l’enquête Revenus fiscaux et sociaux (ERFS) de l’Insee qui réunit les informations sociodémographiques de l’enquête Emploi, les informations administratives de la Cnaf, la Cnav et la CCMSA et le détail des revenus déclarés à l’administration fiscale pour le calcul de l’impôt sur le revenu.

Ines est un modèle dit « statique » : il ne tient pas compte des changements de comportement des ménages, par exemple en matière de natalité ou de participation au marché du travail, que pourraient induire les évolutions des dispositions de la législation socio-fiscale. Depuis 1996, le modèle est mis à jour chaque année durant l’été afin de simuler la législation la plus récente, portant sur la dernière année révolue. Par exemple, à l’été 2016, Ines a été mis à jour pour simuler la législation de l’année 2015. Sur la base de ces mises à jour, les équipes de l’INSEE et de la DREES contribuent annuellement au Portrait social de l’INSEE dans lequel elles analysent le bilan redistributif des mesures de prélèvements et de prestations prises au cours de l’année précédente. La dernière publication s’intitule « Les réformes des prestations et prélèvements intervenues en 2015 opèrent une légère redistribution des 30 % les plus aisés vers le reste de la population » (André, Biotteau, Cazenave, Fontaine, Sicsic, Sireyjol).

______________________________________________________________

 

[1] Rappelons que le quotient conjugal donne droit à une réduction d’impôts maximale de 30 000 euros annuel. La suppression du quotient conjugal rapporterait 5,5 milliards d’euros (HCF 2011) mais coûterait l’ensemble des  RUE versés aux conjoints avec un revenu inférieur qui ont choisi l’individualisation.

[2] Nous avons fait le choix de ne pas prendre en compte ces mécanismes d’optimisation fiscale au sein des ménages mais il est entendu que l’évaluation proposée du coût du dispositif est dès lors sous-estimée.

[3] Le code source et la documentation du modèle de micro-simulation INES a été ouvert au public en juin 2016 (https://adullact.net/projects/ines-libre). Nous utilisons la version en libre accès de 2015 depuis le 1er octobre 2016.

[4] En particulier, l’utilisation d’un modèle de micro simulation comme INES permet d’explorer les conséquences des choix d’articulation sur la situation des intéressés, sur la redistribution nette opérée et sur le reste à financer. Un changement dans les règles d’attribution ou de calcul d’une prestation sociale peut avoir des impacts importants sur le coût net et sur les effets redistributifs.

[5] Le dispositif proposé modifie significativement la distribution des niveaux de vie. De fait, certains ménages voient leur appartenance à un décile de niveau de vie, positivement ou négativement. Les déciles sont ici maintenus à leur niveau avant réforme.

[6] A titre d’illustration, l’âge moyen des personnes de référence des ménages du dernier décile de niveau de vie bénéficiaires du RUE est supérieur à 55 ans. On peut ainsi supposer que ces ménages abritent en leur sein des jeunes adultes  indépendants fiscalement et aux ressources faibles.

[7] L’évaluation présentée ici est dite « statique ». Elle ne prend donc pas en considération les possibles modifications de comportement des individus vis-à-vis de l’emploi engendrées par l’entrée en vigueur de la mesure.




L’Europe est morte. Vive l’Europe !

par Maxime Parodi et Xavier Timbeau

Le choix des Britanniques du Brexit ne fait que renforcer la logique politique qui s’impose. D’un côté, les peuples veulent être consultés, de l’autre, l’Europe est sommée de changer. François Hollande juge que « le vote du Royaume-Uni met l’Europe à l’épreuve » ; Alain Juppé estime « qu’il faut écrire une nouvelle page, un nouveau chapitre de l’histoire de l’Europe » ; les leaders du Front National, mais pas eux seulement, appellent à un référendum sur l’appartenance de la France à l’UE et à l’euro. Partout en Europe, le débat s’engage sur les mêmes termes.

Nous écrivions il y a quelques jours, sur le site de la fondation Terranova : «  Le référendum sur l’appartenance du Royaume-Uni à l’Union européenne va induire un choc plus politique qu’économique. Il sera en effet difficile de contenir les demandes de consultation similaire. Répondre à ces demandes par « plus d’Europe » ne fera qu’alimenter la distance entre les peuples et la construction européenne. Penser que des référendums pourraient au contraire légitimer le statu quo serait également une erreur. Nous proposons de répondre au besoin démocratique non pas par un « quitte ou double » mais par un processus d’appropriation démocratique qui permette de légitimer la construction européenne et d’en imaginer les évolutions futures ».

Instruire cette méthode d’appropriation démocratique de l’Europe et de la zone euro est nécessaire. Des référendums « pour ou contre » n’y parviendront pas. Le saut fédéral est un repoussoir pour probablement une grande majorité des Européens. Mais pour autant, il existe une chose publique en Europe. Articuler les lieux actuels de la démocratie que sont les Etats membres de l’UE avec la nécessité, pour certains sujets, d’une légitimité supranationale est l’alternative à l’invention du citoyen européen. Mais c’est la méthode qui compte. Et tous les leviers de la démocratie participative, de grands débats nationaux et transnationaux en passant par des jurys citoyens, doivent être mobilisés pour faire le bilan de l’Europe telle qu’elle est et proposer les réformes qui la rendront plus démocratique. Ceci peut déboucher concrètement sur des avancées comme un parlement de la zone euro ou une extension du pouvoir du Parlement européen. Au-delà, c’est aussi le moyen d’inverser la tendance à la décomposition de l’Europe.

 




The end of oil and coal

By Xavier Timbeau

The idea that we must put an end to the use of oil and coal is not new. It has been pushed for a long time by NGOs like 350.org and its gofossilfree campaign. What is more striking is that the Democratic primary candidate Senator Bernie Sanders has put the proposal at the heart of the US presidential election debate. Institutional investors and large fund holders have also announced their intention to limit or terminate their investments in coal (for example, Allianz and ING) and oil (the Dutch pension fund ABP). The urban development policies of some large cities are also leaning in that direction. Asked about this option, the head of the US Environmental Protection Agency (EPA), Gina McCarthy, noted (cautiously) that this option was not irrational.

Figure: Scenarios of CO2 emissions

post-XT3

  Source: Figure SMP 11, AR5, IPCC, p. 21.

That said, Figure SPM 11 of the 5th IPCC report says much the same thing. If global warming is to be kept to 2 degrees, our carbon budget since 1870 amounts to 2900 ± 250 GtCO2e; we have consumed around 1900 GtCO2e up to now. So staying below the 2°C level (relative to pre-industrial times) with a probability of 66% leaves about 1000 GtCO2e. Given an annual flow of emissions of about 50 GtCO2e, a simple rule of three give us 40 years of linearly decreasing emissions. The inclusion of carbon sinks, climate inertia and negative radiative forcings on the climate extends the time horizon to 2090 ± 10 years, but it would be prudent to get down to zero emissions earlier. For the record, there are still about 5000 ± 1400 GtCO2 of recoverable reserves in coal alone, enough to greatly exceed our current carbon budget. Note that stopping the use of fossil fuels does not solve everything. A portion of current greenhouse gas emissions (of CO2, but also of methane and other gases) is not linked to fossil fuels but to farming, deforestation and industrial processes. In the case of a nearly 100% system of renewable energy, the gas would be necessary during consumption peaks. These non-fossil emissions can be cut down, but not eliminated. It is possible to have negative emissions, but the only “technology” available today is reforestation, which can help lower emissions by only 2 GtCO2 annually. Carbon capture and storage is also a way to conserve the use of fossil fuels provided that it works and that it has enough storage capacity (once the storage capacity is depleted, the problem remains).

The principle of “common but differentiated responsibility” would lead the developed countries to apply constraints more quickly (by say around 2050). Some see this prospect as the explanation for the fall in oil prices. Since not all fossil fuel reserves will be burned, the only ones worth anything are those that will be exploited before 2050, meaning that this price is lower than what would result from rising demand. Saudi Arabia therefore has an interest in increasing production rather than keeping worthless reserves. Mark Carney, Governor of the Bank of England and Chairman of the Financial Stability Board, has evoked “stranded reserves” in the same way that a coal plant is a “stranded asset”, i.e. a blocked asset that has to be depreciated prematurely.

The end of oil and coal is no longer just a fad of a handful of green activists. This is also seen in the persistent and nearly convergent calls of many economists about a carbon price. A high and rising price of carbon would force economic agents to disinvest in the capital that emits carbon or even to prematurely depreciate existing facilities. When a high carbon price is demanded (say between 50 and 100 € / tCO2, with the price of carbon steadily increasing over time as the carbon budget runs out), the point is that this sends a strong price signal to economic agents, with the consequence of this price being that emissions are reduced in an amount consistent with warming of less than 2°C compared to pre-industrial times. So, from this viewpoint, saying that “the price of carbon should be 50 € / tCO2 or more” is equivalent to saying “everything must be done so that we stop using coal and oil within the next half century”. The price of carbon thus gives us valuable information about the cost of the transition. It will be on the order of (a few) 1000 billion euros per year (on the scale of the global economy). Proposing a price means proposing the “polluter pays” principle (carbon emitters must pay), even though it is not clear exactly whom the polluters must pay. Hence the debate on the Green Fund and climate justice that is at the centre of COP21.

It would be a shame to focus on the carbon price and make it the central issue of COP21. A zero-carbon economy is our future, and we will have no excuses if we continue to burn fossil fuels. As Oscar Wilde remarked: “Nowadays people know the price of everything and the value of nothing.”

 




La fin du pétrole et du charbon

par Xavier Timbeau

L’idée qu’il faut mettre fin à l’usage du pétrole et du charbon n’est pas nouvelle. Elle est portée par des ONG depuis longtemps, comme 350.org et sa campagne gofossilfree. Ce qui est plus frappant c’est que le candidat démocrate à la primaire, le sénateur Bernie Sanders, en ait fait la proposition à mette au cœur du débat de la présidentielle américaine. Des investisseurs institutionnels ou des détenteurs de grands fonds ont également annoncé leur intention de limiter ou cesser leurs investissements dans le charbon (Allianz, ING par exemple) et dans le pétrole (le fonds de pension néerlandais ABP). Quelques grandes villes penchent dans cette direction pour l’orientation de leurs politiques d’aménagement urbain. Interrogée sur cette option, la directrice de l’Agence environnementale américaine (EPA), Gina McCarthy, a déclaré (prudemment) que cette option n’était pas irrationnelle.

Figure : Scénarios d’émission de CO2

post-XT3

Source : Graphique SMP 11, AR5, IPCC, p. 21.

Ceci dit, le graphique SPM 11 du 5e rapport du GIEC ne dit pas autre chose. Pour limiter le réchauffement climatique à 2 degrés, nous disposons d’un budget carbone de 2 900±250 GtCO2e depuis 1870 ; nous en avons consommé autour de 1 900 GtCO2e à ce jour. Il nous reste ainsi, pour faire moins que +2°C (par rapport à l’époque préindustrielle) avec une probabilité de 66 %, à peu près 1 000 GtCO2e. Compte tenu d’un flux d’émissions annuelles de l’ordre de 50 GtCO2e, une simple règle de trois nous donnerait 40 années d’émissions décroissantes linéairement. La prise en compte des puits de carbone, des inerties du climat et des forçages radiatifs  négatifs sur le climat étend l’horizon temporel à 2090±10 années, mais la prudence demanderait d’aboutir à l’objectif zéro émission plus tôt. Pour mémoire, il reste dans le sol des réserves exploitables de l’ordre de 5 000 ±1 400 GtCO2en charbon seul, soit de quoi dépasser largement notre actuel budget carbone. Notons que l’arrêt de l’utilisation des combustibles fossiles ne règle pas tout. Une part des émissions actuelles de gaz à effet de serre (du CO2, mais aussi du méthane ou d’autres gaz) n’est pas liée aux fossiles mais à l’agriculture, la déforestation ou aux processus industriels. Dans le cas d’un système énergétique renouvelable à presque 100 %, le gaz serait nécessaire lors des pointes de consommation. Ces émissions non fossiles peuvent être réduites mais pas complètement. Il est possible d’avoir des émissions négatives, mais la seule « technologie » aujourd’hui disponible est celle de la reforestation et ne peut contribuer à abaisser les émissions que de 2 GtCO2 par an. La capture du carbone et son stockage sont également un moyen de conserver l’usage des fossiles à la condition qu’elle fonctionne et que l’on dispose de suffisamment de capacité de stockage (une fois la capacité de stockage épuisée, le problème subsiste).

Le principe de « responsabilité commune mais différenciée » conduirait les pays développés à s’appliquer la contrainte plus rapidement (disons aux alentours de 2050). Certains voient dans cette perspective l’explication de la baisse du prix du pétrole. Puisque toutes les ressources fossiles ne seront pas brulées, seules celles qui le seront d’ici à 2050 valent quelque chose et ce prix est inférieur à celui qui découle d’une demande toujours croissante. L’Arabie saoudite a donc intérêt à produire davantage plutôt que de garder des réserves sans valeur. Mark Carney, gouverneur de la Banque d’Angleterre et président du Conseil de la stabilité financière a ainsi évoqué les « stranded reserves », de la même façon qu’une centrale au charbon est un « stranded asset », soit un actif bloqué que l’on est obligé de déprécier prématurément.

La fin du pétrole et du charbon n’est plus seulement une lubie de quelques activistes verts. Cela rejoint d’ailleurs les appels persistants et presque convergents de nombreux économistes à un prix du carbone. Un prix élevé et croissant du carbone obligerait en effet les agents économiques à désinvestir dans le capital qui émet du carbone, voire à déprécier prématurément celui qui est installé. Lorsqu’un prix du carbone élevé est réclamé (disons entre 50 et 100€/tCO2, le prix du carbone augmentant dans le temps et au fur à mesure que le budget carbone s’épuise), c’est pour qu’il envoie un fort signal-prix aux agents économiques et que la conséquence d’un tel prix soit la réduction des émissions jusqu’au point compatible avec un climat restant en deçà de +2°C par rapport à l’époque préindustrielle.  C’est donc, de leur point de vue, équivalent de dire « le prix du carbone doit être de 50€/tCO2 et plus » que de dire « il faut tout faire pour que l’on cesse d’utiliser le charbon et le pétrole dans le prochain demi-siècle ». Le prix du carbone nous donne d’ailleurs une précieuse information sur le coût de cette transition. Il sera de l’ordre de (quelques) 1 000 milliards d’euros par an (à l’échelle de l’économie mondiale). Proposer un prix c’est également proposer le principe pollueur-payeur (les émetteurs de carbone doivent payer), bien qu’il ne soit pas clair de savoir à qui les pollueurs doivent payer. C’est tout le débat sur le fonds vert et la justice climatique qui est au centre de la COP21.

Il serait dommage de se focaliser sur le prix du carbone et d’en faire l’enjeu central de la COP21. L’économie zéro carbone est notre avenir et nous n’aurons pas d’excuse si nous continuons à brûler les combustibles fossiles. Oscar Wilde ne disait-il pas : « Aujourd’hui les gens connaissent le prix de tout et la valeur de rien » ?

 

 




Nouvelle économie régionale et réforme territoriale

Par Guillaume Allègre, Gérard Cornilleau, Éloi Laurent et Xavier Timbeau

A l’heure des élections régionales et de la création de nouvelles régions et de métropoles, un numéro de la Revue de l’OFCE (n° 143, novembre 2015) aborde les questions déterminantes pour les politiques publiques territoriales.

L’économie régionale met en jeu non pas un mais deux espaces : les régions et le cœur de celles-ci, les métropoles. L’attention à ces deux espaces, dont on peut dire qu’ils ont été les impensés du deuxième « acte » de la décentralisation en France, a largement déterminé les trois lois de la réforme régionale de 2014-2015. La loi MAPTAM du 27 janvier 2014 affirme l’importance des métropoles dès son intitulé : « loi de modernisation de l’action publique territoriale et d’affirmation des métropoles ». Elle crée la métropole du Grand Paris qui regroupera les communes de Paris et de la petite couronne à compter du 1er janvier 2016, la métropole de Lyon et celle d’Aix-Marseille-Provence, ainsi que neuf autres métropoles régionales dites de droit commun (Toulouse, Lille, Bordeaux, Nantes, Nice, Strasbourg, Rennes, Rouen, Grenoble).  La loi  du 16 janvier 2015 relative à la délimitation des régions fait quant à elle passer de 22 à 13 le nombre de régions également à compter du 1er janvier 2016. La loi du 7 août 2015 portant Nouvelle organisation territoriale de la République (NOTRe) parachève l’édifice en confiant de nouvelles compétences à ces nouvelles régions.

Si on voit bien l’influence de l’économie géographique et son souci d’efficience spatiale sur la réforme territoriale, on perçoit nettement moins dans les réformes envisagées les limites de celles-ci et la question pourtant centrale de l’égalité des territoires. C’est donc à l’aune de la double question de l’efficience et de l’équité qu’il convient d’interroger la nouvelle économie régionale française que dessine la réforme territoriale. Quelle relation entre la taille des zones d’emploi et leur performance économique et sociale ? Avec quels indicateurs doit-on mesurer le développement économique, social et environnemental des territoires ? Certaines organisations territoriales sont-elles plus efficaces que d’autres ? Les mesures favorisant l’égalité entre les territoires sont-elles un frein ou un accélérateur du développement économique ? Existe-t-il une taille optimale des régions ?  Peut-on envisager une tension entre régions légales et régions réelles et/ou vécues ?

Quelle relation entre la taille des zones d’emploi et leur performance économique et sociale ? 

Dans sa contribution, Jean-Claude Prager nous rappelle que la concentration spatiale des activités et la croissance économique sont deux phénomènes historiques difficiles à séparer. Il l’attribue à l’importance des effets d’agglomération. Cependant, la taille des villes s’accompagne également de coûts environnementaux et de congestion de plus en plus grands. Il n’y a donc pas de réponse générale à la taille optimale des villes dans la mesure où la qualité de la gouvernance joue un rôle déterminant dans l’équilibre entre les bénéfices et les coûts associés. Pour Laurent Davezies, la taille de la région et la qualité du fonctionnement des marchés sont des facteurs majeurs de croissance. La taille et la densité offrent en effet un meilleur appariement des offres et des demandes sur les différents marchés, notamment sur le marché du travail. L’efficacité des marchés urbains est tout de même conditionnée aux politiques publiques d’urbanisation et notamment à l’efficacité des systèmes de transports. A l’inverse, pour Olivier Bouba-Olga et Michel Grossetti, si les effets d’agglomération sont statistiquement significatifs, l’ampleur de ces effets est faible et les données présentent des limites. Pour les auteurs, il est hasardeux de justifier sur une base aussi fragile une politique de concentration de l’activité économique dans quelques métropoles.

Avec quels indicateurs doit-on mesurer le développement économique, social et environnemental des territoires ? 

Olivier Bouba-Olga et Michel Grossetti critiquent l’utilisation du PIB régional par habitant, qui serait un très mauvais indicateur de performance des régions.  Premièrement, c’est le PIB par emploi et non par habitant qui permet de mesurer la productivité apparente du travail. Deuxièmement, les auteurs soulignent que les différences de productivité apparente sont liées à des effets de composition et d’interdépendance. Par exemple, si l’Île-de-France est plus productive c’est parce qu’elle abrite les  sièges sociaux et une part importante des très hautes rémunérations. Mais toutes les régions ne peuvent pas imiter cette stratégie. Laurent Davezies reconnaît que le concept de PIB territorialisé pose de nombreux problèmes conceptuels et statistiques mal résolus. Pourtant, il considère que celui calculé par l’INSEE est très proche de l’idée raisonnable que l’on peut se faire de la contribution de la région à la création de richesse nationale. Pour l’auteur, la surproductivité de l’Île-de-France n’est pas qu’un artefact statistique. Il souligne ainsi que la part de la région dans les rémunérations versées (32,9%) et dans le PIB marchand (37%) est même supérieure à la part dans le PIB national (30,5%).

Dans un article retraçant les mutations économiques du Nord-Pas-de-Calais, Grégory Marlier, Thomas Dallery et Nathalie Chusseau  proposent de compléter le PIB régional par des indicateurs alternatifs d’inégalités territoriales et de développement humain (IDH2). Ce dernier indicateur qui reprend la santé, l’éducation et le niveau de vie comme dimensions, place le Nord-Pas-de-Calais en dernière position des régions françaises. La déclinaison communale de l’indicateur de développement humain (IDH4) met en évidence des contrastes importants à l’échelle infrarégionale.

Dans une contribution sur les stratégies de développement régional dans l’OCDE, Joaquim Oliveira Martins et Karen Maguire  présentent un ensemble d’indicateurs proposés par l’OCDE en 2014 pour mesurer le bien-être régional. Ces indicateurs capturent neuf dimensions du bien-être : revenu, emploi, logement, santé, éducation et compétences, qualité de l’environnement, sécurité personnelle, engagement civique et accès aux services.

Certaines organisations territoriales sont-elles plus efficaces que d’autres ?

Selon Joaquim Oliveira Martins et Karen Maguire, les études récentes de l’OCDE ont montré qu’une fragmentation des gouvernements municipaux peut avoir des effets négatifs sur la productivité des régions, notamment dans les zones métropolitaines. Les auteurs soulignent que l’on compte environ 1 400 collectivités locales dans l’agglomération de Paris. Or, un doublement des gouvernements locaux peut réduire de presque autant l’avantage en termes d’économies d’agglomération du doublement de la taille d’une ville. Laurent Davezies critique lui aussi la fragmentation communale et appelle à plus de politiques urbaines intégrées. Il souligne que la dernière loi sur l’organisation territoriale de la République va dans ce sens.

Pour Jean-Claude Prager, la qualité de la gouvernance des régions et des métropoles est importante pour leur prospérité mais elle ne peut cependant pas se réduire à des seuls critères formels. Elle dépend de la personnalité des dirigeants et de leurs capacités à mettre en œuvre des stratégies de différenciation économique des territoires.

Jacques Lévy critique pour sa part le faible poids des budgets régionaux (en moyenne, un peu plus de 1% du PIB), qui ne donne pas aux régions les moyens de gérer leur développement.

Les mesures favorisant l’égalité entre les territoires sont-elles un frein ou un accélérateur du développement économique ? 

Selon Jean-Claude Prager, le bilan des politiques de rééquilibrage régional est controversé, notamment parce qu’elles ne font pas la différence entre les individus concernés et les territoires administratifs. Selon l’auteur, le soutien financier aux régions moins riches peut avoir pour effet principal de faire bénéficier d’effets d’aubaine les personnes les mieux dotées de ces régions, celles dont la capacité de captation des subventions publiques est forte, sans nécessairement profiter principalement aux plus démunis de leur région. L’auteur conclut que l’efficacité et l’égalité des chances sont mieux assurées avec le développement du capital humain.

Cette stratégie peut être rendue difficile car, comme le soulignent Arnaud Degorre, Pierre Girard et Roger Rabier, les espaces métropolitains ont tendance à capter les ressources rares et notamment les travailleurs qualifiés qui sont également les plus mobiles. Au jeu des migrations résidentielles, la vaste majorité des territoires enregistrent des départs des plus qualifiés, au profit en premier lieu de l’agglomération parisienne, mais aussi des métropoles en région, dont Toulouse, Grenoble, Lyon et, dans une moindre mesure, Montpellier et Lille.

Existe-t-il une taille optimale des régions ? Peut-on envisager une tension entre régions légales et régions réelles et/ou vécues ? 

Jacques Lévy revient sur les quatre erreurs de la réforme régionale. C’est une action top-down technocratique qui ignore les habitants. Elle découpe le grand (la région) avant le petit (le local). Elle définit des frontières avant de définir des compétences. Enfin, elle évite de supprimer le Conseil de département. L’auteur avance une proposition alternative de carte régionale rapprochant les régions vécues des régions administratives. Il privilégie une démarche bottom-up et définit en premier lieu 771 pays de taille très variable (de 3 000 à 12 millions d’habitants) puis propose une nouvelle carte des régions en analysant les interconnexions entre pays. Les régions n’ont pas toutes la même taille car elles sont le produit d’équilibres différenciés entre ressources objectives (démographie, formation, système productif, niveau d’urbanisation) et ressources subjectives (identification, mémoire, projet). C’est ainsi que pour l’auteur la Corse (300 000 habitants) et l’ensemble du Bassin parisien (22,2 millions d’habitants) sont tous deux légitimes comme région.




Investir dans l’économie zéro carbone pour échapper à la stagnation séculaire

par Xavier Timbeau

Ce que les révisions à la baisse des différentes prévisions (FMI, OCDE, OFCE) présentées en ce début d’automne 2015 nous disent sur la zone euro n’est pas très réconfortant. Une reprise est en cours, mais elle est à la fois poussive et fragile (voir : « Une reprise si fragile »). Or le taux de chômage de la zone euro est encore très élevé (presque 11 % de la population active au deuxième trimestre) et une reprise poussive signifie une baisse si lente (0,6 point par an) qu’il faudra plus de 7 années pour revenir au niveau de 2007. Dans l’intervalle, la politique monétaire non-conventionnelle de la Banque centrale européenne peine à ré-ancrer les anticipations d’inflation. L’annonce du Quantitative Easing en début d’année 2015 avait fait remonter l’inflation à 5 ans dans 5 ans[1], mais depuis le mois de juillet 2015 le soufflé est à nouveau retombé et les anticipations à moyen terme sont de 0,8 % par an, en deçà de la cible de la BCE (2 % par an). L’inflation sous-jacente s’installe dans un territoire bas (0,9 % par an) et le risque est élevé que la zone euro se bloque dans une situation d’inflation basse ou de déflation, ressemblant étrangement à ce qu’a connu le Japon du milieu des années 1990 à aujourd’hui. Peu d’inflation n’est pas une bonne nouvelle parce qu’elle est enclenchée par un chômage élevé et des salaires nominaux encore moins dynamiques. Résultat, les salaires réels progressent moins vite que la productivité. Peu ou pas d’inflation, c’est à la fois des taux d’intérêt réels qui restent élevés, qui renchérissent les dettes et paralysent l’investissement, mais c’est aussi une politique monétaire non-conventionnelle qui bloque la capacité de valoriser les risques et qui perd peu à peu sa crédibilité à maintenir la stabilité des prix, à savoir tenir l’inflation dans la cible annoncée. Mario Draghi l’avait annoncé en août 2014 au symposium de Jackson Hole, face à un chômage persistant, la politique monétaire ne peut pas tout. Il faut des réformes structurelles (que peut dire d’autre un banquier central ?) mais il faut aussi une politique de demande. Ne pas le faire c’est courir le risque de la stagnation séculaire, formulée par Hansen à la fin des années 1930 et remise au goût du jour très récemment par Larry Summers.

Pourtant, les opportunités d’investissements ne manquent pas en Europe. Les engagements à la COP21, bien que timides, supposent de réduire les émissions de CO2 (équivalent) par tête de 9 tonnes à 6 tonnes en 15 ans et demanderont une sérieuse accélération pour que l’anomalie de température globale ne dépasse pas 2°C. D’ici à 35 ans, c’est en pratique la fin de l’utilisation du pétrole et du charbon (ou le développement à grande échelle de la capture et du stockage du carbone) qu’il faut viser. Pour y arriver, un volume massif d’investissements est nécessaire (estimé à plus de 260 milliards d’euros  (soit presque 2 % du PIB) par an d’ici à 2050 dans la Energy Road Map de la Commission européenne). La rentabilité sociale de ces investissements est considérable (puisqu’elle permet d’éviter la catastrophe climatique et qu’elle permet de tenir les engagements de l’UE vis-à-vis des autres pays de la planète) mais, et c’est bien le problème de notre reprise poussive, leur rentabilité privée est basse, les incertitudes sur la demande future et une coordination défectueuse peuvent faire vaciller les esprits animaux de nos entrepreneurs. La stagnation séculaire découle en effet d’une profitabilité trop basse des investissements, une fois pris en compte les taux réels anticipés et les risques d’une dépression encore plus grave. Pour sortir de ce piège, il faut que les rendements sociaux des investissements dans une économie zéro carbone soient une évidence pour tous et en particulier coïncident avec des rendements privés. Les outils pour ce  faire sont nombreux. On peut utiliser un prix du carbone et des marchés d’échange des droits à émettre, on peut utiliser une taxe carbone, on peut valoriser des certificats pour des investissements nouveaux (à supposer que l’on sache assurer qu’ils réduisent les émissions de CO2 par rapport à un contrefactuel opposable) ou imposer des normes (si elles sont respectées !). La difficulté de la transition et de l’acceptation d’un changement de prix relatif douloureux peut être accompagnée par des mesures de compensation (qui ont un coût budgétaire, voir le chapitre 4 de l’iAGS 2015, mais qui font partie du package de stimulation). On peut aussi vouloir mobiliser la politique monétaire pour amplifier le stimulus (voir cette proposition de Michel Aglietta et Etienne Espagne). La mise en œuvre d’une telle artillerie pour réduire les émissions et relancer l’économie européenne n’a rien de simple et oblige à tordre le cadre institutionnel. Mais c’est le prix à payer pour éviter de sombrer dans une interminable stagnation qui, par les inégalités et l’appauvrissement qu’elle engendrerait, briserait certainement le projet européen.

Ce texte a été publié sur Alterecoplus le 22 octobre 2015

 


[1] L’inflation à 5 ans dans 5 ans est un indicateur parmi d’autres des anticipations d’inflation, très suivi par les banques centrales. Il résulte du prix de marché d’un contrat d’échange (un swap) contingent à la réalisation de l’inflation future.




Une reprise si fragile

par le Département Analyse et Prévisions, sous la direction d’Eric Heyer et de Xavier Timbeau

Ce texte résume les perspectives économiques 2015-2017 de l’OFCE pour la zone euro et le reste du monde

Les chiffres de croissance pour le premier semestre 2015 dans la zone euro ont confirmé le mouvement de reprise entrevu en fin d’année 2014. Alors que le retour de la croissance dans la zone euro aurait pu indiquer la fin de la crise économique et financière mondiale apparue en 2008, les turbulences enregistrées dans les pays émergents et en particulier en Chine pendant l’été rappellent que la crise ne semble finalement pas vraiment finir. Le poids économique de la Chine et son rôle dans le commerce mondial sont aujourd’hui tels que même dans le cas d’un atterrissage en douceur, les conséquences sur la croissance des pays développés seront significatives. Nous anticipons néanmoins que le scénario de reprise ne sera pas remis en cause et que la croissance de la zone euro restera globalement soutenue par des facteurs favorables (baisse du prix du pétrole et soutien monétaire de la BCE) ou moins défavorables (politiques budgétaires moins restrictives). Il n’en demeure pas moins que la situation dans le monde en développement ajoutera une nouvelle incertitude sur une reprise déjà si fragile.

Entre 2012 et 2014, l’activité dans les pays de la zone euro avait stagné alors que dans le même temps les Etats-Unis affichaient une croissance du PIB de 2 % en moyenne. La reprise qui s’était engagée après la forte contraction de 2008-2009 a rapidement tourné court dans la zone euro du fait de la crise de la dette souveraine qui s’est rapidement traduite par un durcissement rapide et incontrôlé des conditions financières et qui a renforcé l’épisode de consolidation budgétaire des Etats membres, en quête de crédibilité aux yeux des marchés. La zone euro a alors plongé dans une nouvelle récession. En 2015, ces chocs de politique économique ne pèseront plus sur la demande. La BCE a contribué au recul des primes de risque sur la dette souveraine en annonçant l’OMT (Outright monetary transaction) en septembre 2012, puis en mettant en œuvre une politique d’assouplissement quantitatif qui améliore les conditions financières et favorise la baisse de l’euro. Du côté de la politique budgétaire, si la phase de consolidation est loin d’être terminée pour certains pays, le rythme et l’ampleur des mesures annoncées diminuent. Par ailleurs, la croissance sera aussi alimentée par la baisse du pétrole qui semble durable. Les gains de pouvoir d’achat dont bénéficieront les ménages devraient nourrir la consommation privée. Ces différents facteurs reflètent donc bien un environnement plus favorable et propice à la croissance. Cependant, force est de constater que le scénario s’appuie également sur des facteurs volatils tels que les baisses du prix du pétrole et de l’euro. Le ralentissement chinois ajoutera donc un risque supplémentaire à ce scénario qui s’appuie sur l’hypothèse d’une transition maîtrisée de l’économie chinoise d’un modèle de croissance tourné vers les exportations à une économie tirée par sa demande interne. Nous estimons que la croissance dans la zone euro s’établirait à 1,5 % en 2015 puis 1,8 % en 2016 et 2017. Les principaux risques à court terme de ce scénario sont négatifs. Si le prix du pétrole remontait, si l’euro ne baissait pas et si le ralentissement dans les émergents se transformait en crise économique et financière, la croissance mondiale et celle de la zone euro seraient significativement réduites. Ce risque est d’autant plus critique que le taux de chômage de la zone euro reste très élevé (11 % en août 2015). Or étant donné le rythme de croissance anticipé, nous prévoyons une baisse du chômage annuelle en 2016-2017 de l’ordre de 0,6 point par an. A ce rythme, il faudra presque 7 ans pour ramener le taux de chômage à son niveau d’avant-crise. Ainsi, si la sortie de crise économique qui a débuté en 2008 est incertaine, il semble en revanche certain que la crise sociale a de beaux jours devant elle.