La loi SRU et les quotas de logements sociaux : 15 ans après, quel bilan ?

par Sandrine Levasseur

Le 13 décembre 2015, la loi sur la solidarité et le renouvellement urbains, dite loi SRU, fête ses 15 ans. Son article le plus connu, l’article 55, est aussi le plus important et le plus ambitieux puisqu’il enjoint les « grandes » communes d’accueillir au moins 20 % de logements sociaux sur leur territoire à l’horizon de 2022. Cet article de loi, plutôt controversé, a fait l’objet de multiples tentatives de détricotage durant les années 2000. Il a finalement été renforcé dans le cadre de la loi ALUR, à la fois dans ses objectifs (les quotas ayant été portés à 25 %  à l’horizon 2025 dans un certain nombre de villes) et dans ses moyens (les communes contrevenantes perdant une partie de leurs prérogatives qui reviennent au préfet). Quinze ans plus tard, quel bilan peut-on tirer de la loi SRU et de ses quotas de logements sociaux ? La Note de l’OFCE (n° 54 du 14 décembre 2015) dresse un bilan mitigé de l’article 55 de la loi SRU.

En termes quantitatifs, un nombre important de communes concernées par la loi SRU n’a toujours pas atteint le quota de 20 % de logements sociaux : cela concerne 1 021 communes sur un total de 1 911 (soit 53 %). En outre, au rythme de construction de logements sociaux observé lors des quinze dernières années, il est évident que l’objectif de 20 % n’aurait pu être atteint à l’horizon de 2022 pour un certain nombre de ces communes. A titre d’exemple, en Île-de-France, l’objectif de 20 % n’aurait été atteint, en moyenne, qu’en 2032, soit avec dix ans de retard ! Dans ce contexte, atteindre l’objectif de 25 % de logement sociaux à l’horizon de 2025 ressemble à une gageure…

Les communes concernées par la loi SRU font face à diverses difficultés en vue de combler leur retard en termes de construction de logements sociaux. Certaines difficultés sont clairement objectives (e.g. rareté du foncier sur le territoire communal, contraintes géographiques) mais d’autres sont aussi construites ou fantasmées. Ainsi, dans certaines communes, il peut être difficile de distinguer ce qui relève du refus de la population locale d’accueillir des logements sociaux de ce qui relève de la peur du maire de perdre son électorat au cas où il accueillerait des logements sociaux. La conséquence de ces difficultés, objectives ou non, est le versement d’un prélèvement pour les communes n’engageant pas suffisamment de dépenses en faveur du logement social[1]. Dans les communes pour lesquelles un constat de carence a été dressé faute d’avoir satisfait l’objectif intermédiaire de construction de logements sociaux, nos calculs montrent que le prélèvement (brut) moyen est d’environ 170 000 euros annuels, soit l’équivalent de 144 euros par habitant chaque année. Puisque le prélèvement est modulé de façon à tenir compte des difficultés objectives à construire du logement social, son montant suggère qu’il a un caractère très peu incitatif dans certaines communes. C’est dans ce contexte qu’il faut replacer les mesures coercitives prises à l’encontre de 36 communes en octobre 2015. Ces mesures consistent peu ou prou en une mise sous tutelle préfectorale puisque, entre autre chose, le préfet se substitue au maire pour l’octroi des permis de construire et voit son droit de préemption étendu aux logements en sus des terrains.

Caractère très peu incitatif dans certaines communes, rythme de construction insuffisamment soutenu dans d’autres pour atteindre le quota de 20 % : l’article 55 de la loi SRU aurait donc failli ? Répondre par l’affirmative, ce serait oublier son effet pédagogique auprès de nombreux élus et de leurs électeurs ; ce serait oublier la prise de conscience qu’il a suscité autour de la nécessité de construire du logement social. Même dans les communes les plus récalcitrantes à l’accueil de logements sociaux, la nécessité de construire du logement social fait son chemin, certes souvent à grand renfort de médiatisation. Dans ces communes, la mise sous tutelle préfectorale va probablement constituer une étape supplémentaire dans la prise de conscience de la nécessité de participer à la mixité sociale.

 


[1] Pour atteindre l’objectif de 20 % de logements sociaux à l’horizon de 2022 (dorénavant 25 % à l’horizon 2025), chaque commune concernée par l’obligation de rattrapage se voit assigner un objectif triennal intermédiaire de construction de logements sociaux. A l’issue des trois ans, un bilan est dressé, un prélèvement brut (tenant compte du nombre de logements sociaux manquants et de la richesse de la commune) est calculé. En outre, dans les communes n’ayant pas atteint l’objectif triennal, un constat de carence peut être dressé et le prélèvement peut être majoré. Voir la Note de l’OFCE, n°54 du 14 décembre 2015 pour plus de détails.




Notre maison brûle, et nous ne regardons que Paris

par Paul Malliet

Alors que la 21e Conférence des Parties, la COP 21, a débuté la semaine dernière, tous les regards sont braqués sur Paris dans l’attente d’un accord  global ambitieux qui permettrait de limiter la hausse de la température moyenne mondiale à 2°C et de mener les Etats  à s’orienter très rapidement sur le chemin d’une décarbonisation rapide de leurs économies. Toutefois il est une autre bataille qui se mène actuellement et qui est passée sous silence alors que ses conséquences sont d’une ampleur catastrophique.

Les forêts primaires et les tourbières d’Indonésie, principalement localisées sur les îles de Sumatra et de Kalimantan (et considérées comme l’un des trois poumons verts de la planète) ont été ravagées par le feu pendant plusieurs mois, conséquence d’une saison sèche plus longue que prévue, elle-même alimentée par le phénomène El Niño d’une ampleur rarement observée[1], mais également et surtout par la poursuite des pratiques de culture sur brûlis, pourtant illégales, afin de déboiser des terres nécessaires à l’extension de la culture de l’huile de palme.

Ce sont ainsi 1,62 Gigatonnes de CO2 qui ont été relâchées dans l’atmosphère en l’espace de quelques semaines, triplant les émissions annuelles de l’Indonésie et faisant passer ce pays du 6e au 4e plus gros émetteur mondial derrière la Chine, les Etats-Unis, l’Inde et devant la Russie[2]. A titre de comparaison, cela représente près de 5 % des émissions mondiales pour l’année 2015.

Pourtant la question de la déforestation était centrale dans la contribution de l’Indonésie à l’effort global de réduction des émissions de gaz à effet de serre, puisque elle représente plus de 80 % de l’effort consenti[3] jusqu’à présent. De surcroît, dans le cadre du mécanisme onusien REDD+ (Reduction Emissions from Deforestation and Forest Degradation) lancé en 2008, l’Indonésie bénéficiait d’un financement international depuis 2011 de 1 milliard de dollars pour lutter justement contre la déforestation et pour promouvoir une gestion durable des forêts.

Or, faute d’une réponse rapide et significative qui aurait sans doute pu limiter les incendies, c’est cet effort qui est littéralement parti en fumée ces derniers mois. Trois éléments d’explication peuvent être avancés à ce stade. Le premier relève des capacités matérielles propres à l’Indonésie lui permettant de répondre à une telle catastrophe. Les autorités ne disposaient à titre d’exemple que de 14 avions, et s’appuyaient principalement sur les populations locales pour lutter contre l’extension des feux de forêts en construisant des bassins de rétention. Le deuxième élément relève de questions géopolitiques régionales. Plusieurs tensions diplomatiques émaillent les relations que l’Indonésie entretient avec ses voisins et il a fallu plusieurs semaines d’incendies avant que le gouvernement ne consente à accepter l’aide internationale. Enfin, une culture de la corruption telle qu’elle existe à plusieurs échelons de l’administration a favorisé des années de déforestation, fragilisant encore plus les écosystèmes au risque d’incendie.

Pourtant, il est désormais indéniable que les débats autour des réponses et des moyens à apporter aux situations de catastrophes climatiques sont à l’heure actuelle totalement absents des discussions dans le cadre de la COP 21. Il est aujourd’hui plus qu’urgent que la communauté internationale soit en mesure de fournir un cadre et des moyens d’intervention en réponse à ce type d’événement, qui malheureusement devrait être de plus en plus fréquent, et dont les conséquences seraient sources de profonds déséquilibres régionaux. Le renforcement des financements destinés à la lutte contre la déforestation est évidemment primordiale, surtout que le coût de la tonne de CO2 évité est dans ce cas très faible ; mais c’est principalement au niveau des pratiques que de nombreux progrès restent à faire, que ce soit  par l’introduction de plus de transparence dans la gestion des fonds ou une intégration plus forte des  populations locales et des ONG dans la mise en œuvre de nouvelles pratiques.

François Hollande déclarait lors de son discours d’ouverture de la COP 21 que « ce qui est en cause avec cette conférence sur le climat, c’est la paix ». Effectivement, les conditions de la paix risquent de plus en plus de dépendre des capacités d’adaptation des sociétés face au risque climatique. Le désastre de la Seconde Guerre mondiale a conduit la communauté internationale à créer le corps des casques bleus dont le mandat est « le maintien ou le rétablissement de la paix et de la sécurité internationale ». Combien de désastres écologiques seront-ils nécessaires pour voir apparaître des casques verts ?

 


[1] D’après l’OMM (Organisation météorologique mondiale), le phénomène El Niño 2015-2016 s’inscrit comme étant l’un des trois plus puissants jamais enregistrés depuis que les données sont répertoriées, en 1950,  et les prochaines décennies sont susceptibles de voir une accélération d’épisodes extrêmes sous l’effet du changement climatique.

[2] World Resources Institute, With Latest Fires Crisis, Indonesia Surpasses Russia as World’s Fourth-Largest Emitter, 29 octobre 2015.

[3] L’Indonésie s’était engagée en 2009 à réduire de 29 %, voire 41% (avec un support international), ses émissions de gaz à effet de serre (GES) par rapport à un scénario de référence (Source : National Action Plan for Greenhouse Gas Emissions Reduction (RAN-GRK)).




PLF 2016 : la longue route vers les 3 %

par Raul Sampognaro

Le Projet de loi de Finances 2016 (PLF 2016) poursuit l’ajustement budgétaire entamé en 2010. Cet ajustement a permis notamment de réduire le déficit public de 3,3 points de PIB en l’espace de cinq ans, passant de 7,2 points de PIB en 2009 à 3,9 points en 2014, alors même que les conditions conjoncturelles ont pesé sur les finances publiques[1]. La baisse du déficit devrait se poursuivre au cours de la période 2015-2017. Notre dernière prévision table sur un déficit à 3,7 % en 2015 puis à 3,2 % en 2016 et 2,7 % en 2017, année où le déficit passerait en-dessous de la « barre des 3 % ». Cette trajectoire est légèrement plus favorable à celle retenue par le gouvernement[2] dans le PLF 2016 en raison d’une reprise de l’activité que nous attendons un peu plus dynamique. Au final, il se sera écoulé dix ans entre le moment où la France a franchi le seuil des 3 % et le moment où elle serait revenue en-dessous.

Ce nouveau PLF 2016 s’inscrit dans la continuité de la stratégie budgétaire mise en œuvre depuis 2014 : l’effort structurel est réalisé essentiellement sur la dépense publique et cet effort permet la réduction des déficits et de la fiscalité des entreprises.

Depuis 2014 un effort conséquent est réalisé sur la dépense publique. Au cours l’année 2014, la dépense publique hors crédits d’impôts[3] a connu sa progression la plus faible depuis 1959[4] (graphique 1), c’est-à-dire l’année du début des comptes des administrations publiques publiés par l’Insee. Cette stratégie a été renforcée lors du vote de la Loi de programmation des finances publiques (LPFP) de 2015, qui prévoyait la mise en œuvre d’un plan de 50 milliards d’euros d’économies de dépenses publiques au cours de la période 2015-2017. Le PLF 2016 concrétise cet effort : l’Etat et ses opérateurs réaliseront une économie de 5,1 milliards, les concours financiers de l’Etat envers les collectivités territoriales seraient réduits de 3,5 milliards d’euros et le système de protection sociale devrait contribuer à hauteur de 7,4 milliards d’euros, soit un total d’économies pour l’année 2016 qui s’élève à 16 milliards d’euros. Hors crédits d’impôts, en valeur, la dépense publique devrait augmenter de +1,3 % en 2015, en 2016 et en 2017 (entre 2000 et 2007, elle a augmenté de 4,0 % par an en moyenne). L’effort, mesuré en volume, est encore plus marqué : après la quasi stabilisation attendue pour 2015 (+0,1 %), la dépense publique devrait accélérer progressivement à partir de 2016 (+0,3 % puis +0,6 % en 2017), des rythmes de progression qui restent historiquement faibles. Cette progression de la dépense publique, bien inférieure à la croissance potentielle française marquerait un vrai effort de baisse à long terme du ratio des dépenses publiques sur le PIB.

G1_Post1012RS

En ce qui concerne la fiscalité, les nouvelles mesures mises en œuvre devraient faire reculer les prélèvements obligatoires (PO) de 0,1 point de PIB (soit une baisse de –2,4 milliards d’euros ou de −4,4 milliards si l’effet de la suppression de la prime pour l’emploi est neutralisé[5]). La baisse globale des PO de 2016 resterait proche de celle de 2015 et serait ciblée sur les entreprises, qui bénéficieront toujours de la montée en charge du CICE, du plan investissement et du plan TPE/PME, et des nouvelles mesures du Pacte de responsabilité[6] (tableau 1). En revanche, les nouvelles mesures pesant sur les ménages feraient augmenter leurs prélèvements de 2,1 milliards d’euros[7], en dépit de la baisse de l’IRPP inscrite dans le PLF 2016 car elle serait compensée par des mesures préalablement votées. Enfin, les mesures discrétionnaires connues pour 2017, qui incluent notamment la montée en charge du CICE et les dernières mesures du Pacte de responsabilité, restent ciblées sur les entreprises.

tab1_1012post

La stratégie budgétaire décrite ci-dessus cherchant à réduire simultanément les déficits publics structurels et la fiscalité des entreprises, financée par la maîtrise de la dépense publique et la hausse des prélèvements sur les ménages pèsera sur la croissance. L’ajustement structurel est estimé, selon nos calculs, à 0,5 point de PIB pour l’année 2015 et à 0,3 point pour les années 2016 et 2017. Cet ajustement pénalise d’autant plus la croissance que les politiques d’offre n’auront un impact positif qu’à moyen et à long terme. Leur effet sera modeste à court terme, alors que la baisse des dépenses publiques et la hausse des prélèvements sur les ménages ont un impact plus rapide sur le PIB et plutôt élevé à court terme, notamment dans un contexte où l’activité reste morose[8]. Ainsi, au total, la politique budgétaire amputerait la croissance du PIB de 0,4 point en 2016 et en 2017 (tableau 2).

tabs2_1012post

Notre prévision a été finalisée fin-septembre avant les attentats du 13 novembre et du discours de F. Hollande devant le Parlement réuni en Congrès, où il a prononcé « le pacte de sécurité l’emporte sur le pacte de stabilité ». Sur la base de notre prévision et des annonces réalisées depuis le 13 novembre, il apparaît a priori que les cibles de déficit nominal seraient toujours conformes aux engagements européens de la France. En outre, les nouvelles dépenses liées à la réponse faite aux attentats de novembre seraient exclues du calcul de déficit dans le cadre de la procédure de déficit excessif. Pour rappel, les augmentations de dépenses liées à des événements extraordinaires, non contrôlés par le gouvernement, rentrent dans le cadre des flexibilités existantes dans l’application des règles du Pacte de stabilité et de croissance. Dans ce contexte, la France devrait sortir de la procédure de déficit excessif à l’horizon 2017, conformément à la recommandation du Conseil du 10 mars 2015.

 


[1] La réduction du déficit structurel est en fait plus marquée, de 4,3 points de PIB.

[2] Selon le gouvernement ; le déficit public baisserait de 0,1 point de PIB en 2015 (3,8 % du PIB), de 0,5 point en 2016 (3,3 %) et de 0,6 point en 2017.

[3] Les crédits d’impôts restituables – essentiellement le CICE et le CIR – sont comptabilisés en dépenses publiques par la base 2010 des comptes nationaux. Afin, de rester plus proches des concepts économiques, les dépenses publiques seront analysées hors crédits d’impôts ; ces derniers seront analysés comme une composante de la fiscalité.

[4] Elle a augmenté de 0,9 % en valeur et de seulement 0,3 % en volume (déflaté par les prix du PIB).

[5] La fusion de la PPE et du RSA se traduit par une hausse de l’IR de 2 milliards (hausse des PO), compensée à l’identique par une hausse de la prime d’activité qui, elle, est comptabilisée en dépenses. Cette mesure est donc neutre sur le revenu des ménages.

[6] Avec notamment l’extension de la baisse des cotisations sociales employeurs, la poursuite de la baisse de la C3S  et l’élimination de la contribution exceptionnelle sur l’impôt sur les sociétés.

[7] Ce chiffre neutralise l’impact de la fusion de la PPE et du RSA.

[8] Voir Creel, Heyer et Plane (2011), « Petit précis de politique budgétaire par tous les temps. Les multiplicateurs budgétaires au cours du cycle », Revue de l’OFCE, n° 116, janvier 2011.




Semestre européen : évaluer l’orientation agrégée de la politique budgétaire c’est bien, débattre de son impact économique c’est encore mieux

par Raul Sampognaro

Le 26 novembre, la Commission européenne a lancé le Semestre Européen avec la publication du Rapport Annuel sur la Croissance (2016 AGS selon son acronyme en anglais) et de la recommandation de politique économique pour l’ensemble de la zone euro. La Commission juge, en raison des externalités générées par la politique budgétaire entre les Etats membres et des contraintes pesant actuellement sur la politique monétaire, qu’il est nécessaire de renforcer l’attention portée sur l’orientation agrégée de la politique budgétaire dans la zone euro. Le jugement porté sur cette orientation doit tenir compte notamment des facteurs cycliques, mettant ainsi en avant le rôle de stabilisation macroéconomique de la politique budgétaire. Les services de la Commission considèrent qu’une politique globalement neutre est appropriée au contexte actuel, en raison des risques qui pèsent sur la reprise et du niveau toujours élevé du taux de chômage.

L’ouverture du débat sur la politique budgétaire d’ensemble de la zone euro constitue indéniablement un pas dans la bonne direction pour améliorer le cadre d’élaboration de la politique macroéconomique dans la zone euro. La crise de la zone euro, déclenchée en 2012, s’explique en grande partie par les fragilités dans la construction de l’Union monétaire. L’inadaptation du cadre de coordination des politiques macroéconomiques a été l’une des principales failles dévoilées par la crise. Avant-crise, la BCE devait gérer seule les chocs communs à l’ensemble de l’Union alors que les politiques budgétaires nationales étaient censées contrecarrer les chocs asymétriques. En outre, la politique budgétaire devait aussi assurer la soutenabilité de la dette publique afin d’éviter la montée des taux d’intérêt et le risque de contagion. Le respect de ce double objectif pour la politique budgétaire était supposé garanti par le respect des règles du Pacte de stabilité et de croissance (PSC). Ce cadre a échoué pendant la crise. D’une part, les règles du PSC se concentrent quasi-exclusivement sur un seul des objectifs assignés à la politique budgétaire : la réduction de la dette publique. D’autre part, la décentralisation du processus de décision concernant la politique budgétaire a eu pour conséquence un résultat d’ensemble inadéquat. Ainsi, les règles du PSC ont généré un ajustement structurel très fort et mal calibré dans les pays ayant subi plus fortement la crise de la zone euro alors que les pays disposant de marges fiscales ne les ont pas mobilisées pour soutenir la croissance.

Dans la gouvernance européenne, l’indicateur préféré pour mesurer l’orientation de la politique budgétaire est la variation du solde structurel. Ainsi, l’orientation d’ensemble de la politique budgétaire est calculée en faisant la somme pondérée (par le poids du PIB en valeur) des variations du solde structurel de chacun des Etats membres. Cet indicateur permet d’évaluer les évolutions du déficit à long terme, une fois les effets du cycle conjoncturel purgés. Si cet indicateur est attrayant théoriquement, il est largement tributaire des hypothèses faites sur la croissance potentielle et le PIB potentiel : même en partant d’hypothèses de finances publiques identiques, l’évolution du solde structurel sera différente (voir les lignes 2 et 3 du tableau 1). Sur la base de cet indicateur et en utilisant les hypothèses de finances publiques réalisées par la Commission européenne, la politique budgétaire serait globalement neutre, voire légèrement expansionniste, dans la zone euro en 2015 et en 2016, jugement qui est partagé par le rapport iAGS 2016. Suivant les annonces des gouvernements dans les Programmes de stabilité du mois de mai, l’équipe iAGS prévoit le retour de la consolidation budgétaire en 2017. Ce résultat diffère de celui de la Commission européenne, qui tient compte exclusivement des mesures pour lesquelles les mesures législatives sont déjà mises en œuvre.

tab1_RS0912_post

Dans le rapport iAGS 2016, nous proposons une nouvelle façon de calculer l’orientation agrégée de la politique budgétaire, d’une façon qui tienne compte des avancées de la théorie économique. Selon la littérature, le multiplicateur des dépenses publiques – qui pèsent dans la plupart des principales économies de la zone euro – est supérieur, au moins à court terme, à celui associé aux mesures fiscales qui sont orientées à la baisse et devraient soutenir l’activité. Ceci est particulièrement vrai en période où l’activité est sensiblement inférieure à son niveau potentiel. L’indicateur proposé pondère l’impact macroéconomique des politiques budgétaires nationales[1].

Une fois que la composition et la localisation des impulsions budgétaires sont prises en compte, l’évaluation de la politique budgétaire mise en place dans la zone euro est modifiée. Selon nos calculs, la politique budgétaire pèsera légèrement sur la croissance du PIB en 2016 (-0,1 point de PIB, tableau 2) malgré la dégradation anticipée du solde structurel. Ce paradoxe peut s’expliquer à la fois par la localisation de l’impulsion – elle aura peu d’impact sur le PIB car elle sera largement concentrée en Allemagne (où les multiplicateurs sont bas car l’output gap est quasiment fermé), et par sa composition en Italie et en Espagne (où l’impulsion est faite à partir des baisses d’impôts avec un faible impact expansionniste à court terme, et partiellement compensée par des économies en dépenses à fort multiplicateur).

tab2_RS0912_post

Ce paradoxe entre une politique budgétaire légèrement expansionniste avec des effets récessifs montre que le débat ne doit pas se focaliser exclusivement sur l’orientation de la politique budgétaire mais doit inclure les modalités de sa déclinaison. Ainsi, deux nouveaux sujets semblent importants dans les débats européens : celui de l’utilisation des marges budgétaires – l’expansion budgétaire pourrait être plus importante dans les pays non contraints – et celui du besoin de flexibilité dans l’application du PSC – les règles budgétaires doivent tenir compte de la taille des multiplicateurs et concentrer la relance dans les pays où celle-ci sera plus efficace. L’analyse précise de la position de chaque pays vis-à-vis du PSC montre que très peu de pays auraient de l’espace fiscal dans le cadre actuel de la gouvernance européenne. Selon l’analyse des Projets de Lois de Finances (DBP, selon son acronyme en anglais) réalisé par la Commission européenne, seule l’Allemagne disposerait des marges de manœuvre pouvant influencer la croissance dans l’ensemble de l’Union monétaire. Toutefois, on peut questionner l’efficacité d’une relance budgétaire en Allemagne, surtout au regard d’un objectif de fermeture de l’output gap et de baisse du chômage dans la zone euro. Ceci soulève une nouvelle question si on veut réaliser une politique budgétaire contra-cyclique sans dégrader la soutenabilité des dettes publiques des Etats membres plus affectés par la crise. Ainsi, il faut se questionner sur la nécessité d’un budget fédéral consacré à la stabilisation macroéconomique surtout quand la politique monétaire est contrainte – comme dans une situation de déflation et de trappe à liquidité. Cette réflexion aurait motivé la mise en place du Plan Juncker, cherchant à augmenter le niveau de l’investissement dans la zone euro. Toutefois, l’efficacité de ce plan peut être remise en question. Ce plan repose sur des hypothèses irréalistes sur les effets de levier du financement public ; et la modalité de sélection des projets, suivant leur rentabilité économique, peut engendrer un biais pro-cyclique, le contraire de ce qui devrait être recherché. Ainsi, le Plan Juncker, qui d’ailleurs n’a pas vocation à être pérennisé, peut s’avérer insuffisant pour générer le choc de demande dont a besoin la zone euro pour sortir de la trappe à liquidité dans laquelle elle est embourbée.

Tout compte fait, l’impulsion fiscale prévue pour 2016 (+0,1 point de PIB selon la mesure plus optimiste) ne sera pas à la hauteur de la situation. Une hausse coordonnée de l’investissement public dans les pays de la zone euro, concentrée sur les objectifs fixés par la stratégie Europe 2020, constituerait indéniablement une meilleure politique à celle qui est actuellement proposée. Elle serait plus équilibrée et permettrait de satisfaire à la fois les objectifs de court terme (baisse du chômage) et de long terme (hausse de l’investissement en R&D, lutte contre le réchauffement climatique, amélioration des infrastructures). L’introduction d’une règle d’or dans la gouvernance budgétaire européenne, permettant d’exclure du calcul du déficit les projets d’investissement public jugés utiles pour l’ensemble de la zone euro, permettrait de réaliser ce stimulus dans le respect des règles de la bonne gestion budgétaire et en préservant la soutenabilité des dettes publiques.

 


[1] Un indicateur construit sur le même principe est publié trimestriellement aux Etats-Unis par la Brookings Institution http://www.brookings.edu/research/interactives/2014/fiscal-barometer




La fin du pétrole et du charbon

par Xavier Timbeau

L’idée qu’il faut mettre fin à l’usage du pétrole et du charbon n’est pas nouvelle. Elle est portée par des ONG depuis longtemps, comme 350.org et sa campagne gofossilfree. Ce qui est plus frappant c’est que le candidat démocrate à la primaire, le sénateur Bernie Sanders, en ait fait la proposition à mette au cœur du débat de la présidentielle américaine. Des investisseurs institutionnels ou des détenteurs de grands fonds ont également annoncé leur intention de limiter ou cesser leurs investissements dans le charbon (Allianz, ING par exemple) et dans le pétrole (le fonds de pension néerlandais ABP). Quelques grandes villes penchent dans cette direction pour l’orientation de leurs politiques d’aménagement urbain. Interrogée sur cette option, la directrice de l’Agence environnementale américaine (EPA), Gina McCarthy, a déclaré (prudemment) que cette option n’était pas irrationnelle.

Figure : Scénarios d’émission de CO2

post-XT3

Source : Graphique SMP 11, AR5, IPCC, p. 21.

Ceci dit, le graphique SPM 11 du 5e rapport du GIEC ne dit pas autre chose. Pour limiter le réchauffement climatique à 2 degrés, nous disposons d’un budget carbone de 2 900±250 GtCO2e depuis 1870 ; nous en avons consommé autour de 1 900 GtCO2e à ce jour. Il nous reste ainsi, pour faire moins que +2°C (par rapport à l’époque préindustrielle) avec une probabilité de 66 %, à peu près 1 000 GtCO2e. Compte tenu d’un flux d’émissions annuelles de l’ordre de 50 GtCO2e, une simple règle de trois nous donnerait 40 années d’émissions décroissantes linéairement. La prise en compte des puits de carbone, des inerties du climat et des forçages radiatifs  négatifs sur le climat étend l’horizon temporel à 2090±10 années, mais la prudence demanderait d’aboutir à l’objectif zéro émission plus tôt. Pour mémoire, il reste dans le sol des réserves exploitables de l’ordre de 5 000 ±1 400 GtCO2en charbon seul, soit de quoi dépasser largement notre actuel budget carbone. Notons que l’arrêt de l’utilisation des combustibles fossiles ne règle pas tout. Une part des émissions actuelles de gaz à effet de serre (du CO2, mais aussi du méthane ou d’autres gaz) n’est pas liée aux fossiles mais à l’agriculture, la déforestation ou aux processus industriels. Dans le cas d’un système énergétique renouvelable à presque 100 %, le gaz serait nécessaire lors des pointes de consommation. Ces émissions non fossiles peuvent être réduites mais pas complètement. Il est possible d’avoir des émissions négatives, mais la seule « technologie » aujourd’hui disponible est celle de la reforestation et ne peut contribuer à abaisser les émissions que de 2 GtCO2 par an. La capture du carbone et son stockage sont également un moyen de conserver l’usage des fossiles à la condition qu’elle fonctionne et que l’on dispose de suffisamment de capacité de stockage (une fois la capacité de stockage épuisée, le problème subsiste).

Le principe de « responsabilité commune mais différenciée » conduirait les pays développés à s’appliquer la contrainte plus rapidement (disons aux alentours de 2050). Certains voient dans cette perspective l’explication de la baisse du prix du pétrole. Puisque toutes les ressources fossiles ne seront pas brulées, seules celles qui le seront d’ici à 2050 valent quelque chose et ce prix est inférieur à celui qui découle d’une demande toujours croissante. L’Arabie saoudite a donc intérêt à produire davantage plutôt que de garder des réserves sans valeur. Mark Carney, gouverneur de la Banque d’Angleterre et président du Conseil de la stabilité financière a ainsi évoqué les « stranded reserves », de la même façon qu’une centrale au charbon est un « stranded asset », soit un actif bloqué que l’on est obligé de déprécier prématurément.

La fin du pétrole et du charbon n’est plus seulement une lubie de quelques activistes verts. Cela rejoint d’ailleurs les appels persistants et presque convergents de nombreux économistes à un prix du carbone. Un prix élevé et croissant du carbone obligerait en effet les agents économiques à désinvestir dans le capital qui émet du carbone, voire à déprécier prématurément celui qui est installé. Lorsqu’un prix du carbone élevé est réclamé (disons entre 50 et 100€/tCO2, le prix du carbone augmentant dans le temps et au fur à mesure que le budget carbone s’épuise), c’est pour qu’il envoie un fort signal-prix aux agents économiques et que la conséquence d’un tel prix soit la réduction des émissions jusqu’au point compatible avec un climat restant en deçà de +2°C par rapport à l’époque préindustrielle.  C’est donc, de leur point de vue, équivalent de dire « le prix du carbone doit être de 50€/tCO2 et plus » que de dire « il faut tout faire pour que l’on cesse d’utiliser le charbon et le pétrole dans le prochain demi-siècle ». Le prix du carbone nous donne d’ailleurs une précieuse information sur le coût de cette transition. Il sera de l’ordre de (quelques) 1 000 milliards d’euros par an (à l’échelle de l’économie mondiale). Proposer un prix c’est également proposer le principe pollueur-payeur (les émetteurs de carbone doivent payer), bien qu’il ne soit pas clair de savoir à qui les pollueurs doivent payer. C’est tout le débat sur le fonds vert et la justice climatique qui est au centre de la COP21.

Il serait dommage de se focaliser sur le prix du carbone et d’en faire l’enjeu central de la COP21. L’économie zéro carbone est notre avenir et nous n’aurons pas d’excuse si nous continuons à brûler les combustibles fossiles. Oscar Wilde ne disait-il pas : « Aujourd’hui les gens connaissent le prix de tout et la valeur de rien » ?

 

 




What would be the risks of extending QE?

By Christophe BlotPaul Hubert and Fabien Labondance

Following the last meeting of the ECB Governing Council on 22 October, Mario Draghi said that on Thursday, December 3rd, the Bank would review the orientation of its monetary policy in the light of economic and financial developments and the new Eurosystem staff forecasts, which will be disclosed at that time. The main issue facing the meeting is whether the ECB will take new steps to support activity. It could for instance announce further cuts in the deposit facility rate or an extension of quantitative easing (QE). Up to now the ECB has been careful to show its determination to meet its primary objective of price stability, even though in return it is encountering criticism that these waves of monetary expansion have had little effect on inflation but are fuelling asset price bubbles.

With inflation at 0.1% in October, the ECB is far from meeting its goal of achieving inflation rates below but close to 2% over the medium term. While the low level of euro zone inflation is due in part to lower oil prices, the fact remains that, even when adjusted for energy and food components, so-called “headline inflation” has not exceeded 1% since September 2013, reflecting a persistent state of low inflation. Note that the figure for October is the last observed value of inflation and provides only imperfect information about how it is changing in the medium term. The central banks are thus particularly sensitive to changes in inflation expectations. Market indicators however point to a further decline in long-term inflation expectations, whereas these rose in January after the announcement of QE (see graphic). So while there has been only very gradual confirmation of a recovery in the euro zone, the fear of deflation has not abated, which should push the ECB to strengthen its support. In a previous analysis, which was based on quantitative easing programmes undertaken by the US Federal Reserve and the Bank of England, we emphasized the positive effects that QE was expected to have in the euro zone. The trends in euro exchange rates seen after the ECB’s announcements in January 2015 and at the October meeting suggest that there is an impact via exchange rate channels.

Beyond these channels is the question of how QE affects asset prices. Several studies show that an expansionary monetary policy based on asset purchases supports financing and results in higher asset prices. However, some observers are also concerned about the risks associated with these operations, arguing that they feed asset price bubbles, that is to say, increases in prices that are not justified by economic fundamentals. Nevertheless, this kind of analysis relies solely on the rise in share prices to support these arguments. In a recently published study (Revue de l’OFCE, issue 144, November 2015, in French), we focus on the effects of monetary policy on three asset prices in the euro zone: the markets for equities, bonds and property. Our analysis suggests that monetary policy decisions would have no impact on asset prices that is not due to fundamentals. Thus, an interest rate cut does not seem to fuel bubbles, just as a tightening of monetary policy does not lead to a decline beyond what is indicated by the usual determinants of asset prices. While the channel of asset prices [1] does seem to be at work, monetary policy has no additional effects on the component of asset prices beyond what is due to economic fundamentals.

GraphEng_0112


[1]  This channel may be divided in two: Tobin’s Q channel and the channel of wealth effects. The first suggests that a reduction in interest rates is likely to have a favourable impact on share prices, since share prices correspond to the present value of future dividends. An increase like this in share prices lowers the cost of capital for businesses, and supports their investments (like traditional capital, but via a different mechanism, as higher share prices make share issues more attractive). The second suggests that household consumption may also benefit from lower interest rates: the increase in the prices of financial or property assets resulting from lower interest rates increases their total value and promotes consumption. In a model where households seek to smooth consumption over the life cycle, they spend more when their wealth rises.

 

 




Chômage : la douche froide

Département Analyse et Prévision (Équipe France)

Après un mois de septembre encourageant sur le front du chômage (-24 000 inscrits en catégorie A), l’augmentation en octobre de 42 000 demandeurs d’emploi en catégorie A inscrits à Pole Emploi ressemble à une douche froide. C’est en effet le plus mauvais chiffre mensuel depuis 25 mois. Le basculement d’un certain nombre de chômeurs des catégories B (-6 800) et C (-22 100) vers la catégorie A confirme l’idée que la sortie de certains demandeurs d’emploi en catégorie A, par le biais de contrats de très courte durée, n’a été que provisoire : une part importante de ces contrats n’a a priori pas été renouvelée ou transformée en contrats de plus longue durée.

Bien que les enquêtes de conjoncture sur les perspectives d’emploi soient en amélioration, notamment dans les services, cela montre combien la sortie de crise est fragile, les entreprises hésitant à s’engager dans un cycle d’embauches au sein d’un environnement macroéconomique encore très incertain. Eponger les surcapacités de production héritées de la crise prendra du temps et la timide reprise de la croissance (+0,3% au 3e trimestre et +0,4% attendu au 4e trimestre 2015) n’est pas encore suffisante pour inverser la courbe du chômage.

Seule nouvelle positive, le chômage des jeunes de moins de 25 ans en catégorie A se stabilise en octobre 2015. Il est en baisse de près de 20 000 depuis le début de l’année, et se situe à un niveau comparable à celui observé fin 2012. Cela confirme que les politiques d’emplois aidés ciblées sur les jeunes, en particulier les emplois d’avenir, fonctionnent. A l’inverse, faute de véritable reprise sur le marché du travail, avec 2 436 600 chômeurs inscrits en catégories A, B et C depuis plus d’un an, le chômage de longue durée atteint de nouveaux records de mois en mois.

Ce maintien du chômage à un niveau élevé se traduit aussi par une déformation de sa composition. La part des demandeurs d’emploi de longue durée (ceux inscrits depuis plus d’un an) dans l’ensemble des inscrits en catégories A, B et C a crû de 15 points, passant de 29,8 % en avril 2009 à 44,8 % en octobre 2015. Cette évolution préoccupante témoigne de la difficulté de certaines personnes à pouvoir s’extraire du chômage. Les frémissements du marché du travail depuis le début de l’année ont profité en priorité aux chômeurs les moins éloignés de l’emploi.

L’allongement de la durée au chômage s’accompagne d’une perte des droits à l’indemnisation au-delà de 2 ans (3 ans pour les 50 ans et plus) qui se traduit par une dégradation de la situation personnelle des sans-emploi. La part des demandeurs d’emploi indemnisés, passée de près de 50 % au début de 2009 à environ 41 % aujourd’hui évolue à l’inverse de celle des demandeurs d’emploi ayant deux ans d’ancienneté ou plus, cette dernière s’étant accrue de 10 points depuis 2009.

3_graph_chomage_2611




Le contrat unique : une auberge espagnole

Par Jacques Barthélémy et Gilbert Cette

Le débat sur le contrat unique découle le plus souvent du constat d’une dualité du marché du travail, avec d’un côté des salariés qui seraient très protégés, les CDI et tout particulièrement les fonctionnaires, et de l’autre côté les actifs alternant emplois précaires peu protégés et périodes de chômage. Ce contraste traduit des inégalités flagrantes, avec des conséquences sociales et économiques importantes.

En réponse à cette dualité, des propositions sont souvent avancées qui consisteraient à créer un « contrat unique » atténuant les écarts de statut et de droits entre emplois précaires (CDD et intérim) et emplois en CDI. Mais ce concept de « contrat unique » est souvent peu défini. C’est même une auberge espagnole si l’on prend en considération les différences importantes de contenu constatées dans les propos des uns ou des autres !

Les trois objectifs déclarés de la proposition de contrat unique sont : (i) de réduire les inégalités de statuts liées à la coexistence de contrats dits précaires (CDD et intérim) et de CDI ; (ii) de réduire la complexité et les incertitudes coûteuses de la judiciarisation des licenciements ; (iii) d’internaliser en partie le coût social des licenciements. Dans un article de la Revue de l’OFCE, nous montrons qu’un contrat unique ne peut pas répondre véritablement à ces objectifs, mieux servis par d’autres voies, et qu’il présenterait des risques juridiques majeurs.

Pour en savoir plus : J. Barthélémy et G. Cette, 2015, « Le contrat unique: une auberge espagnole », Revue de l’OFCE n°146.

 




Vers un lent rétablissement du pouvoir d’achat en France

par Pierre Madec et Mathieu Plane

Le portrait social de la France livré par l’INSEE il y a quelques jours indique que le niveau de vie moyen, par unité de consommation, a baissé de près de 400 euros entre 2012 et 2013 soit la baisse la plus importante mesurée depuis 2008. La reprise annoncée de l’économie française dans les prochains trimestres sera-t-elle à même de redresser le niveau de vie et le pouvoir d’achat des ménages ?

Nous étudions ici l’évolution du pouvoir d’achat par ménage[1] au sens de la comptabilité nationale depuis 1999, avec un focus particulier sur la période  de la crise (2008-2016)[2]. A partir du compte des ménages, nous analysons les composantes du revenu des ménages de façon à identifier à la fois l’impact direct des politiques budgétaires sur le pouvoir d’achat (prestations sociales et prélèvements obligatoires) mais aussi la dynamique des revenus du  travail et du capital. Pour les années 2015 et 2016, nous avons repris la prévision contenue dans le Rapport Economique Social et Financier du Projet loi de finances pour 2016.

Si la période d’avant crise (1999-2007) a clairement été une période faste pour le pouvoir d’achat des ménages (+540 euros par ménage en moyenne annuelle), tirée par le dynamisme des revenus du travail et du capital, ce dernier a été fortement amputé depuis le début de la crise. Sur la période 2008-2014, le pouvoir d’achat par ménage s’est ainsi réduit de plus de 1200 euros. Si le pouvoir d’achat par ménage s’est relativement bien maintenu lors de la première partie de la crise, c’est-à-dire de 2008 à 2010, sous l’effet notamment du plan de relance et des prestations sociales qui ont joué leur rôle contra-cyclique en amortissant le revenu (+ 1020 euros par ménage sur la période), la consolidation budgétaire entamée en 2011 a considérablement impacté le pouvoir d’achat. La forte augmentation des prélèvements obligatoires sur les ménages de 2011 à 2014  a réduit le pouvoir d’achat par ménage de 1120 euros en quatre ans. Cela tend à montrer que les politiques fiscales sont pro-cycliques depuis 1999 : la hausse des impôts sur le revenu et le patrimoine a été maximale lorsque les ressources des ménages se sont le plus contractées (-50 euros en moyenne par an sur la période 2011-14). A l’inverse,  les charges liées à ces deux types d’impôt ont très faiblement augmenté  au cours de la période précédant la crise (+48 euros par ménage par an en moyenne sur la période 1999-2007) alors que les ressources des ménages ont connu une très forte croissance sur cette période (+690 euros en moyenne par an par ménage). La baisse du nombre d’emplois par ménage et la quasi-stagnation des rémunérations réelles ont quant à elles contribué à réduire les revenus réels du travail par ménage de 350 euros par an sur la période 2001-14. Et la baisse des revenus réels du capital a conduit à diminuer le pouvoir d’achat de 320 euros par ménage. Seules les prestations sociales ont contribué positivement au pouvoir d’achat (650 euros par ménage sur quatre ans). Au final, le pouvoir d’achat par ménage s’est contracté de 1330 euros sur la période 2011-14, et ce malgré une année 2014 marqué par le début du redressement du pouvoir d’achat (+200 euros par ménage) tirée par la hausse des revenus du travail en raison de salaires réels dynamiques, dans un contexte d‘inflation nulle, et d’une légère amélioration de l’emploi total (+ 81 000).

tabPM_MP_1611

Selon les prévisions contenues dans le PLF 2016 présenté par le gouvernement, le pouvoir d’achat par ménage croitrait en 2015 et 2016 de 335 euros en moyenne par an, soit une légère accélération par rapport à 2014. La contribution annuelle des revenus du travail au pouvoir d’achat (240 euros) serait proche de celle observée en 2014  grâce à une masse salariale relativement dynamique. En revanche, les revenus réels du capital connaitraient une forte augmentation, contribuant à accroitre le pouvoir d’achat par ménage de 160 euros par an, soit un rythme légèrement supérieur à la moyenne d’avant crise (140 euros par an sur la période 1999-2007). Toutefois, malgré la baisse votée de l’IR, la pression fiscale continuerait à peser sur le pouvoir d’achat (-115 euros en moyenne par an et par ménage)  en raison de l’augmentation des autres types de prélèvements. Enfin, sous l’impulsion des 50 milliards d’économies prévues sur la période 2015-17, dont 11 proviennent d’économies sur les prestations sociales, ces dernières ne contribueraient à augmenter le pouvoir d’achat par ménage que de 60 euros par an, soit près de trois fois moins que la hausse annuelle de la période précédant la crise (1999-2007), période qui a pourtant été marquée par une baisse  du chômage.

La politique budgétaire, bien que moins restrictive que par le passé, continuera donc à peser sur la dynamique du revenu des ménages. Ces derniers ne récupéreraient en 2016 qu’environ 50 % de la perte de revenu encaissée sur la période 2011-13. Au final, malgré un redressement du revenu sur la période 2015-16, le pouvoir d’achat par ménage resterait en 2016  proche de celui observé dix ans auparavant.

Graph2PM_MP_1611

 


[1] Le pouvoir d’achat par ménage correspond au revenu disponible brut,  en euros constants, divisés par le nombre de ménages.

[2] De façon à équilibrer l’analyse, nous avons séparé 2 périodes avec des durées équivalentes, celle de l’avant crise qui s’étale sur les 9 ans précédant la crise (1999-2007) et celle après la crise qui dure également 9 ans (2008-16)




Nouvelle économie régionale et réforme territoriale

Par Guillaume Allègre, Gérard Cornilleau, Éloi Laurent et Xavier Timbeau

A l’heure des élections régionales et de la création de nouvelles régions et de métropoles, un numéro de la Revue de l’OFCE (n° 143, novembre 2015) aborde les questions déterminantes pour les politiques publiques territoriales.

L’économie régionale met en jeu non pas un mais deux espaces : les régions et le cœur de celles-ci, les métropoles. L’attention à ces deux espaces, dont on peut dire qu’ils ont été les impensés du deuxième « acte » de la décentralisation en France, a largement déterminé les trois lois de la réforme régionale de 2014-2015. La loi MAPTAM du 27 janvier 2014 affirme l’importance des métropoles dès son intitulé : « loi de modernisation de l’action publique territoriale et d’affirmation des métropoles ». Elle crée la métropole du Grand Paris qui regroupera les communes de Paris et de la petite couronne à compter du 1er janvier 2016, la métropole de Lyon et celle d’Aix-Marseille-Provence, ainsi que neuf autres métropoles régionales dites de droit commun (Toulouse, Lille, Bordeaux, Nantes, Nice, Strasbourg, Rennes, Rouen, Grenoble).  La loi  du 16 janvier 2015 relative à la délimitation des régions fait quant à elle passer de 22 à 13 le nombre de régions également à compter du 1er janvier 2016. La loi du 7 août 2015 portant Nouvelle organisation territoriale de la République (NOTRe) parachève l’édifice en confiant de nouvelles compétences à ces nouvelles régions.

Si on voit bien l’influence de l’économie géographique et son souci d’efficience spatiale sur la réforme territoriale, on perçoit nettement moins dans les réformes envisagées les limites de celles-ci et la question pourtant centrale de l’égalité des territoires. C’est donc à l’aune de la double question de l’efficience et de l’équité qu’il convient d’interroger la nouvelle économie régionale française que dessine la réforme territoriale. Quelle relation entre la taille des zones d’emploi et leur performance économique et sociale ? Avec quels indicateurs doit-on mesurer le développement économique, social et environnemental des territoires ? Certaines organisations territoriales sont-elles plus efficaces que d’autres ? Les mesures favorisant l’égalité entre les territoires sont-elles un frein ou un accélérateur du développement économique ? Existe-t-il une taille optimale des régions ?  Peut-on envisager une tension entre régions légales et régions réelles et/ou vécues ?

Quelle relation entre la taille des zones d’emploi et leur performance économique et sociale ? 

Dans sa contribution, Jean-Claude Prager nous rappelle que la concentration spatiale des activités et la croissance économique sont deux phénomènes historiques difficiles à séparer. Il l’attribue à l’importance des effets d’agglomération. Cependant, la taille des villes s’accompagne également de coûts environnementaux et de congestion de plus en plus grands. Il n’y a donc pas de réponse générale à la taille optimale des villes dans la mesure où la qualité de la gouvernance joue un rôle déterminant dans l’équilibre entre les bénéfices et les coûts associés. Pour Laurent Davezies, la taille de la région et la qualité du fonctionnement des marchés sont des facteurs majeurs de croissance. La taille et la densité offrent en effet un meilleur appariement des offres et des demandes sur les différents marchés, notamment sur le marché du travail. L’efficacité des marchés urbains est tout de même conditionnée aux politiques publiques d’urbanisation et notamment à l’efficacité des systèmes de transports. A l’inverse, pour Olivier Bouba-Olga et Michel Grossetti, si les effets d’agglomération sont statistiquement significatifs, l’ampleur de ces effets est faible et les données présentent des limites. Pour les auteurs, il est hasardeux de justifier sur une base aussi fragile une politique de concentration de l’activité économique dans quelques métropoles.

Avec quels indicateurs doit-on mesurer le développement économique, social et environnemental des territoires ? 

Olivier Bouba-Olga et Michel Grossetti critiquent l’utilisation du PIB régional par habitant, qui serait un très mauvais indicateur de performance des régions.  Premièrement, c’est le PIB par emploi et non par habitant qui permet de mesurer la productivité apparente du travail. Deuxièmement, les auteurs soulignent que les différences de productivité apparente sont liées à des effets de composition et d’interdépendance. Par exemple, si l’Île-de-France est plus productive c’est parce qu’elle abrite les  sièges sociaux et une part importante des très hautes rémunérations. Mais toutes les régions ne peuvent pas imiter cette stratégie. Laurent Davezies reconnaît que le concept de PIB territorialisé pose de nombreux problèmes conceptuels et statistiques mal résolus. Pourtant, il considère que celui calculé par l’INSEE est très proche de l’idée raisonnable que l’on peut se faire de la contribution de la région à la création de richesse nationale. Pour l’auteur, la surproductivité de l’Île-de-France n’est pas qu’un artefact statistique. Il souligne ainsi que la part de la région dans les rémunérations versées (32,9%) et dans le PIB marchand (37%) est même supérieure à la part dans le PIB national (30,5%).

Dans un article retraçant les mutations économiques du Nord-Pas-de-Calais, Grégory Marlier, Thomas Dallery et Nathalie Chusseau  proposent de compléter le PIB régional par des indicateurs alternatifs d’inégalités territoriales et de développement humain (IDH2). Ce dernier indicateur qui reprend la santé, l’éducation et le niveau de vie comme dimensions, place le Nord-Pas-de-Calais en dernière position des régions françaises. La déclinaison communale de l’indicateur de développement humain (IDH4) met en évidence des contrastes importants à l’échelle infrarégionale.

Dans une contribution sur les stratégies de développement régional dans l’OCDE, Joaquim Oliveira Martins et Karen Maguire  présentent un ensemble d’indicateurs proposés par l’OCDE en 2014 pour mesurer le bien-être régional. Ces indicateurs capturent neuf dimensions du bien-être : revenu, emploi, logement, santé, éducation et compétences, qualité de l’environnement, sécurité personnelle, engagement civique et accès aux services.

Certaines organisations territoriales sont-elles plus efficaces que d’autres ?

Selon Joaquim Oliveira Martins et Karen Maguire, les études récentes de l’OCDE ont montré qu’une fragmentation des gouvernements municipaux peut avoir des effets négatifs sur la productivité des régions, notamment dans les zones métropolitaines. Les auteurs soulignent que l’on compte environ 1 400 collectivités locales dans l’agglomération de Paris. Or, un doublement des gouvernements locaux peut réduire de presque autant l’avantage en termes d’économies d’agglomération du doublement de la taille d’une ville. Laurent Davezies critique lui aussi la fragmentation communale et appelle à plus de politiques urbaines intégrées. Il souligne que la dernière loi sur l’organisation territoriale de la République va dans ce sens.

Pour Jean-Claude Prager, la qualité de la gouvernance des régions et des métropoles est importante pour leur prospérité mais elle ne peut cependant pas se réduire à des seuls critères formels. Elle dépend de la personnalité des dirigeants et de leurs capacités à mettre en œuvre des stratégies de différenciation économique des territoires.

Jacques Lévy critique pour sa part le faible poids des budgets régionaux (en moyenne, un peu plus de 1% du PIB), qui ne donne pas aux régions les moyens de gérer leur développement.

Les mesures favorisant l’égalité entre les territoires sont-elles un frein ou un accélérateur du développement économique ? 

Selon Jean-Claude Prager, le bilan des politiques de rééquilibrage régional est controversé, notamment parce qu’elles ne font pas la différence entre les individus concernés et les territoires administratifs. Selon l’auteur, le soutien financier aux régions moins riches peut avoir pour effet principal de faire bénéficier d’effets d’aubaine les personnes les mieux dotées de ces régions, celles dont la capacité de captation des subventions publiques est forte, sans nécessairement profiter principalement aux plus démunis de leur région. L’auteur conclut que l’efficacité et l’égalité des chances sont mieux assurées avec le développement du capital humain.

Cette stratégie peut être rendue difficile car, comme le soulignent Arnaud Degorre, Pierre Girard et Roger Rabier, les espaces métropolitains ont tendance à capter les ressources rares et notamment les travailleurs qualifiés qui sont également les plus mobiles. Au jeu des migrations résidentielles, la vaste majorité des territoires enregistrent des départs des plus qualifiés, au profit en premier lieu de l’agglomération parisienne, mais aussi des métropoles en région, dont Toulouse, Grenoble, Lyon et, dans une moindre mesure, Montpellier et Lille.

Existe-t-il une taille optimale des régions ? Peut-on envisager une tension entre régions légales et régions réelles et/ou vécues ? 

Jacques Lévy revient sur les quatre erreurs de la réforme régionale. C’est une action top-down technocratique qui ignore les habitants. Elle découpe le grand (la région) avant le petit (le local). Elle définit des frontières avant de définir des compétences. Enfin, elle évite de supprimer le Conseil de département. L’auteur avance une proposition alternative de carte régionale rapprochant les régions vécues des régions administratives. Il privilégie une démarche bottom-up et définit en premier lieu 771 pays de taille très variable (de 3 000 à 12 millions d’habitants) puis propose une nouvelle carte des régions en analysant les interconnexions entre pays. Les régions n’ont pas toutes la même taille car elles sont le produit d’équilibres différenciés entre ressources objectives (démographie, formation, système productif, niveau d’urbanisation) et ressources subjectives (identification, mémoire, projet). C’est ainsi que pour l’auteur la Corse (300 000 habitants) et l’ensemble du Bassin parisien (22,2 millions d’habitants) sont tous deux légitimes comme région.