France : pourquoi tant de zèle ?

par Marion Cochard et Danielle Schweisguth

Le 29 mai dernier, la Commission européenne adressait aux Etats membres de l’Union ses nouvelles recommandations de politique économique. Dans le cadre de celles-ci, la Commission accorde deux années supplémentaires à la France pour atteindre la cible de 3% de déficit public. L’objectif de déficit de 3 % est désormais fixé à 2015 et la Commission européenne préconise pour y arriver des impulsions budgétaires de -1,3 point de PIB en 2013 et -0,8 en 2014 (voir la note « Austérité en Europe: changement de cap? »). Cela allègerait l’effort structurel à fournir, puisque le respect des engagements antérieurs aurait nécessité des impulsions de -2,1 et -1,3 points de PIB pour 2013 et 2014 respectivement.

Pour autant, le gouvernement français a choisi de ne pas relâcher sa politique d’austérité, en maintenant l’ensemble des mesures annoncées lors du projet de loi de finances de l’automne 2012. Cette politique reste restrictive et va bien au-delà des préconisations de la Commission : -1,8 point de PIB d’impulsion budgétaire, dont 1,4 point de hausse des taux de prélèvement obligatoire sur la seule année 2013. Pire, les grandes orientations pour le budget 2014 présentées par le gouvernement au Parlement le 2 juillet 2013 impliquent un effort structurel de 20 milliards d’euros pour 2014, soit 1 point de PIB, là où la Commission n’en exigeait que 0,8. Le gouvernement durcit par ailleurs l’impulsion budgétaire de 0,6 point de PIB qu’il avait lui-même affiché dans le programme pluriannuel de la Loi de finances pour 2013.

Le tableau ci-dessous permet de prendre la mesure de l’effort engagé et de ses conséquences sur l’économie française. On y lit l’évolution de la croissance, du taux de chômage et du solde public en 2013 et 2014, selon trois stratégies budgétaires :

  1. celle retenant l’assouplissement préconisé par la Commission en mai 2013 ;
  2. celle reposant sur le budget voté par le gouvernement pour 2013 et, a priori, 2014 ;
  3. celle reposant sur un scénario alternatif qui prend acte de l’impulsion de -1.8 point de PIB engagée pour l’année 2013, et calcule l’impulsion budgétaire suffisante en 2014 pour respecter l’objectif de déficit public de -3,6 % de la Commission européenne.

MC_DS_Tab_Blog25-07

Selon nos estimations réalisées à partir du modèle IAGS[1], le déficit public serait réduit à 3,1 % du PIB en 2014 dans le scénario (2), là où la Commission n’exigeait que 3,6 %. Conséquence de cet excès de zèle, la croissance cumulée pour 2013 et 2014 si le budget voté est appliqué serait de 0,7 point inférieure à celle des deux autres scenarii (0,8 point contre 1,5 point). Le corollaire est une hausse du chômage en 2013 et en 2014 : le taux de chômage, de l’ordre de 9,9 % en 2012, passe ainsi à 11,1 % en 2014, soit une hausse de plus de 350 000 chômeurs sur la période. A l’inverse, le scénario assoupli de la Commission européenne permettrait une quasi-stabilisation du chômage dès 2013, tandis que le scénario alternatif permet une inversion de la courbe du chômage en 2014.

Alors que l’échec de la politique d’austérité des dernières années semble infléchir progressivement la position de la Commission européenne, le gouvernement français persiste dans cette voie. A rebours de l’urgence sociale à laquelle le pays fait face et du changement de paradigme qui semble gagner la plupart des institutions internationales, le gouvernement français choisit d’en rester au fétichisme des 3 %.


[1] IAGS est l’acronyme de “Independent Annual Growth Survey”. Ce modèle propose une modélisation simplifiée des onze principales économies de la zone euro (Autriche, Belgique, Finlande, France, Allemagne, Grèce, Irlande, Italie, Pays-Bas, Portugal et Espagne). Voir plus de détails, voir le document de travail Model for euro area medium term projections.




Logement social : peut mieux faire

Par Sabine Le Bayon

Les organismes HLM et l’Etat ont signé le 8 juillet dernier un pacte pour assurer la mise en œuvre des objectifs de construction de logements sociaux. Lors de la campagne électorale de 2012, François Hollande avait fait de la question du logement l’une de ses priorités et visait la construction de 500 000 logements par an, dont 150 000 logements sociaux. Depuis son élection, plusieurs mesures ont été prises dans ce sens. Concernant le logement social, il s’agit essentiellement de la mobilisation du foncier public, de la hausse du plafond du livret A, du renforcement de la loi SRU de 2000, de la fin du prélèvement sur le potentiel financier des bailleurs sociaux et de l’accord avec Action logement (ex-1% logement) pour augmenter sa participation à l’effort de construction de logements sociaux. Dans le cadre du pacte du 8 juillet, l’Etat a aussi rappelé la baisse prévue du taux de TVA sur la construction sociale de 7 à 5 % dès 2014 tandis que les organismes HLM se sont engagés à construire 120 000 logements sociaux par an[1] d’ici 2015 et à mutualiser une partie de leurs fonds (280 millions d’euros) pour soutenir les organismes les plus sollicités. L’objectif de 150 000 logements sociaux financés ne sera donc pas atteint dès 2013[2], comme l’avait déjà reconnu en mai dernier la Ministre de l’Egalité des territoires et du Logement, Cécile Duflot. En effet, dans un contexte budgétaire tendu, l’objectif du gouvernement relève de la quadrature du cercle. Certes les mesures prises par le gouvernement ne sont pas neutres pour les finances publiques : la réduction du taux de TVA représente un manque à gagner et la hausse du nombre de prêts accordés par la Caisse des dépôts va entraîner une augmentation des avantages de taux, à la charge de l’Etat. Il n’en reste pas moins que les aides directes de l’Etat ne sont pas à la hauteur de l’enjeu et qu’il apparaît paradoxal de renforcer les contraintes de construction de logements sociaux pour les communes sans y consacrer les ressources nécessaires et en laissant aux autres acteurs du secteur le soin de boucler les opérations de financement.

Un objectif ambitieux au regard de la construction récente

L’objectif gouvernemental paraît bien ambitieux au regard de la construction sociale de ces dernières années (graphique). En 2012, alors que 120 000 logements sociaux devaient être financés, seuls 102 000 l’ont été effectivement (hors logements issus de la rénovation urbaine dits logements « ANRU »[3], soit le champ couvert par l’objectif gouvernemental). Pour mémoire, un pic avait été atteint en 2010 avec le financement de 146 000 logements sociaux (131 500 hors ANRU), dans le cadre du plan de relance, soit déjà un niveau important au regard de la moyenne des années 2000 (87 500).

SLB_Graphe_Post

Des contraintes réglementaires accrues

Dans le cadre de la loi du 18 janvier 2013 relative à la mobilisation du foncier public en faveur du logement et au renforcement des obligations de production de logement social, la pression sur les collectivités locales est renforcée, avec la révision de l’article 55 de la loi Solidarité et renouvellement urbain (SRU). Alors que jusqu’à présent les objectifs en termes de logements sociaux devaient être atteints en 2020, le gouvernement a repoussé cette échéance à 2025 en même temps qu’il augmentait les objectifs. Dorénavant :

  • – le taux de logements sociaux à atteindre passe de 20 à 25 %[4]. Seules les communes en décroissance démographique ou pour lesquelles ne se justifie pas d’effort de construction supplémentaire conserveront un objectif de 20 %;
  • – l’obligation des 20 % est élargie à un certain nombre de communes, hors périmètre SRU jusque-là, et qui sont en forte progression démographique.

Selon les évaluations gouvernementales, le nombre de communes ne respectant pas les taux de logements sociaux à atteindre passerait de 980 à 1086 avec l’entrée en vigueur de la loi.

La loi prévoit aussi de renforcer le prélèvement versé par les communes ne respectant pas le taux de logements sociaux prévu[5]. Enfin, les intercommunalités ou agglomérations ne pourront plus reverser une partie des pénalités aux communes prélevées, ce qui permettait précédemment de contourner la loi. Désormais, les prélèvements seront versés aux agglomérations bénéficiant de la délégation des aides à la pierre ou à un établissement public foncier, pour l’achat de foncier en vue de la réalisation de logements sociaux. Le gouvernement prévoit que le prélèvement qui s’élevait à 24 millions d’euros en 2012 pourrait atteindre 63 millions en 2014, du fait de la majoration prévue. Mais son niveau resterait relativement faible, du fait des diverses exemptions prévues et de la possibilité de déduire les montants dépensés pour la réalisation de logement sociaux[6].

Le faible montant prélevé est aussi dû au fait que de plus en plus de communes respectent leurs engagements triennaux (63 % entre 2008 et 2010, contre 49 % entre 2002 et 2004). Au final, durant la dernière période triennale (2008-2010), 43 000 logements sociaux par an ont été financés dans les communes soumises à la loi SRU, soit environ 38 % du total des logements sociaux financés en France. Pour répondre aux objectifs de la nouvelle loi, l’effort de construction demandé aux communes à court terme va augmenter. En effet, sur la période 2014-2016, il leur faudra réaliser 25 % des logements sociaux manquants pour atteindre 25 % de logements sociaux. Le gouvernement estime que la construction de logements sociaux dans ces communes devrait atteindre 187 000 sur la période 2014-2016, soit 62 000 par an. La loi va donc nettement accroître la pression sur les communes à partir de 2014.

Une action sur les coûts de production

Face à l’explosion des coûts de production (+85 % entre 2000 et 2011)[7], plusieurs mesures ont été prises. Parmi celles-ci, figure l’autre grand volet de la loi du 18 janvier dernier sur la cession de terrains publics aux collectivités territoriales et EPCI[8]. La décote autorisée peut désormais aller jusqu’à 100 % de la valeur vénale dans les zones les plus tendues si les terrains sont affectés à la construction de logements locatifs très sociaux (contre seulement 35 % précédemment). Le taux de décote est d’autant plus important que le territoire est « tendu » et que le programme intègre des logements très sociaux. Le coût pour l’Etat pourrait atteindre au maximum 370 millions d’euros sur 5 ans selon les évaluations du gouvernement. Le foncier représentant environ 20 % du prix de revient d’un logement social, l’impact pour les organismes HLM sera non négligeable, même en tenant compte du coût de viabilisation de ces terrains, mais il ne sera pas visible avant plusieurs trimestres voire plusieurs années (Caisse des Dépôts, 2012). Selon une première évaluation du Ministère, environ 900 sites, couvrant 2000 hectares, seraient disponibles, ce qui permettrait la construction de 110 000 logements d’ici 5 ans (dont la moitié pourrait être du logement social), soit près de 7 % de l’objectif du gouvernement sur 5 ans en matière de logements sociaux. Cependant, plusieurs réserves doivent être apportées aux ambitions gouvernementales. D’une part, le programme précédent (2008-2012) n’a vu la réalisation que de 60 % des objectifs fixés. D’autre part, les négociations de cession prennent du temps. Depuis l’entrée en vigueur de la loi, peu de cessions ont ainsi été réalisées.

Par ailleurs, pour limiter la hausse des coûts, le taux de TVA pour la construction et la réhabilitation de logements sociaux, qui devait augmenter pour atteindre 10 % en 2014 (après 5,5 % en 2011), sera finalement réduit à 5 % à compter du 1er janvier 2014. Le gain pour les bailleurs sociaux est estimé à 800 millions par rapport à un taux à 10 % (Caisse des Dépôts, 2013). Il devrait nettement alléger la facture pour les organismes HLM, puisque la baisse s’appliquera pour les logements livrés à partir de 2014, c’est-à-dire ayant reçu des agréments à partir de 2011 ou 2012, étant donné les délais de construction.

Outre l’accent mis sur les coûts de production, le financement des logements sociaux serait facilité grâce à l’augmentation du plafond du livret A et à une mobilisation plus importante des subventions des employeurs.

Un accent mis sur le livret A et les subventions patronales

Une des spécificités du modèle français de financement du logement social repose sur le non recours aux marchés financiers. Les organismes HLM ne se financent pas sur les marchés obligataires mais contractent des prêts auprès de la Caisse des dépôts et consignation (CDC) sur des horizons de long terme (30 à 50 ans) et à des taux préférentiels (Hoorens, 2013). Les prêts sont assis sur une partie de l’épargne déposée par les ménages sur leurs livrets A. In fine environ 52 % des sommes déposées sur les livrets A sont effectivement disponibles pour financer des HLM[9] (Levasseur, 2011). Pour gonfler ces liquidités et donc faciliter le financement du logement social, le plafond du livret A a été relevé en octobre 2012 puis en janvier 2013, pour atteindre 22 950€, soit 50 % de plus que début 2012. Ceci s’est traduit par une collecte record (8,2 milliards en janvier 2013, contre 2,3 milliards en moyenne chaque mois en 2012) et la baisse récente du taux rémunérateur (de 2,25 % à 1,75% en février 2013) n’a pas eu pour le moment de répercussions négatives. Pour le moment, la liquidité semble plus que suffisante pour couvrir les besoins de financement.

Enfin, il faut rappeler qu’en plus des 73 % de prêts de la Caisse des dépôts en 2012, le reste du financement du logement social provient de subventions de l’Etat (3 %), des collectivités locales (8 %) et des employeurs[10] (3 %), ainsi que des fonds propres des bailleurs sociaux (12 %)(tableau). Cette répartition reflète un désengagement progressif de l’Etat durant les années 2000 en termes d’aide par unité produite. La subvention (directe) du gouvernement par unité a ainsi baissé de 54 % entre 2000 et 2011 pour un logement social moyen, pour s’établir à 2500 euros en 2011. Cependant, le gouvernement en a financé davantage, l’enveloppe globale ayant été multipliée par trois entre 2000 et 2009 avant de baisser ces dernières années. Simultanément, on a observé une montée en puissance des subventions des collectivités locales (9 700 euros en 2011, soit une hausse de 170 % par rapport à 2000) tandis que les bailleurs ont dû accroître leur financement sur fonds propres (+375 %, à 19 000 euros). Il faut tout de même souligner qu’en complément de ces subventions directes, les organismes HLM bénéficient d’avantages de taux sur les prêts et d’avantages fiscaux (TVA réduite et exonération de taxe foncière pendant 25 ans)[11].

Malgré les mesures gouvernementales, l’objectif de 150 000 logements sociaux financés en 2013 paraît difficile à atteindre. Le nombre de financements devrait être proche de celui de 2012, c’est-à-dire légèrement supérieur à 100 000. Plusieurs raisons expliquent pourquoi l’objectif est hors de portée dès 2013. D’une part, la difficulté de mobiliser rapidement du foncier, notamment en zones tendues, allonge les délais pour monter des opérations de logement social. Ensuite, pour boucler le financement d’un logement social, ce sont tous les acteurs qui doivent être mobilisés. Or, l’accord entre l’Etat et Action logement est intervenu tardivement et le déblocage des aides d’Action logement nécessite du temps. De plus, les collectivités locales, qui fournissent une part croissante des subventions, sont aussi soumises à un contexte budgétaire tendu qui limite leurs moyens d’action.

Pour financer les 150 000 logements sociaux souhaités par le gouvernement, ce sont en effet environ 19,2 milliards d’euros qui doivent être mobilisés, soit 6 milliards de plus qu’en 2012 (tableau), en se basant sur le prix moyen d’un logement social en 2012. Ce dernier était en effet de 128 000 euros, soit moins que le coût d’un logement social « ordinaire »  (compris entre 130 000 et 140 000 euros), du fait de la prise en compte dans nos calculs du prix d’un logement en foyer ou en résidence sociale et étudiante. Les logements « ordinaires » ne représentent en effet qu’un peu plus de 70% du total des logements sociaux financés. En conservant la répartition du financement de 2012 entre les différents acteurs, cela signifie 4,4 milliards de prêts supplémentaires de la CDC. Il faut donc que la CDC prête au total 14 milliards, ce qui paraît possible au regard des montants collectés sur les livrets A en 2012 et sur la première moitié de l’année 2013 et des fonds excédentaires dont la CDC dispose. Mais au-delà de ces prêts, il faut aussi que les autres financements soient suffisants. Or, il reste 1,6 milliard à répartir entre les autres financeurs. La contribution de l’Etat devrait peu varier (500 millions prévus dans la loi de finances pour 2013, contre 430 millions dépensés en 2012), avec une poursuite de la baisse de la subvention par logement. En revanche, Action logement sera davantage mise à contribution, avec une aide effective de 950 millions d’euros (sous forme de prêts et de subventions)[12], soit une hausse de 500 millions par rapport à 2012. Cet effort accru d’Action logement –alors que sa situation financière est fragile- a d’ailleurs été critiqué par la Cour des comptes dans son dernier rapport annuel, mais elle permettra de limiter l’effort supplémentaire pour les collectivités locales et les bailleurs dans un contexte là-aussi déjà tendu. Un supplément de 600 millions de fonds propres des bailleurs et de 400 millions de subventions des collectivités locales sera toutefois nécessaire.

Les bailleurs pourront compter sur quatre mesures d’économies importantes. D’abord, on l’a vu, la baisse de la TVA leur permet d’économiser environ 300 millions d’euros. Ensuite, le gouvernement met fin au prélèvement de 175 millions d’euros sur leur potentiel financier qui avait été instauré en 2011. Ce dernier visait à financer le PNRU (Programme national de rénovation urbaine) et à pénaliser les organismes n’investissant pas assez. De plus, la baisse du taux du livret A de 0,5 point en février 2013 et 0,5 point en août prochain (Madec, 2013) va permettre aux bailleurs sociaux des économies importantes sur les intérêts versés à la Caisse des dépôts. L’USH estimait ainsi qu’une baisse de 0,2 point du taux du livret A permettait d’économiser l’équivalent de 400 millions d’euros de subventions. Enfin, le foncier libéré par l’Etat devrait à partir de 2014 ou 2015 diminuer les dépenses des bailleurs de l’ordre de 70 millions d’euros par an. Par ailleurs, un mécanisme de mutualisation a été acté dans le cadre du pacte du 8 juillet dernier : il prévoit des aides pour les années 2013 à 2015 aux organismes produisant des logements sociaux. Pour 2013, le montant sera de 3 300 euros en zone tendue et 1 300 euros dans les autres zones. Une enveloppe de 280 millions d’euros est prévue. Cette aide sera financée via une contribution des différents organismes en fonction notamment des loyers perçus et du patrimoine locatif. Le but est de mieux utiliser la trésorerie disponible au niveau national en aidant les organismes les plus sollicités. Toutes ces mesures sont positives pour les bailleurs et augmenteront leurs capacités de production. Il n’en reste pas moins que l’effort demandé aux collectivités locales et à Action logement est lourd et que les objectifs ne seront pas atteint dès cette année.

SLB_Tab_Post

L’accent mis sur le logement social par le nouveau gouvernement s’inscrit dans la tendance initiée au milieu des années 2000 avec le Plan de cohésion sociale de 2005. La conjonction d’une hausse de la production de logements sociaux depuis le milieu des années 2000 et de la baisse de la construction de logements privés a ainsi entrainé une augmentation de la part des logements sociaux dans la construction (comprise entre 25 % et 30 % depuis 2009). Ce mouvement devrait se poursuivre, même si les objectifs ne sont pas atteints, du fait du ralentissement important du rythme de construction par les agents privés. Entre mai 2012 et mai 2013, ce sont en effet seulement 300 000 logements neufs (privés et sociaux) qui ont été mis en chantier. Cependant, les ambitions gouvernementales sont élevées par rapport aux moyens financiers. Certes, l’Etat va contribuer à l’effort via les aides indirectes (aides de taux et aides fiscales), la fin du prélèvement sur les bailleurs et la mobilisation du foncier, mais peu via les aides à la pierre alors que François Hollande s’était engagé à les doubler pendant la campagne électorale de 2012. De plus, la situation financière d’Action Logement est fragile et cette dernière ne pourra pas supporter sur le long terme un tel effort. Surtout, la réalisation des objectifs repose largement sur les collectivités locales, qui sont contraintes via la révision de la loi SRU à accroître encore leur participation sans moyens supplémentaires fournis par l’Etat. Les mesures prises devraient permettre d’ici la fin du quinquennat d’augmenter nettement le nombre de logements sociaux, mais l’objectif de 150 000 logements sociaux par an semble difficile à atteindre. De plus, le gouvernement ne pourra faire l’économie de revoir à moyen terme le mode de financement du logement social, soumis à une forte hausse du coût de production et à une stagnation du pouvoir d’achat de ces locataires.


[1] Pour mémoire, les organismes HLM représentent 80% du parc social, le reste étant aux mains de sociétés d’économie mixte (SEM). Les 30 000 logements restants par an doivent être construits par ces dernières.

[2] Il faut rappeler que plusieurs années sont ensuite nécessaires pour que ces logements financés soient achevés et donc disponibles pour des locataires (un peu plus de 3 ans en moyenne).

[3]ANRU : Agence nationale pour la rénovation urbaine. Nous parlons ici de l’offre brute de logements sociaux, puisque dans le cadre du programme ANRU, la construction d’un logement donne souvent lieu simultanément à la destruction d’un autre.

[4] Cette obligation concerne les communes de plus de 3500 habitants (1500 en Ile de France) appartenant à une agglomération de plus de 50 000 habitants (avec au moins une commune de plus de 15 000 habitants).

[5] Jusqu’à maintenant, pour les communes ne respectant pas les objectifs de constructions sociales fixés dans le cadre des plans triennaux de rattrapage, le préfet pouvait engager une procédure de constat de carence, lui permettant par la suite de majorer le prélèvement à hauteur du taux de non réalisation des objectifs. Ce prélèvement majoré pouvait ensuite être doublé jusqu’à une certaine limite. Dorénavant, le prélèvement majoré pourra être quintuplé et la limite augmente pour les communes les plus riches. Les prélèvements sont calculés via la formule suivante : nombre de logements sociaux manquants * 20% du potentiel fiscal par habitant.

[6] En 2012, sur les 1004 communes ayant moins de 20% de logements sociaux, étant donné les autres motifs d’exemption (communes en décroissance démographique ou bénéficiant de la dotation de solidarité urbaine et de cohésion sociale ou dont le prélèvement est inférieur à 3811,23 euros), seules 354 ont effectivement versé une pénalité et 190 ont été reconnues en état de carence (c’est-à-dire ne respectant pas leurs objectifs triennaux de production de logements sociaux). En plus de la majoration du prélèvement, l’état de carence conduit à un transfert du droit de préemption vers le préfet. Dorénavant, dans les communes en état de carence, tous les projets de construction de plus de 12 logements ou de plus de 800 m2 de surface devront comporter au moins 30% de logements sociaux.

[7] Cette augmentation est due à la hausse des prix fonciers et à celle du coût de production, incluant des normes plus contraignantes en termes de consommation énergétique ou d’accessibilité aux handicapés.

[8] Pour plus de détails, voir le décret n° 2013-315 du 15 avril 2013.

[9] En effet, 65 % des dépôts des livrets A doivent normalement être centralisés à la Caisse des dépôts. Comme les prêts pour le logement social et la politique de la ville doivent être couverts à 125 % par les dépôts centralisés du livret A, du LDD et du LEP, les prêts au secteur social ne peuvent excéder un peu plus de la moitié des dépôts des livrets A.

[10] Il s’agit de la participation des employeurs à l’effort de construction (PEEC), instaurée en 1953 et désignée sous le terme de “1% logement”, avant d’être renommée en 2009 “Action logement”.

[11] D’après les comptes du logement, l’ensemble des avantages pour le logement social (aides à la pierre, avantages de taux, avantages fiscaux) a ainsi représenté près de 8 milliards d’euros en 2011 pour les finances publiques (Etat et collectivités locales).

[12] Action logement va pour cela emprunter 1 milliard d’euros par an à la Caisse des dépôts pendant trois ans (gagé sur son patrimoine).




Austérité en Europe: changement de cap ?

par Marion Cochard et Danielle Schweisguth

Le 29 mai dernier, la Commission européenne adressait aux Etats membres de l’Union européenne ses nouvelles recommandations de politique économique. Dans ces recommandations, la Commission préconise un report des objectifs de déficit public pour quatre pays de la zone euro (Espagne, France, Pays-Bas, Portugal), leur laissant davantage de temps pour atteindre la cible de 3 % de déficit public. L’Italie n’est plus en procédure de déficit excessif. Seule la Belgique est sommée d’intensifier ses efforts. Cette nouvelle feuille de route peut-elle être interprétée comme un changement de cap annonçant un assouplissement des politiques d’austérité en Europe ? Peut-on en attendre un retour de la croissance sur le vieux continent ?

Ces questions ne sont pas triviales. La Note de l’OFCE (n°29, 18 juillet 2013) tente d’y répondre en simulant trois scénarii de politique budgétaire à l’aide du modèle iAGS. Il ressort de cette étude que le report des objectifs de déficit public pour quatre pays de la zone euro ne traduit pas un véritable changement de cap de la politique budgétaire en Europe. Certes, le scénario du pire, dans lequel l’Espagne et le Portugal se seraient vu imposer les mêmes recettes que la Grèce, a été évité. La Commission accepte implicitement de laisser jouer les stabilisateurs automatiques quand la conjoncture se dégrade. Cependant, pour de nombreux pays, les préconisations en termes d’efforts budgétaires vont toujours au-delà de ce qui est imposé par les traités (0,5 point de PIB de réduction annuelle du déficit structurel), avec pour corollaire une hausse de 0,3 point du taux de chômage en zone euro entre 2012 et 2017.

Pourtant, une troisième voie nous semble possible. Il s’agit d’adopter dès 2014 une position de « sérieux budgétaire » qui ne remettrait pas en cause la soutenabilité de la dette publique. Cette stratégie consiste à maintenir constant le taux de prélèvements obligatoires et à laisser les dépenses publiques évoluer au même rythme que la croissance potentielle. Cela revient à une impulsion budgétaire neutre entre 2014 et 2017. Dans ce scénario, le solde public de la zone euro s’améliorerait de 2,4 points de PIB entre 2012 et 2017 et la trajectoire de dette publique s’inverserait dès 2014. A l’horizon 2030, le solde public serait excédentaire (+0,7 %) et la dette approcherait les 60 % du PIB. Surtout, ce scénario permettrait de faire baisser significativement le taux de chômage à l’horizon 2017. Les pays européens devraient peut-être s’inspirer de la sagesse de Jean de La Fontaine : « Rien ne sert de courir, il faut partir à point »…




Les conteurs d’EDF

par Evens Saliesa

L’enjeu des politiques de réduction des émissions de gaz à effet de serre n’est pas seulement environnemental. Il est aussi de stimuler l’innovation, facteur de croissance économique. La politique d’amélioration de l’efficacité énergétique [1] nécessite de lourds investissements visant à transformer le réseau électrique en un réseau plus intelligent, un smart grid.

A ce titre, les Etats membres ont jusqu’en 2020 pour remplacer les compteurs d’au moins 80 % des clients des secteurs résidentiel et tertiaire par des compteurs plus « intelligents ». En France métropolitaine, ces deux secteurs représentent 99 % des sites raccordés au réseau basse tension (< 36kVA), soit environ 43 % de la consommation d’électricité, et près de 25 % des émissions de gaz à effet de serre (sans compter celles émises lors de la production de l’énergie électrique qui alimente ces sites).

Ces nouveaux compteurs possèdent des fonctionnalités qui, comme l’ont montré des recherches, permettent de réduire la consommation électrique. La télérelève des données de consommation toutes les 10 minutes, et leur transmission en temps réel sur un afficheur déporté (l’écran d’un ordinateur, etc.), matérialisent sans délai les efforts d’économie d’électricité ; ce qui était impossible auparavant avec deux relevés par an. La télérelève à haute fréquence permet aussi un élargissement du menu de contrats des fournisseurs à des tarifs mieux adaptés au profil de consommation des clients. Le « pilote » du réseau de transmission peut optimiser plus efficacement l’équilibre entre la demande et une offre plus fragmentée à cause du nombre croissant de petits producteurs indépendants. Pour les distributeurs [2], la télérelève résout le problème d’accessibilité aux compteurs [3].

Ces fonctionnalités sont supposées créer les conditions d’émergence d’un marché de la maîtrise de la demande d’électricité (MDE) complémentaire de celui de la fourniture. Ce marché offre aux fournisseurs non-historiques la possibilité de se différencier un peu plus, en proposant des services adaptés au besoin de MDE de la clientèle [4]. Le gain en termes d’innovation pourrait être significatif si des sociétés tierces, spécialistes des technologies de l’information et de la communication, développent elles aussi les applications logicielles permises par l’usage du compteur. Pourtant, en France, la politique de déploiement des compteurs évolués ne semble pas aller dans le sens d’une plus grande concurrence. L’innovation pourrait s’arrêter au compteur en raison d’une délibération de la Commission de régulation de l’énergie (CRE) stipulant que :

« Les fonctionnalités des systèmes de comptage évolués doivent relever strictement des missions des [distributeurs] d’électricité, […] Ainsi, les fonctionnalités supplémentaires demandées par certains acteurs [essentiellement les fournisseurs] qui relèvent du domaine concurrentiel (notamment, l’afficheur déporté) ne sont pas retenues. »

A la lecture de ce paragraphe, nous comprenons que les fournisseurs ne sont pas prêts à supporter le coût de développement de ces fonctionnalités. Or, d’après l’Article 4 de cet arrêté, qui précise la liste des fonctionnalités réservées aux distributeurs, aucune ne semble avoir été laissée en exclusivité au secteur concurrentiel. En effet, les ménages équipés d’un ordinateur pourront consulter leurs données de consommation sans passer par leur fournisseur ou une société tierce.

Il est bon de s’interroger sur les bénéfices et les coûts d’une telle approche qui, a priori, ressemble à une monopolisation du marché de la MDE par les distributeurs.

Cette approche permettra d’atteindre rapidement l’objectif des 80 % puisque la CRE a opté pour un service public de la MDE : les distributeurs, qui ont des obligations de service public, déploieront les compteurs communicants. A lui seul, le compteur « Linky » du distributeur d’électricité dominant, ERDF, sera déployé sur 35 millions de sites basse tension, couvrant ainsi 95 % du réseau national de distribution[5]. Ainsi, le risque de sous-investissement dans les capacités d’effacement que les fournisseurs d’électricité devront bientôt détenir est faible. En effet, ces derniers n’ayant pas à supporter les coûts de fabrication et déploiement des compteurs, ils pourront rapidement investir dans le développement de ces capacités. De plus, la péréquation des coûts de sous-traitance pour la fabrication des compteurs et de déploiement sur tout le réseau français de distribution permet des économies d’échelle considérables. Enfin, le faible taux de pénétration des compteurs dans les pays qui ont opté pour une approche décentralisée (le compteur et les services sont alors en partie à la charge des ménages intéressés), plaide en faveur du modèle français. Ce modèle est en effet plus pragmatique puisqu’il supprime l’essentiel des barrières à l’adoption.

Cependant, le niveau de concentration des activités de distribution et de fourniture de l’électricité aux ménages pose question : ERDF est affilié à EDF, en quasi-monopole dans la fourniture aux ménages. En termes d’innovation dans les services de MDE, l’intérêt pour EDF d’aller au-delà du projet Linky de sa filiale paraît faible. D’abord, à cause des coûts déjà engagés par le groupe (au moins cinq milliards). Ensuite parce que la qualité de la solution de base d’information sur les consommations par défaut dans Linky, sera suffisante pour parvenir à créer des coûts de migration vers les services de MDE offerts par la concurrence [6]. Certes, les fournisseurs alternatifs vont pouvoir introduire des tarifs innovants. Mais EDF aussi. Une manière de surmonter cet obstacle serait de mettre en place une plateforme Linky, pour que des applications des sociétés tierces puissent dialoguer avec son système d’exploitation. Moyennant l’accord du ménage et, éventuellement, une charge d’accès aux données, l’activité serait certes régulée, mais l’entrée serait libre. Cela stimulerait l’innovation dans les services de MDE, mais n’augmenterait pas la concurrence puisque ces sociétés ne seront pas fournisseurs d’électricité. Le consommateur a-t-il beaucoup à perdre ? Evidemment, cela dépend du montant de la réduction de sa facture. Etant donnée la hausse probable de 30% des prix de l’électricité d’ici à 2017 (inflation incluse), nous craignons que les efforts des ménages en vue d’optimiser leur consommation ne seront pas récompensés. Le gain net à moyen terme pourrait être négatif.

Finalement, nous pouvons nous demander si, avec Linky, le groupe EDF n’essaie pas de maintenir sa position d’entreprise dominante dans la fourniture d’électricité, affaiblie depuis l’ouverture à la concurrence. Avec un service de MDE installé par défaut sur 95% des sites basse tension, Linky va devenir l’élément d’infrastructure du réseau national que devront emprunter tous les offreurs de service de MDE. Du point de vue des règles de la concurrence, il faut alors se poser la question de savoir si ERDF et ses partenaires ont bien communiqué l’information sur le système d’exploitation de Linky, sans favoritisme pour le groupe EDF et ses filiales (Edelia, Netseenergy). Les conteurs aimeraient nous narrer une belle histoire d’encouragement à l’innovation dans l’énergie et l’économie numérique pour réussir la transition écologique. Sachant que l’actuel PDG de l’entreprise en charge de l’architecture du système d’information de Linky, Atos, était ministre de l’économie et des finances juste avant le lancement du projet Linky en 2007, nous pouvons en douter…


[1] « Amélioration de l’efficacité énergétique » et « économie d’électricité » sont utilisées indifféremment dans ce billet. Voir l’article 2 de la directive 2012/27/UE du Parlement et du Conseil européens pour des définitions précises.

[2] Les distributeurs sont les gestionnaires des réseaux de lignes moyenne et basse tension. Le plus répandu est ERDF. Réseaux et compteurs font partie des ouvrages concédés, propriété des collectivités locales délégantes.

[3] Cependant, cela impliquera, par exemple pour ERDF, la suppression de 5 000 postes (à rapprocher des 5900 départs à la retraite … ; cf. Sénat, 2012, Rapport n° 667, Tome II, p. 294).

[4] En conformité avec la loi NOME de 2010, les fournisseurs et autres opérateurs devront être capables de baisser ponctuellement la consommation d’électricité de certains clients (couper momentanément l’alimentation d’un chauffage électrique, etc.), ce qui est appelé « effacement de consommation ».

[5] Dans les territoires où ERDF n’est pas concessionnaire, d’autres expérimentations existent, comme celle du distributeur SRD dans la Vienne qui déploie son compteur évolué, i-Ouate, sur 130 000 sites.

[6] Voir DGEC, 2013, Groupe de travail sur les compteurs électriques communicants – Document de concertation, février.

———-

a L’auteur remercie C. Blot, K. Chakir, S. Levasseur, L. Nesta, F. Saraceno, et plus particulièrement O. Brie, M.-K. Codognet et M. Deschamps. Les opinions défendues dans ce billet n’engagent que son auteur.




Comment peut-on défendre les 1% ?

par Guillaume Allègre

Dans un article à paraître dans le Journal of Economic Perspectives, Greg Mankiw, professeur à l’Université Harvard et auteur reconnu de manuels universitaires, défend les revenus perçus par les 1 % les plus aisés et critique l’idée d’une imposition des hauts revenus à un taux marginal de 75 %. Pour Mankiw, il est juste que les individus soient rémunérés en proportion de leur contribution. En concurrence pure et parfaire, les individus sont rémunérés selon leur productivité marginale, il n’est donc ni nécessaire ni souhaitable pour un gouvernement de modifier la répartition des revenus. Le gouvernement doit se limiter à corriger les distorsions de marché (externalités, recherche de rente).

Dans la dernière Note de l’OFCE (n° 28, 5 juillet 2013) nous démontrons que l’économie dans laquelle vivent ces « 1 % » s’éloigne de l’équilibre concurrentiel classique par de nombreuses façons non discutées par Mankiw, ce qui nous semble être une limite importante de son argumentation. C’est parce que les « 1 % » n’opèrent pas dans une économie concurrentielle pure et parfaite qu’ils peuvent recevoir des rémunérations astronomiques. Les rémunérations perçues sur le marché par les « 1 % » ne correspondent donc pas à leur contribution sociale marginale. Cela ne signifie pas que leur contribution sociale est nulle mais que le marché est incapable de mesurer cette contribution. Les rémunérations astronomiques ne peuvent donc pas être défendues sur la base du « mérite mesuré par la contribution marginale » proposé par Mankiw.

_____________

Voir dans le blog de l’OFCE  sur le même sujet : “Superstars et équité : Let the sky fall” et “Pigeons : comment imposer le revenu des entrepreneurs ?




Programme de stabilité : la ligne manquante

par Eric Heyer

Le 17 avril dernier, le gouvernement a présenté son Programme de stabilité à l’horizon 2017 pour l’économie française. Pour les deux prochaines années (2013-2014), le gouvernement s’est calé sur les prévisions de la Commission européenne en prévoyant une croissance de 0,1 % en 2013 et 1,2 % en 2014.  Notre propos ici n’est pas de revenir sur ces prévisions, qui nous semblent par ailleurs trop optimistes, mais de discuter de l’analyse et des perspectives explicites, mais aussi implicites, pour la France que recèle ce document pour la période 2015-2017.

D’après le document fourni à Bruxelles, le gouvernement s’engage à maintenir sa stratégie de consolidation budgétaire tout au long du quinquennat. L’effort structurel s’atténuerait au fil des années pour ne représenter plus que 0,2 point de PIB en 2017, soit neuf fois moins que l’effort imposé aux citoyens et aux entreprises en 2013. Selon cette hypothèse, le gouvernement table sur un retour de la croissance de 2 % chaque année au cours de la période 2015-2017. Le déficit public continuerait à se résorber et atteindrait 0,7 point de PIB en 2017. Cet effort permettrait même d’arriver, pour la première fois depuis plus de 30 ans, à un excédent public structurel dès 2016 et qui atteindrait 0,5 point de PIB en 2017. De son côté, la dette publique franchirait un pic en 2014 (94,3 points de PIB) mais commencerait sa décrue à partir de 2015 pour s’établir en fin de quinquennat à 88,2 points de PIB, soit un niveau inférieur à celui qui prévalait à l’arrivée des socialistes au pouvoir (tableau 1). Il est à noter cependant que dans ce document officiel, rien n’est dit sur l’évolution prévue par le gouvernement du chômage induit par cette politique d’ici à la fin du quinquennat. Telle est la raison de notre introduction d’une ligne manquante dans le tableau 1.

En retenant des hypothèses similaires à celles du gouvernement sur la politique budgétaire ainsi que sur le potentiel de croissance et en partant d’un court terme identique, nous avons tenté de vérifier l’analyse fournie par le gouvernement et de la compléter en y intégrant l’évolution du chômage sous-jacente à ce programme.

Le tableau 2 résume ce travail : il indique que la croissance accélèrerait progressivement au cours de la période 2015-2017 pour dépasser les 2 % en 2017. Sur la période, la croissance serait en moyenne de 1,8 %, taux proche mais légèrement inférieur au 2 % prévu dans le programme de stabilité[1].

Fin 2017, le déficit public serait proche de la cible du gouvernement sans l’atteindre toutefois (1 point de PIB au lieu de 0,7 point de PIB). La dette publique baisserait également et reviendrait à un niveau comparable à celui de 2012.

Dans ce scénario, proche de celui du gouvernement, l’inversion de la courbe du chômage n’interviendrait pas avant 2016 et le taux de chômage s’établirait à la fin du quinquennat à 10,4 % de la population active, soit un niveau supérieur à celui qui prévalait au moment de l’arrivée de François Hollande au pouvoir.

Le scénario proposé par le gouvernement dans le Programme de stabilité apparaît optimiste à court terme et se trompe d’objectif à moyen terme. Sur ce dernier point, il paraît surprenant de vouloir maintenir une politique d’austérité après que l’économie soit revenue à l’équilibre structurel de ses finances publiques et alors que le taux de chômage grimpe au-dessus de son maximum historique.

Une stratégie plus équilibrée peut être envisagée : elle suppose que la zone euro adopte dès 2014 un plan d’austérité « raisonnable » visant à la fois un retour à l’équilibre structurel des finances publiques mais aussi la réduction du taux de chômage. Cette stratégie alternative consiste à revenir sur les impulsions budgétaires programmées et de les limiter, dans tous les pays de la zone euro, à 0,5 point de PIB[2]. Il s’agit-là d’un effort budgétaire qui pourrait s’inscrire dans la durée et permettre à la France, par exemple, d’annuler son déficit structurel en 2017. Par rapport aux plans actuels, il s’agit d’une marge de manœuvre plus importante qui permettrait de répartir le fardeau de l’ajustement de façon plus juste.

Le tableau 3 résume le résultat de la simulation de cette nouvelle stratégie. Moins d’austérité conduit à plus de croissance dans tous les pays. Mais, notre simulation tient compte aussi des effets de l’activité d’un pays sur les autres pays via le commerce extérieur. En 2017, dans le scénario « moins d’austérité », les finances publiques seraient dans la même situation que dans le scénario central, le supplément de croissance compensant la réduction de l’effort. En revanche, dans ce scénario, le chômage baisserait dès 2014 et se situerait en 2017 à un niveau comparable à celui de 2012.


[1] La différence de croissance peut provenir soit de la non prise en compte de l’impact via le commerce extérieur des plans d’austérité menés dans les autres pays partenaires, soit d’un multiplicateur budgétaire plus faible dans le Programme de Stabilité que dans notre simulation où il se situe aux alentours de 1. En effet, nous considérons que la mise en place dans une période de basse conjoncture, de politiques de restriction budgétaire appliquées simultanément dans l’ensemble des pays européens et alors que les marges de manœuvre de la politique monétaire sont très faibles (taux d’intérêt réel proche de zéro), concourt à élever la valeur du multiplicateur. Il existe d’ailleurs aujourd’hui un consensus large sur le fait que les multiplicateurs budgétaires à court terme sont élevés d’autant plus que le plein emploi est encore hors d’atteinte (voir Heyer (2012) pour une revue de la littérature sur les multiplicateurs).

[2] Cette stratégie a déjà été simulée dans des travaux antérieurs de l’OFCE comme celui de Heyer et Timbeau en mai 2012, de Heyer, Plane et Timbeau en juillet 2012 ou le rapport iAGS en novembre 2012.




“Prêt à taux zéro” : ne prête-t-on qu’aux riches ?

par Pierre Madec

Le 1er janvier 2013 est entrée en vigueur une nouvelle version du prêt à taux zéro (PTZ). Cette dernière, plus restrictive que les précédentes, abaisse les plafonds d’éligibilité et renforce son ciblage sur les logements neufs (et l’ancien HLM). Nous revenons ici sur les possibles conséquences de cette mesure.

Compte tenu des fortes tensions présentes sur le marché locatif (Le Bayon, Madec et Rifflart, 2013), l’objectif de faciliter l’accès à la propriété des primo-accédants avec peu d’apport est louable. Pour autant certaines questions méritent d’être posées : les ménages les plus modestes en sont-ils les premiers bénéficiaires ? Le PTZ déclenche-t-il l’achat de la première résidence principale (effet incitatif) ou ne fait-il que l’accompagner (effet d’aubaine) ? La mise en place du PTZ et sa pérennisation ont-ils permis de développer significativement l’offre sur le marché immobilier neuf ? Le coût budgétaire qu’engendre une telle mesure est-il efficace au vu de l’ensemble des résultats ?

Mis en place en 1995 pour faciliter l’accès à la propriété des ménages les plus modestes, le prêt à taux zéro a, depuis lors, évolué au gré des contraintes budgétaires et des décisions politiques. En 2005, le dispositif, jusque-là réservé à l’achat d’un logement neuf (ou d’un logement ancien sujet à des travaux importants), a été étendu à l’acquisition de logements anciens sans condition de travaux, afin notamment d’accroître l’accession à la propriété dans les zones en pénurie de foncier (Paris notamment). Cette décision a permis de doubler le nombre de PTZ accordés en 2005. De même, en 2011, la suppression des plafonds d’éligibilité a permis au dispositif de battre un record avec près de 352 000 PTZ accordés. Sur fond de crise budgétaire et immobilière, la réapparition, en 2012, des plafonds de ressources et la disparition des logements anciens (hors HLM) de la liste d’éligibilité du dispositif ont ramené le nombre de PTZ à un niveau historiquement faible (64 000).

Sur le papier, le principe de cette « avance remboursable ne portant pas intérêt » est simple : en contrepartie de l’accord d’un prêt à taux d’intérêt nul, les banques bénéficient d’un crédit d’impôt du montant des intérêts non perçus. Ce prêt, limité à une certaine quotité de financement[1], doit obligatoirement être adossé à un prêt principal et peut alors être assimilé à un apport personnel lors de l’acquisition de la résidence principale et donc lors de l’octroi du prêt principal.

Dans les faits, le calcul du montant du PTZ accordé est complexe puisqu’y interviennent des plafonds de ressources et des montants de transaction, qui dépendent de la zone géographique ainsi que des quotités de financement. De même, les modalités de remboursement (durée et différé de remboursement) sont définies selon l’appartenance à une « tranche de remboursement », tranches calculées en fonction des ressources et de la composition du ménage.

Le PTZ dynamise-t-il l’offre de logement sur le marché immobilier neuf ?

L’un des objectifs affichés lors de la création du dispositif était de soutenir et de dynamiser un marché immobilier neuf atone. Dans les faits, l’impact du PTZ sur le marché de la construction est assez difficile à établir. En observant l’évolution du nombre de logements construits avant et après la mise en place du PTZ (graphique 1), il ne semble pas que les 150 000 PTZ accordés en 1996 aient eu un impact significatif sur le volume de logements neufs construits. De cette rapide observation semble émerger l’idée que même sans dispositif, compte tenu du contexte économique plutôt clément, le marché immobilier aurait été tout aussi dynamique. De même, la croissance observée du marché immobilier neuf sur la période 1999-2007 n’est pas imputable au dispositif d’aide à l’accession[2].

Selon les dernières statistiques disponibles (SGFGAS 2012), à l’image des dispositifs d’incitation à l’investissement locatif (Madec 2013, Levasseur 2011), le zonage établi lors de la mise en place du PTZ a bien du mal à diriger les investissements vers les territoires les plus tendus. Ainsi, au 3e trimestre 2012, plus de la moitié des PTZ distribués l’ont été pour des acquisitions en zone C, c’est-à-dire la zone la moins sujette aux tensions du marché (contre 15 % pour la zone A[3]). Ceci s’explique en grande partie par l’extrême rareté (et cherté) du foncier en zone A et B. C’est dans le but d’en finir avec cette forme de discrimination territoriale qu’en 2005 le dispositif a été ouvert à l’ancien. Sur la période 2005-2011, plus d’un million de PTZ ont ainsi été accordés pour l’acquisition d’un logement ancien, trahissant par là-même l’un des objectifs initiaux du dispositif.

Enfin, malgré une volonté affichée de promouvoir les logements à haute qualité environnementale, en proposant notamment des quotités de financement supérieures pour les logements de type BBC[4], le PTZ n’a que peu participé à la construction de logements économes en énergie puisque qu’au 3e trimestre 2012, deux tiers des prêts accordés l’ont été pour l’achat de logement ne respectant pas la norme BBC.

 

 

Le PTZ facilite-t- il l’accession à la propriété des ménages les plus modestes ?

L’une des principales critiques adressée au PTZ est la piètre qualité de son ciblage. Alors que le but d’un tel dispositif était de solvabiliser les ménages les plus en difficulté en finançant, sur des deniers publics, un équivalent d’apport personnel, l’existence de plafonds de ressources particulièrement élevés (quand ces derniers ne sont pas tout bonnement supprimés comme en 2011) a rendu éligibles des ménages n’ayant pas à priori besoin de l’Etat pour accéder à la propriété. A titre d’exemple, le plafond d’éligibilité était en 2012 de 43 500 euros annuel pour une personne seule souhaitant acquérir une résidence principale en zone A. Ce plafond rendait alors 90 % des ménages franciliens éligibles au PTZ (source INSEE)[5].

Par ailleurs, de nombreuses études ont cherché à mesurer l’impact du PTZ sur les capacités de financement des ménages (ANIL 2011, Beaubrun-Diant 2011, Gobillon et Le Blanc 2005, Thomas et Grillon 2001). Gobillon et al. ont ainsi conclu que le PTZ n’était « déclencheur d’achat » que pour 15 % des ménages acquéreurs. Autrement dit, selon la modélisation proposée par les auteurs, 85 % des ménages auraient accédé à la propriété avec ou sans PTZ. De même, les études récentes portant sur le profil des accédants à la propriété (Le Bayon, Levasseur et Madec 2013, Babès Bigot Hoibian 2012, INSEE 2010) mettent en exergue les difficultés croissantes d’accession à la propriété des ménages les plus modestes. Ainsi, selon Le Bayon et al., les ménages appartenant au 1er quartile de niveau de vie, ménage visés par les dispositifs d’aide à l’accession, voient leur probabilité d’acquérir leur résidence principale divisée par deux entre 2004 et 2010. Il semble donc, au vu de ces divers résultats, que le PTZ ait bien du mal, en tout cas dans ces versions précédentes, à jouer son rôle solvabilisateur pour les ménages à faibles revenus. Cette conclusion peut tout de même être en partie relativisée lorsque l’on observe les dernières statistiques fournies par la SGFGAS. Ainsi, selon ces données, les ouvriers et employés ont représenté respectivement 25 % et 33 % des bénéficiaires de PTZ au 3e trimestre 2012. De même, un bénéficiaire sur trois appartenait à la première « tranche de remboursement ». Pour autant, le calcul de ces tranches prenant en compte des plafonds de ressources particulièrement élevés, l’appartenance à la première tranche de remboursement ne peut être assimilée à un «critère de pauvreté ».

Enfin, en augmentant la demande sur un marché immobilier neuf dont l’élasticité de l’offre est faible et en permettant à nombre de ménages d’acquérir des logements plus onéreux, les dispositifs d’aide à l’accession se voient, depuis longtemps, reprocher leurs effets inflationnistes (ANIL, 2002).

 

Le PTZ : combien ça coûte ?

Pour 2012, le coût pour l’Etat du seul PTZ a été de 1,34 milliard d’euros. Compte tenu du nombre de bénéficiaires, ce coût peut paraître élevé, mais il se doit d’être, comme tous les dispositifs d’aides publiques, analysé en termes d’efficacité.

Une évaluation rapide permet de calculer l’impact du PTZ sur l’investissement en logements. Pour estimer l’effet multiplicateur du dispositif PTZ en 2012, nous nous appuyons sur les dernières statistiques disponibles (SGFGAS 2012) et sur les hypothèses suivantes[6] :

  • – 50 % des bénéficiaires appartenant à la « Tranche 1 » de remboursement sont des ménages dits « déclenchés » (soit 15 % de l’ensemble des bénéficiaires) ;
  • – Les ménages « non déclenchés » augmentent, grâce au PTZ, le montant de leur achat de 3 % ;

 

 

Au total, les PTZ de l’année 2012 ont donc, selon nos estimations et sous les hypothèses précédentes, créés près de 2 milliards d’euros d’investissement en logement pour un coût fiscal de 1,3 milliard d’euros. Le coefficient multiplicateur du dispositif a donc été de 1,5. Ce dernier est dans la fourchette basse de ceux observés dans d’autres pays avec des dispositifs similaires (1,5 à 2). Surtout, ce multiplicateur pourrait être beaucoup plus élevé si le ciblage des ménages était plus strict. En effet, pour la seule « Tranche 1 » de remboursement, sous les hypothèses précédentes et en considérant que cette tranche représente la moitié de la dépense fiscale (hypothèse généreuse), le multiplicateur atteint 2,6. On est encore loin cependant du multiplicateur théorique optimal à 6, estimé par Gobillon et Le Blanc[7].

 

Quid du PTZ version 2013 ?

Pour répondre à l’ensemble des critiques soulevées précédemment, le gouvernement a, le 1er janvier dernier, tenté d’améliorer les conditions d’accès au dispositif :

  • – réduction des plafonds d’éligibilité de 17 % (en zone A) à 30 % (en zone C) ;
  • – gel des plafonds de coûts d’opération dans le neuf et l’ancien HLM ;
  • – baisse des quotités de financement ;
  • – remise en place d’un différé de paiement pouvant aller jusqu’à 15 ans pour les ménages appartenant à la 1re tranche de remboursement.

Ces mesures vont pour la plupart d’entre elles dans le sens d’un ciblage plus juste des aides à l’accession. Cependant certaines améliorations pourraient encore être apportées. Les plafonds de ressources de la zone A concernent encore en 2013 près de 80 % des franciliens. De plus, la possibilité d’acquisition d’un ancien logement HLM, potentiellement très énergivore, semble en contradiction avec la promotion des logements neufs à haute qualité énergétique. Ne vaudrait-il pas mieux promouvoir, pour les ménages modestes en zones tendues, l’achat de logements non neufs mais récents, possédant des caractéristiques énergétiques plus proches de celle exigées pour le neuf ?

De même, le retour du principe du différé de paiement de 15 ans peut s’avérer assez critiquable. En effet, il peut contribuer à désolvabiliser une partie des ménages en réduisant la durée de leur prêt principal. Les banques, tenant compte du différé, sont incitées à aligner la durée du prêt principal sur la durée du différé pour éviter une hausse future trop importante des mensualités. A l’inverse, ce différé peut augmenter le risque de défaut, les ménages subissant, une fois le différé terminé, un ressaut de leur mensualité (Bosvieux et Vorms, 2003).

Enfin le gel des plafonds de transactions ne pourra être pérennisé compte tenu d’une part de l’écart croissant qui existe entre ces plafonds et les prix de marché, et d’autre part de la hausse continue des coûts de construction consécutive à l’inflation normative subie par le secteur.

Pour conclure, il est important de noter l’existence d’un débat sur la nécessité même de dispositif d’aide à l’accession : l’Etat doit-il inciter, aider ou financer l’accession à la propriété des ménages locataires ? A l’image des incitations fiscales à l’investissement locatif, les contribuables doivent-ils aider les ménages locataires à devenir propriétaires ? Pour les ménages les plus modestes, dans l’impossibilité matérielle de constituer un apport personnel suffisant à l’acquisition, il peut sembler légitime de penser que l’Etat est dans son rôle en aidant les plus fragiles à suivre la trajectoire résidentielle standard : décohabitation parentale, location, accès à la propriété. Pour les autres, on ne peut écarter l’existence d’effets d’aubaine importants comme souligné plus haut. Pour les éviter et améliorer la solvabilité des ménages initialement visés par le dispositif, une refonte profonde des dispositifs d’aide à l’accession (sociale ou non) est indispensable.


[1] C’est-à-dire un pourcentage plafond du montant de la transaction.

[2] Le marché du neuf a été, sur la période considérée, fortement soutenu par les dispositifs d’incitation à l’investissement locatif (voir Le Bayon et al. 2013)

[3] Paris, la petite couronne parisienne et une partie de la grande couronne.

[4] En 2012, pour les acquisitions en zone A, la quotité de financement était de 38 % pour les logements neuf BBC contre 26 % pour les non BBC.

[5] Pour un revenu annuel de 43 500 €, en supposant un taux de 3,2 %, la capacité d’emprunt s’élève en moyenne à 260 000 € (hors PTZ), soit un logement d’au moins 50m² en petite couronne parisienne (hors communes limitrophes à Paris).

[6] Ces hypothèses sont en adéquation avec les résultats de la modélisation proposée par Gobillon et Le Blanc (2005). Ces derniers obtiennent un effet multiplicateur du PTZ de l’ordre de 1,1 à 1,3.

[7] Ce multiplicateur a été estimé en supposant un ciblage parfait du dispositif, c’est-à-dire que l’intégralité des bénéficiaires sont des ménages « déclenchés ».




Le cas « chypri-hot » !

par Jérôme Creel

Avant une étude plus approfondie de la crise chypriote, et de ses conséquences sur la zone euro, voici quelques réflexions sur le projet d’accord intervenu ce matin entre la Présidence chypriote et certains bailleurs de fonds.

Ce projet prévoit la faillite d’une banque privée, la Laiki, et la mise à disposition de ses dépôts sécurisés (en deçà de 100 000 euros) auprès d’une autre banque privée, la Bank of Cyprus afin de participer à sa recapitalisation. Dans cette banque, les dépôts au-delà de 100 000 euros seront gelés et convertis en actions. In fine, la Bank of Cyprus devrait pouvoir atteindre un ratio de fonds propres de 9%, conformément à la législation bancaire appliquée dans l’UE. En échange de ces dispositions, auxquelles s’ajoutent des augmentations des taxes sur les revenus du capital et sur les bénéfices des entreprises, les institutions européennes verseront 10 milliards d’euros à Chypre. Les dépôts bancaires garantis selon les règles en vigueur dans l’UE vont le rester, en même temps que la hausse des taxes sur les revenus du capital va réduire la rémunération excessivement attractive des dépôts chypriotes au regard de la moyenne européenne.
En une semaine, les négociations entre les autorités chypriotes, le FMI et les institutions européennes ont abouti à des résultats radicalement différents. Pour le volet du plan de sauvetage correspondant à la viabilité du système bancaire, le président chypriote a semble-t-il été confronté à un arbitrage entre la taxation de tous les déposants, y compris les « petits épargnants », et la faillite bancaire n’entraînant de pertes financières que pour les actionnaires, les détenteurs d’obligations et les « grands épargnants » (ceux dont les dépôts dépassent 100 000 euros). Il aura donc fallu une semaine pour que le représentant démocratiquement élu d’un Etat membre de l’Union européenne cède et défende l’intérêt du plus grand nombre (l’intérêt général ?) au détriment des intérêts particuliers de quelques banquiers.

Dans le projet d’accord intervenu ce matin figure aussi une mention fort intéressante aux questions de blanchiment d’argent. Les banques chypriotes vont subir des audits permettant de mieux connaître l’origine des fonds perçus. Cette fois-ci, il n’aura pas fallu une semaine, mais bien plutôt des années pour que les membres de l’Eurogroupe s’emparent aussi officiellement d’une question fondamentale sur le fonctionnement de l’économie chypriote. Au-delà du cas chypriote, il est permis de douter que l’argent n’ait pas d’odeur dans l’UE.

Dernière réflexion à propos du Fonds monétaire international, bailleur de fonds associé dans la troïka à la Banque centrale européenne et à la Commission européenne. Il semblerait que ses exigences aient été très nombreuses : doit-on en conclure que le FMI a un pouvoir de négociation bien supérieur à ceux de la BCE et de la Commission européenne, qu’il est le leader de cette troïka ? Si tel était le cas, cela poserait problème : d’une part, la BCE et la Commission sont supposés défendre les intérêts européens, ce qui serait infirmé si ces deux institutions étaient sous la coupe du FMI. D’autre part, il ne faudrait pas oublier que lors de sa recapitalisation d’avril 2009, le FMI a bénéficié de fonds supplémentaires en provenance des pays de l’UE, sage décision de leur part si leurs représentants anticipaient d’avoir bientôt recours à des plans de sauvetage, les fonds attribués au FMI revenant dans l’UE sous forme de prêts. Ceci étant, se voir dicter par le FMI des conditions drastiques pour bénéficier de plans de sauvetage au financement duquel on a somme toute largement contribué, est contestable; et ceci fragilise le processus d’intégration européenne.




Fiscalisation des allocations familiales, est-ce le bon débat ?

Pour une redéfinition du contenu et des contours de la politique familiale

par Hélène Périvier et François de Singly

Le débat s’ouvre à nouveau sur la fiscalisation des allocations familiales. Face au déficit de la branche famille, environ 2,5 milliards d’euros en 2012, cette idée resurgit pour renflouer les caisses qui se vident sous l’effet, notamment, de la crise économique. Le débat oppose souvent une logique comptable visant à combler au plus vite les déficits à une logique conservatrice en matière de politique familiale… Ce post propose une perspective plus large qui dépasse cette approche binaire de la question…

 

De l’équilibre de la branche famille …

Dans la période actuelle, la question budgétaire relève de la quadrature du cercle : moins de rentrées fiscales et plus de dépenses sociales du fait de la crise économique. La tentation est grande de résoudre cette équation en réduisant les dépenses sociales pour rattraper la baisse des recettes. C’est dans ce contexte que resurgit la proposition de soumettre les allocations familiales à l’impôt sur le revenu.

Pendant les crises économiques, le rôle de stabilisateur automatique joué par la protection sociale, y compris la politique familiale, est fondamental. Elle  limite les effets de la crise sur le niveau de vie des personnes les plus exposées, et permet donc également de contenir l’accroissement des inégalités. En soutenant le revenu des ménages, elle évite un effondrement de l’activité économique. En période de conjoncture économique dégradée comme celle que nous connaissons actuellement, réduire les dépenses sociales n’est pas souhaitable et peut être contre-productif macro-économiquement.

Pour autant, rechercher l’équilibre budgétaire à moyen ou long terme de la branche famille n’est pas absurde, car c’est aussi un gage de la pérennité de l’action publique en matière d’aide aux familles. Le déficit de la branche famille s’élève à 2,5 milliards d’euros. Mais il est essentiellement le fait de la crise et des moindres recettes qui en découlent, il est donc conjoncturel. Mécaniquement, la branche famille devrait retrouver l’équilibre à législation constante d’ici quelques années et si la croissance économique revient (les hypothèses reposent sur un taux de croissance de 2% par an à partir de 2014). Il restera une dette issue de l’accumulation d’un déficit sur plusieurs années à partir de 2012[1], qui pourrait être purgée progressivement par les excédents qui seraient dégagés après le retour à l’équilibre. Si la croissance ne revient pas, ou pas aussi vite qu’attendu, la perspective change, et on peut s’interroger sur une redistribution de l’enveloppe allouée aux prestations familiales ou sur son niveau. La CNAF verse plus de 12 milliards d’euros d’allocations familiales[2], indépendamment du niveau de revenu des parents. Les familles de deux enfants reçoivent 127 euros par mois pour deux enfants et 163 euros par enfant supplémentaire. Ces prestations familiales ne sont pas imposées. Leur fiscalisation réduirait le montant des prestations nettes d’impôt versées aux familles, ceci de façon progressive avec le revenu. Ce faisant, un gain fiscal de l’ordre de 800 millions d’euros serait dégagé. Il peut paraître plus équitable que les familles ayant des revenus élevés participent davantage à l’effort lié aux restrictions budgétaires que les familles aux revenus plus faibles. Mais cette question est plus complexe qu’il n’y paraît.

La fiscalisation de ces prestations familiales peut être vue comme un moyen de compenser la perte de progressivité du système fiscal qui s’est opérée au fil des années, du fait principalement de la baisse des taux marginaux d’imposition de l’impôt sur le revenu, et ainsi de le rendre plus équitable. Mais cette réponse n’est qu’une course au moins disant social. Cette dynamique est une fuite en avant de notre Etat social, qui conduit à en réduire le périmètre d’action.

La fiscalisation des allocations familiales réduit le niveau des transferts des ménages sans enfants vers les ménages avec enfants, autrement dit cela porte atteinte au principe d’équité horizontale. Certes, elle permet aussi en particulier d’augmenter le niveau des transferts des familles avec enfants les plus aisées vers les moins aisées. Mais pour renforcer globalement le degré de redistribution verticale (c’est-à-dire pour augmenter le niveau de transferts des ménages les plus riches vers les plus pauvres), il faut accroître la progressivité du système fiscal, ce qu’ont d’ailleurs permis les derniers ajustements fiscaux (introduction d’une tranche à 45 % notamment). Dans ce contexte, on pourrait donc conserver l’universalité des allocations familiales, qui présente l’avantage de conforter l’adhésion des ménages ayant des revenus élevés au principe de l’Etat social : ils paient plus d’impôts, mais ils reçoivent le même montant d’allocations familiales lorsqu’ils ont des enfants.

La fiscalisation des allocations familiales n’est pas un simple ajustement de la politique familiale, mais elle touche à ses valeurs et notamment au principe d’équité horizontale. S’il convient de repenser les objectifs d’une politique familiale, aujourd’hui dépassée à bien des égards, comme nous le développons dans la section suivante, la période actuelle n’est probablement pas adéquate pour mener sereinement un tel débat car l’urgence, et la volonté de retrouver des marges de manœuvre budgétaires, vont conduire à l’adoption d’une vision de court terme alors même que la politique familiale s’inscrit dans le long terme.

… à une politique familiale équilibrée

Pour autant, il ne faudrait pas que ce débat sur la pertinence de la fiscalisation des allocations familiales conduise à un immobilisme en la matière. Les principes de la politique familiale actuelle ont été posés à partir d’une vision de la société qui prévalait il y a plus de 70 ans. Même si des ajustements ont été réalisés, ces principes sont toujours présents. Les objectifs d’hier ne sont pas les défis demain. Ainsi, renégocier les fondements des politiques familiales est indispensable. Comment réorienter l’action de l’Etat social vers les familles ? Quelle boussole suivre ? C’est à cette question qu’il nous faut répondre.

L’un des objectifs de la politique familiale actuelle est le soutien de la natalité. Les aides s’accroissent avec le rang de l’enfant comme par exemple l’attribution d’une demi-part fiscale supplémentaire par enfant à partir du troisième enfant.  S’agissant de redéployer les dépenses de la politique familiale, la suppression de cette demi-part fiscale devrait être au 1er rang des propositions visant le rééquilibrage des comptes. De même, les allocations familiales ne sont versées qu’à partir du deuxième enfant. La France est l’un des seuls pays européens à ne pas accorder d’allocation familiale dès le premier enfant. Le dynamisme de la fécondité en France n’est pas le fruit de ces attributs natalistes de la politique familiale, mais il tient davantage au soutien de l’activité des femmes ayant des enfants : l’école maternelle, l’accueil périscolaire, l’accueil de la petite enfance, mais aussi valorisation de l’activité professionnelle des mères (et non sa stigmatisation comme c’est le cas en Allemagne). La politique familiale doit être redirigée vers un objectif reposant sur les droits de chaque enfant quel que soit son rang de naissance. Elle doit être centrée sur la citoyenneté sociale de l’individu (c’est-à-dire un mode d’acquisition de droits sociaux plus individuel) de sa naissance à sa mort (en tenant compte de l’allongement de la durée de la vie).

Une politique familiale renouvelée serait porteuse du principe d’égalité entre les enfants et d’égalité entre femmes et hommes avec notamment une refonte des aides à la petite enfance, un accroissement massif des modes de garde associé à une modification du congé parental. Il faudrait dépenser environ 5 milliards par an supplémentaires pour résoudre cette question de l’accueil de la petite enfance. En outre, la dernière publication de l’OCDE, Regards sur l’éducation 2012, montre que la France est un pays dans lequel la réussite scolaire des enfants est fortement corrélée avec le niveau de diplôme des parents. Enfin, le niveau du taux de pauvreté des enfants est préoccupant. Ce sont là des défis majeurs auxquels il nous faut répondre.

La montée des unions libres, mais aussi des divorces (plus généralement des séparations) et les recompositions familiales sont le signe d’une plus grande liberté individuelle de choix de vie, ce qui constitue une avancée dans le fonctionnement de notre société. Mais les séparations s’accompagnent souvent d’une baisse du niveau de vie et sont parfois inaccessibles financièrement pour les individus ayant de faibles revenus. En outre, les conséquences économiques des ruptures de couple pèsent davantage sur les femmes que les hommes[3]. Les familles monoparentales, le plus souvent des mères qui ont la charge de leurs enfants, sont davantage exposées à la pauvreté que les autres types de ménages. Une politique familiale plus conforme aux nouvelles formes de vie, qui accompagnerait sur le cycle de vie les modifications des structures des familles est à penser.

Il est nécessaire de redéfinir le contenu et les contours de la politique familiale pour demain mais la volonté de retrouver l’équilibre des comptes sociaux ne peut pas en être le seul moteur. Il faut cesser de penser le changement sur un mode étriqué car il faut réformer le système dans ses fondements en fonction des nouveaux besoins et autour des principes de justice et des solidarités qui fondent notre Etat social.


[1] La dette de la branche famille en 2011 a été transférée à la Caisse d’amortissement de la dette sociale, la CADES (loi organique 2010-1380).

[2] Ce qui représente environ 15 % du montant total des prestations versées par la branche famille.

[3] Jeandidier Bruno et Cécile Bourreau-Dubois, 2005, « Les conséquences microéconomiques de la désunion », In Joël M.-E. et Wittwer J. Economie du vieillissement. Age et protection sociale, Ed. L’Harmattan,, tome 2, pp. 335-351.




Loi de séparation bancaire : symbole politique ou nouveau paradigme économique ?

par Céline Antonin et Vincent Touzé

Imprudence, aléa moral et engrenage systémique ont été les maîtres-mots de la crise bancaire. Mécontents de n’avoir eu d’autre choix que de venir à la rescousse des banques, les gouvernements tentent aujourd’hui de reprendre le contrôle et d’imposer de nouvelles réglementations. La plus emblématique d’entre elles concerne la séparation des activités de marché (trading pour compte propre ou compte de tiers) des autres activités bancaires (dépôts, crédits, conseil stratégique et financier, etc.). L’avantage attendu d’une séparation est une plus grande étanchéité entre les activités. Cette dernière pourrait protéger les épargnants en cas de mauvaises opérations des banques sur les marchés financiers. Le 19 février 2013, le Parlement français a voté une loi de séparation bancaire. Malgré des objectifs initiaux ambitieux, la séparation sera partielle puisque seules les activités financières en compte propre seront filialisées. Concernant moins de 1 % des revenus bancaires, cette mesure a un caractère plutôt symbolique. Toutefois, en inscrivant un principe de séparation dans la loi, l’Etat montre sa volonté d’être un superviseur plus actif.

 

L’idée de cloisonner les activités bancaires n’est pas nouvelle. Au lendemain de la crise de 1929, les Etats-Unis adoptèrent le Glass Steagall Act (1933), obligeant à une stricte séparation entre banques commerciales (spécialisées dans les activités de crédit et de gestion des dépôts) et banques d’affaires (spécialisées dans les activités financières) ; la France leur emboîta le pas avec la loi bancaire[1] de 1945. Les avantages attendus d’une séparation bancaire sont doubles. D’une part, les dépôts des clients seraient mieux protégés, car ils ne pourraient plus être sollicités pour éponger les éventuelles pertes de l’activité de marché ; d’autre part, en cas de faillite, l’aide de l’Etat serait limitée, car seule la partie banque de détail des établissements bénéficierait d’une garantie publique.

Quarante ans plus tard, à la faveur du grand mouvement de dérégulation des années 1980-1990, la France fut l’une des premières à abolir la distinction avec la loi bancaire de 1984, posant ainsi le principe de banque universelle. Ce principe conduit à regrouper les activités à fort besoin de liquidité (financement de l’économie) avec celles qui permettent de recueillir la liquidité (activités de dépôts). Ce regroupement présente l’indéniable mérite d’offrir une plus grande solidité financière aux banques. D’autres avantages en découlent : l’effet de levier se trouve renforcé ; le facteur taille conduit à des économies d’échelle ; la capacité d’internationalisation permet aux banques de rentrer dans la catégorie « too big to fail ». Outre-Atlantique, ces arguments ont certainement joué en faveur de l’abolition du Glass Steagall Act en 1999 par l’administration Clinton.

A partir de 2008, les banques ont subi plusieurs chocs : crise des subprimes, chute des valeurs financières, baisse de la croissance économique et crainte d’insolvabilité des dettes souveraines (pour les banques de la zone euro). Ces chocs ont montré que certains avantages de la banque universelle pouvaient se transformer en inconvénients dès lors que le levier financier avait été utilisé de façon trop systématique et que des banques de grande taille en situation difficile faisaient peser un risque systémique. De nombreuses voix vont alors plaider pour un nouveau Glass Steagall Act, voyant dans la séparation entre activités de marché[2] et autres activités bancaires, un moyen de se prémunir contre les crises bancaires d’ampleur. Les activités en compte propre concentrent l’essentiel des dysfonctionnements des banques : prise de risque inconsidérée et quelques cas de traders « fous »[3]. Par conséquent, ce compartiment fait, aujourd’hui, l’objet d’une attention accrue de la part des régulateurs.

Le Dodd–Frank Wall Street Reform and Consumer Protection Act[4] adopté aux Etats-Unis en 2010 n’instaure pas une séparation bancaire stricto sensu mais reprend la « Volcker rule » qui interdit aux banques de « jouer » avec l’argent des déposants, ce qui conduit à une quasi-interdiction des activités de spéculation pour compte propre des entités bancaires ainsi que d’investissement dans les fonds spéculatifs (hedge fund) ou d’investissement privés (private equity fund). Au-delà de cette règle, cette loi est aussi une vaste réforme en faveur d’une réglementation accrue de l’ensemble des agents financiers (banques, assurances, hedge funds, agences de notation, etc.) ainsi que d’une plus grande surveillance des risques systémiques.

L’Europe envisage à son tour de légiférer sur la séparation bancaire. A la demande du commissaire européen Michel Barnier, le groupe d’experts dirigé par le gouverneur de la Banque centrale de Finlande, Erkki Liikanen, a remis un rapport le 2 octobre 2012. Ce dernier préconise  un cloisonnement bancaire strict[5] mais revient aussi sur les rémunérations des dirigeants et des traders, dont les modalités actuelles pourraient être de véritables « pousses au crime » en matière de spéculation à outrance, afin de les rendre plus compatibles avec des objectifs de long terme. Si ce rapport est transformé en directive européenne, cette dernière devra alors faire l’objet d’une retranscription en droit national dans chaque Etat membre. Cependant, la démarche européenne risque fort d’être devancée par les processus législatifs de plusieurs pays européens. En Allemagne, un projet de loi de régulation bancaire[6] vient d’être présenté par le gouvernement le 6 février 2013, et pourrait entrer en vigueur en janvier 2014 (pour une mise en œuvre d’ici juillet 2015). Le Royaume-Uni s’est illustré en 2011 avec la publication du rapport Vickers[7], mais le gouvernement britannique ne semble pas pressé de mettre ces recommandations en œuvre avec une probable échéance 2019. La France n’est pas en reste avec la « loi de séparation et de régulation des activités bancaires ».

 

UN PROJET DE LOI FRANÇAIS MODESTE…

 

La loi française comporte plusieurs volets. En plus de l’inclusion d’un principe de séparation, elle prévoit aussi des mesures de protection du consommateur bancaire ainsi que le renforcement de la surveillance et du contrôle des banques, à travers plusieurs mesures :

–          Chaque établissement bancaire sera obligé d’élaborer un plan préventif de rétablissement[8] en cas de crise, et de résolution en cas de défaillance (testament bancaire). Le plan de résolution sera soumis à l’appréciation de l’Autorité de contrôle prudentiel (ACP), qui devient Autorité de contrôle prudentiel et de résolution (ACPR).

–          Le Fonds de garantie des dépôts devient fonds de garantie des dépôts et de résolution, et voit sa capacité d’intervention augmentée pour pouvoir intervenir en cas de défaillance d’une banque.

–          La surveillance macro-prudentielle est renforcée, avec l’instauration du Conseil de la stabilité financière.

–          Les droits du consommateur bancaire sont renforcés (transparence sur le coût de l’assurance emprunteur, libre choix de l’assurance emprunteur, droit à un compte bancaire, etc.).

 

Cependant la mesure-phare de la réforme reste la séparation entre « activités utiles à l’économie » et activités spéculatives. Les établissements bancaires devront cantonner leurs activités dites « pour compte propre » dans une filiale ad hoc, soumise à une régulation spécifique et financée de manière autonome. Ces filiales auront interdiction de pratiquer certaines activités spéculatives jugées « trop risquées ou qui peuvent être nuisibles à l’économie ou à la société », comme celles portant sur les marchés de produits dérivés ayant comme sous-jacent les matières premières agricoles et le trading à haute fréquence. Seront néanmoins épargnées de nombreuses activités, comme  la fourniture de services aux clients, l’activité de tenue de marché, la gestion de trésorerie, les opérations d’investissement ou la couverture par l’établissement de ses propres risques.

Cette loi de cloisonnement bancaire, présentée au départ comme ambitieuse, sera finalement d’un impact limité. Le modèle de banque universelle n’est pas remis en question. L’aveu du PDG de la Société Générale ne peut être plus clair[9] : moins de 1 % des revenus seraient concernés. On est donc loin du retour au cloisonnement bancaire d’avant 1984. Le critère de cantonnement est ambigu. En effet, la frontière est poreuse entre la couverture du risque et la pure spéculation : la loi avance un principe flou de « pertinence économique », et les banques pourraient être tentées de jouer sur ce vide juridique. Quant à la tenue de marché[10], il est difficile de faire la différence entre les activités spéculatives pour compte propre, qui devront être filialisées, et les activités permettant au marché de rester liquide : le trading à haute fréquence est ainsi le plus souvent pratiqué sous couvert d’accords de tenue de marché, donc la loi risque d’être un coup d’épée dans l’eau si le statut de teneur de marché n’est pas plus précisément défini[11].

La loi prévoit également d’interdire au groupe bancaire de détenir des parts d’un fonds spéculatif de type hedge fund. Or, les crédits accordés par les banques aux fonds spéculatifs sont toujours accompagnés de garanties. De ce point de vue, la loi aura également un faible impact.

 

… MAIS POUVAIT-ON ALLER PLUS LOIN ?

 

Trouver un autre paradigme économique pour le modèle bancaire est un exercice complexe. En pratique, une séparation bancaire pure et simple n’est pas sans inconvénient et, de façon générale, les limites aux réformes bancaires sont nombreuses.

Tout d’abord, limiter, voire priver, les banques d’investissement d’un accès aux dépôts comme source de liquidité les conduirait à un financement par endettement accru, ce qui pourrait être difficile à concilier avec les contraintes liées à la réglementation prudentielle Bâle III. Cette dernière vient d’être mise en place au 1er janvier 2013. Elle est déjà très exigeante en matière de fonds propres.

Ensuite, il est important de noter que le risque bancaire n’est pas seulement inhérent aux activités de marché. Les contre-exemples récents sont nombreux. L’activité de crédit immobilier a été une source importante de risque : en Espagne, la chute des prix immobiliers et l’insolvabilité des emprunteurs ont mis les banques en quasi-faillite ; aux Etats-Unis, la crise des subprimes est une crise du crédit immobilier qui a affecté les marchés grâce à des mécanismes sophistiqués de titrisation qui ont permis aux banques de sortir le risque de leur bilan (du moins en apparence) ; au Royaume-Uni, la Northern Rock est une banque de détail spécialisée dans les crédits immobiliers qui a subi de plein fouet la crise de liquidité et la crise immobilière. Dans une certaine mesure, les banques universelles ont joué un rôle important pour sauver les banques trop spécialisées : par exemple, JPMorgan Chase (universelle) a repris Washington Mutual (caisse d’épargne) et Bear Stearns (affaires), et Bank of America (universelle) a secouru Merrill Lynch (affaires).

De plus, la séparation est censée rendre plus étanches les activités bancaires. Mais, que se passera-t-il si la filiale qui gère la spéculation pour compte propre fait faillite et engendre de lourdes pertes pour la maison mère? Par le passé, deux des quatre principaux groupes français, BPCE et Crédit Agricole, ont déjà isolé leurs activités de marché dans leurs filiales respectives, Natixis et Cacib, et ont dû venir à leur rescousse en 2008 et 2011 respectivement. L’isolation semble donc très perméable.

Dans un contexte de globalisation financière, la compartimentation risque de ne jamais être effective. La finance globalisée permet, en principe, de tout interconnecter. C’est notamment le rôle des marchés interbancaires[12].

En pratique, il semble difficile pour un gouvernement de réformer, sans coordination avec les autres Etats, son secteur bancaire. Les banques nationales ont des filiales étrangères qui pourraient ne pas être soumises à cette réglementation. Et surtout, les banques étrangères concurrentes pourraient afficher une meilleure rentabilité, ce qui affaiblirait la compétitivité des banques nationales. Au niveau européen, les intérêts nationaux diffèrent et chacun pourrait être tenté d’imposer son projet de loi. Si le rapport Liikanen est transformé en directive, chaque Etat membre aura l’obligation de la retranscrire en droit national. Pour l’instant, les législations de l’Allemagne et de la France prennent de l’avance. Il est possible que ces changements influencent une éventuelle directive future.

A trop vouloir compartimenter, on risque aussi de reporter les interconnections vers des échelons moins visibles. Il ne faudrait pas tomber dans le piège d’une dangereuse illusion : on pense avoir éliminé un risque, en réalité, on l’a juste déplacé.

Enfin, trop de réglementation peut parfois tuer la réglementation. Dans le domaine financier, les contraintes réglementaires peuvent servir de support de spéculation. Ainsi, lorsqu’une banque a des difficultés pour respecter certaines contraintes réglementaires, les marchés sont particulièrement encouragés à spéculer pour provoquer et profiter de la défaillance. La prudence est donc de mise avant d’introduire de nouvelles réglementations.

A vouloir être trop strict sur l’application d’un principe de séparation, on pourrait aussi être amené à ne pas soutenir une banque d’affaires qui fait face à d’importants problèmes de liquidité. Pourtant, selon le principe « too big to fail », une telle décision n’est pas toujours judicieuse. Ne pas avoir soutenu Lehman Brothers est une punition qui a eu des effets collatéraux considérables et durables. Cette faillite a affecté toute la sphère économique et financière.

On notera au passage qu’une réglementation bancaire et financière interprétée comme un remède miracle peut avoir des effets délétères en matière de responsabilité individuelle et collective. On attend tout de la loi et on pense qu’elle résout tout. En même temps, il est très vraisemblable que les vecteurs de la prochaine crise financière réussiront à contourner les contraintes réglementaires, d’où l’importance pour les autorités de contrôle de rester vigilantes et d’adopter en permanence une analyse critique.

 

DEPASSER LE SYMBOLE POLITIQUE

Les marges de manœuvre du gouvernement pour séparer les activités bancaires sont indéniablement limitées car trop réglementer pourrait s’avérer inefficace, voire dangereux. Par conséquent, cette loi de séparation bancaire n’est pas radicale et aura une portée modérée sur les banques. D’un côté, le gouvernement peut avoir la bonne conscience d’avoir fait quelque chose à l’instar de ses homologues étrangers. D’un autre côté, les banquiers ne sont probablement pas mécontents de donner le sentiment d’avoir servi, et surtout à moindres frais, l’intérêt général.

Certains n’y verront qu’un piètre symbole politique. D’autres chercheront à voir au-delà avec l’espoir que cette réforme soit perçue comme un signal fort adressé au monde bancaire. L’espoir ne sera peut-être pas vain puisque le principe de séparation est désormais inscrit dans la loi et un gouvernement futur aura tout loisir de le durcir.

En pratique, un changement de paradigme économique, qui conduirait à la raréfaction des spéculations dommageables, ne peut résulter d’une simple séparation des activités. Les lois bancaires ne doivent pas être trop compliquées car le diable a tendance à se cacher dans le détail. Les autorités de contrôle doivent en permanence conserver un regard critique sur le fonctionnement des marchés et la loi doit leur donner une certaine souplesse d’initiative pour définir quand et comment elles peuvent intervenir. Sur ces sujets, la déclaration de Volcker en 2011 est sans ambiguïtés[13] : « J’aurais écrit un projet de loi beaucoup plus simple. J’aurais adoré voir un projet de loi de quatre pages qui interdit le trading pour compte propre et qui rend le conseil d’administration et le directeur général responsables de la mise en conformité. Et j’aurais voulu des régulateurs forts. Si les banques ne s’étaient pas conformées à l’esprit de la loi, elles les auraient eu à leurs trousses ». De nombreuses mesures visant à responsabiliser les professionnels de la finance (dirigeants et opérateurs de marchés) méritent également d’être étudiées. A ce titre, le rapport Liikanen propose de revoir les modes de rémunération des dirigeants et financiers des banques afin de les rendre plus compatibles avec une vision de long terme. La piste d’une responsabilité pénale[14] accrue des dirigeants du monde financier doit également être explorée. On peut également s’interroger sur la perméabilité des carrières professionnelles du secteur régulateur vers le secteur régulé. Dans ce domaine, il y a sûrement matière à rendre plus étanche le système. L’histoire récente n’a-t-elle pas montré qu’il était possible d’être tour à tour Président de la Fed puis conseiller avisé d’un riche et puissant hedge fund


[1] La loi 45-15 du 2 décembre 1945 instaurait la spécialisation des institutions financières en classant les banques en trois catégories : les banques de dépôts, les banques d’affaires, les banques de crédit à long terme et à moyen terme (articles 4 et 5).

[2] La gestion d’actifs peut être exercée :

– soit pour compte propre (proprietary trading) : la banque achète ou vend des instruments financiers, financés directement par ses ressources. Ces ressources n’incluent pas seulement les fonds propres de la banque, mais aussi les dépôts des épargnants et les emprunts. Cela veut donc dire que, outre les fonds propres, les autres strates de financement de la banque, notamment les dépôts de la clientèle supportent indirectement un risque.

– soit pour compte de tiers (non proprietary trading) : contrairement à la gestion pour compte propre, les risques de crédit et de marché sont principalement pris par le client. Mais, sur certains produits, la banque peut toutefois supporter d’importants risques opérationnels.

[3] http://lexpansion.lexpress.fr/economie/trading-pour-compte-propre-la-face-cachee-des-banques_233686.html.

[4] Le titre VI de la loi propose d’améliorer la régulation et est considéré comme une application de la « Volcker Rule », http://useconomy.about.com/od/criticalssues/p/Dodd-Frank-Wall-Street-Reform-Act.htm.

[5] Le rapport recommande une séparation des activités de marché pour compte propre mais aussi de certaines activités sur les marchés financiers et de produits dérivés pour compte de tiers.

[6] L’Allemagne prépare aussi un projet de loi, dans lequel les banques allemandes seront contraintes d’isoler leurs activités pour compte propre. Comme en France, le modèle de banque universelle ne sera pas remis en question. http://m.lesechos.fr/redirect_article.php?id=reuters_00495696&fw=1.

[7] Le rapport Vickers de septembre 2011 préconise un cloisonnement des activités de banque de détail et d’investissement, via une filialisation de l’activité banque de détail, complétée par une exigence de fonds propres de 10 % pour les banques de détail. Le gouvernement britannique s’est engagé à introduire ces réformes dans la loi en 2015, pour une mise en œuvre prévue d’ici 2019.

[8] Ce plan présente les différentes modalités possibles de rétablissement (recapitalisation, plan d’économie, restructuration, etc.) et doit exclure tout appel à un soutien financier public.

[9] « Nous estimons que, si en 2006-2007, 15 % des activités relevaient des activités de marché, parmi lesquelles 15 % à 20 % pouvaient être classées comme déconnectées de la clientèle, et par  conséquent transférées à une filiale, cette proportion est désormais inférieure à 10 %, se situant autour de  3,5 % à 5 % en moyenne », Frédéric Oudéa, 30 janvier 2013, audition devant la Commission des Finances de l’Assemblée nationale, http://www.assemblee-nationale.fr/14/pdf/cr-cfiab/12-13/c1213060.pdf.

[10] L’activité de tenue de marché (« market making ») correspond à la présence permanente d’un intervenant qui apporte de la liquidité au marché.

[11] A cet égard, mentionnons l’amendement déposé par Karine Berger qui souhaite que Bercy fixe le seuil à partir duquel les activités de marché doivent impérativement être filialisées.

[12] Depuis 2008, la crise de confiance sur le marché bancaire a posé de grosses difficultés d’accès aux liquidités à certaines banques, bien que parfaitement solvables, ce qui a contraint les banques centrales à intervenir et à se substituer au marché interbancaire.

[13] “I’d write a much simpler bill. I’d love to see a four-page bill that bans proprietary trading and makes the board and chief executive responsible for compliance. And I’d have strong regulators. If the banks didn’t comply with the spirit of the bill, they’d go after them”, 22 octobre 2011, http://www.nytimes.com/2011/10/22/business/volcker-rule-grows-from-simple-to-complex.html?pagewanted=all&_r=0.

[14] A ce titre, la justice américaine n’hésite pas à entreprendre des actions contre les institutions financières qui ont failli à leurs devoirs. Voir par exemple, l’action récente contre Standard & Poor’s, http://www.bloomberg.com/news/2013-02-06/s-p-lawsuit-portrays-cdo-sellers-as-duped-victims.html. Voir aussi, les poursuites engagées contre un ancien employé de Goldman Sachs : http://www.sec.gov/litigation/complaints/2010/comp-pr2010-59.pdf et http://dealbook.nytimes.com/2013/01/31/trader-accused-of-misleading-clients-leaves-goldman/ ainsi que l’enquête sur la fameuse « baleine » de Londres : http://www.reuters.com/article/2013/02/15/us-lehman-jpmorgan-londonwhale-idUSBRE91E00W20130215.