Hommage à Alain Desrosières, statisticien, sociologue, historien et philosophe de la statistique

par Françoise Milewski et Henri Sterdyniak

 

Alain Desrosières vient de disparaître à l’âge de 72 ans. Administrateur de l’INSEE, il avait été rédacteur en chef de la revue Économie et statistique puis chef de la division des Études sociales, avant de travailler sur l’analyse comparée des systèmes statistiques en Europe.

Il était la conscience inquiète de la statistique publique française.

Ses nombreux articles et ouvrages en ont retracé la naissance et l’essor. Ils en discutent  les bases scientifiques et les fondements sociaux. Ils mettent en lumière les liens entre les normes et la production des statistiques, entre l’histoire des politiques économiques et celle des méthodes et catégories statistiques, alors que la tendance est à les « naturaliser ». « Les façons de penser la société, de la gérer et de la quantifier sont indissociables » affirmait-il. La statistique ne peut être séparée de ses usages et elle évolue avec les transformations des politiques publiques. Ainsi, Alain Desrosières s’interrogeait sur « la qualité des quantités ».

Alain a passionnément vécu et étudié les contradictions de la statistique, outil de connaissance et outil de gouvernement. Est-elle au service de la démocratie, permettre à la société de se mieux connaître, ou de l’Etat, pour lui permettre de mieux atteindre ses objectifs ? Et, cet Etat, qui organise et finance l’appareil statistique, a lui-même deux visages, c’est l’Etat social, instrument de résistance face aux forces du marché comme c’est l’Etat au service d’une organisation sociale façonnée par le capitalisme.

La statistique classe et mesure. Mais est-ce une discipline scientifique neutre ou exprime-t-elle la vision que la société a d’elle-même à un moment donné, d’autant plus qu’elle doit s’appuyer sur des sources administratives, qui ne sont pas neutres elles-mêmes ? Doit-elle partir du vécu des individus ou, au contraire, le récuser au nom de la science ?

Peut-on rendre compte de sociétés différentes avec des catégories communes ? Alain s’est beaucoup interrogé sur l’harmonisation statistique qu’implique l’Union européenne, au risque d’une négation des différences entre les sociétés.

Alain s’est interrogé sur la politique des indicateurs, mise en œuvre par la Méthode Ouverte de Coordination ou la LOLF, loi organique sur les lois de finances. Les politiques définissent des indicateurs, que les statisticiens sont censés mesurer, puis fixent des objectifs pour ces indicateurs. Mais cette pratique est dangereuse puisque ces indicateurs deviennent le centre de l’analyse tandis les politiques visent à améliorer les indicateurs, ce qui tend à leur faire perdre de leur significativité.

Nous reproduisons ci-dessous quelques courts extraits de ses articles, comme une invitation à les lire dans leur intégralité. Le mythe du chiffre incontestable parce qu’impartial, le respect inconditionnel devant des faits quantifiés donc incontestables, devant des résultats de modèles nécessairement justes parce que formalisés, indépendamment des conditions de leurs constructions, des normes et des conventions, restent un danger permanent pour les sciences sociales, et en particulier l’économie. Et pour la cité.

Alain Desrosières  participait à de nombreux colloques de statisticiens pour donner à ses collègues matière à réfléchir à leurs pratiques et à leurs méthodes (voir en particulier le colloque du 30 mars 2011 : « La statistique publique, un bien public original », atelier 3). Il avait tissé des liens fertiles entre la pratique statistique et les sociologues, en particulier  Pierre Bourdieu et Bruno Latour.

Il avait montré l’influence des nomenclatures sur la constitution de l’information statistique et, à travers elle, sur la structuration de la société (Les Catégories socioprofessionnelles, publié avec Laurent Thévenot, La Découverte, collection Repères, 1988).

Alain nous laisse plusieurs grands ouvrages : La politique des grands nombres, histoire de la raison statistique (Editions La Découverte, Paris, 1993) et L’argument statistique, en deux tomes : I : Pour une sociologie historique de la quantification, et II : Gouverner par les nombres (Les Presses des Mines ParisTech, collection Sciences sociales, Paris, 2008).

Il nous laisse  un dernier texte : « Est-il bon, est-il méchant ? Le rôle du nombre dans le gouvernement de la cité néolibérale » (Nouvelles perspectives en sciences sociales, volume 7, n°2, mai 2012).

Alain nous laisse l’exemple d’un intellectuel modeste et exigeant, qui cherchait à mettre sa pratique professionnelle et son activité scientifique au service de la démocratie.

————————————————————

Quelques courts extraits de ses textes :

« Comment résoudre la contradiction entre l’ethos du statisticien et la prise en compte des rétroactions, même quand celles-ci lui apparaissent seulement comme de fâcheux obstacles à sa mission, qu’il pense être de « fournir des reflets non biaisés de la réalité » ? Il n’est  pas possible d’isoler un moment de la mesure, qui serait indépendant de ses usages, et notamment des conventions qui sont la première étape de la quantification. Il faudrait désenclaver la formation des statisticiens, en la complétant par des éléments d’histoire, de sciences politiques, et de sociologie de la statistique, de l’économétrie, des probabilités, de la comptabilité et de la gestion. Ce programme, inspiré des acquis des Sciences Studies (Pestre 2006), pourrait faciliter la prise en compte des outils quantitatifs dans les débats sociaux, sans verser ni dans le rejet a priori, ni dans le respect inconditionnel et naïf devant des « faits incontestables parce que quantifiés ».

Est-il bon, est-il méchant ? Le rôle du nombre dans la cité néolibérale. Conclusion de la communication au séminaire L.’Informazione Prima Dell.’Informazione. Conoscenza E Scelte Pubbliche, Milan Bicocca, 27 mai 2010, Nouvelles perspectives en sciences sociales, volume 7, n°2, mai 2012.

—————————————-

« La quantification est devenue un signe d’objectivité, de rigueur et d’impartialité mobilisée dans des situations très variées, depuis le débat politique jusqu’à la démonstration scientifique, en passant par les indicateurs d’entreprise ou la mesure de l’opinion publique. Or, la quantification, sous ses différents formats statistiques, ne se contente pas de fournir un reflet du monde, elle crée une nouvelle façon de le penser, de le représenter, de l’exprimer et d’agir sur lui, à la fois par la puissance de ses modèles et de ses procédures, par leur diffusion et par leurs usages argumentatifs. Ce livre montre comment s’est historiquement construit «l’argument statistique», et quels sont aujourd’hui les effets cognitifs et sociaux des dispositifs de quantification. »

Pour une sociologie historique de la quantification, tome 1 de L’argument statistique, (Les Presses des Mines Paris-tech, collection Sciences sociales, Paris, 2008), quatrième de couverture.

——————————

« Le gouvernement des hommes use et abuse de «l’argument statistique». Avec l’émergence d’un État néo-libéral, l’action publique s’appuie de plus en plus sur des indicateurs chiffrés qui fournissent des évaluations de la performance des différentes actions politiques. Des «palmarès» variés connaissent une grande diffusion (souvent sous l’appellation anglo-américaine de benchmarking), en hiérarchisant les lycées, les universités, et même les nations. Ce passage par la quantification, loin de fournir une image neutralisée des phénomènes, les transforme et les performe. Ce livre propose des études de cas précis, enquêtes sur le budget des familles, commissions du Plan, statistiques locales ou comptabilité nationale, analysant la production des statistiques publiques et leurs usages par les autorités publiques. Et l’on verra comment la statistique s’est imposée à la fois comme un outil de preuve, dans les sciences empiriques, et comme un outil de gouvernement, selon l’intuition que Foucault avait déjà présentée dès les années 1970 sous le nom de «gouvernementalité».

Gouverner par les nombres, tome 2 de L’argument statistique, (Les Presses des Mines Paris-tech, collection Sciences sociales, Paris, 2008), quatrième de couverture.

————————————-

« Les grandes crises sont bien sûr des moments où les statistiques sont intensément mobilisées pour exprimer la gravité de la situation. Mais elles sont aussi des moments de grands débats, lors desquels le rôle de l’Etat dans la régulation et le pilotage de l’économie est profondément repensé. A chacune de ces crises correspond l’émergence de façons nouvelles de quantifier le monde social. De nouveaux modèles d’action impliquent de nouvelles variables et de nouveaux systèmes d’observation.

L’histoire économique et politique des années 1880 à nos jours offre au moins trois (sinon quatre) exemples de telles configurations, associant une façon de penser la société, des façons d’agir sur elle, et des statistiques adaptées à ces situations. La crise des années 1880 a suscité la grande statistique du travail et de l’emploi. Celle de 1929 a été à l’origine des politiques macroéconomiques keynésiennes et de la comptabilité nationale. La crise des années 1970 a été pensée dans les catégories néolibérales de la microéconomie, et a induit des réformes de l’État centrées notamment sur des indicateurs de performances. Enfin, les deux crises, écologique puis financière, des années 2000 seront peut-être à l’origine de façons radicalement nouvelles de penser et de quantifier l’action publique. Un rappel des façons dont quelques crises plus ou moins anciennes ont été vécues, et de leurs conséquences sur les usages des statistiques publiques, peut être utile pour réfléchir à l’ampleur des transformations qui peuvent résulter de ces deux crises récentes. »

Crises économiques et statistiques, de 1880 à 2010“, ParisTech Review, 30 août 2010.

 




France, Allemagne : pauvreté des non-travailleurs

par Guillaume Allègre

« Les façons de penser la société, de la gérer et de la quantifier sont indissociables »

Alain Desrosières, 1940-2013

Le thème de la pauvreté au travail a émergé en Europe dans le débat public ainsi que dans le champ académique au début des années 2000, parallèlement à la mise en place de politiques visant à rendre le travail « payant ». Les lignes directrices européennes pour l’emploi mentionnent explicitement la nécessité de réduire la pauvreté des travailleurs depuis 2003 et Eurostat a mis en place un indicateur de pauvreté des travailleurs dès 2005 (Bardone et Guio). En France, les politiques visant à rendre le travail payant ont notamment pris la forme de compléments de revenus d’activité  (PPE puis RSA). En Allemagne, un ensemble de réformes du marché du travail et de la protection sociale (Lois Hartz) a été mis en place au début des années 2000 selon une logique d’activation des chômeurs. Les critiques des réformes allemandes insistent souvent sur la prolifération des formes atypiques d’emploi (Alber et Heisig, 2011) : recours au temps partiel, bas-salaires, et mini-jobs sans protection sociale. En France comme en Allemagne, la focalisation sur les travailleurs masque un aspect moins connu de l’évolution de la pauvreté : parmi les individus d’âge actif, c’est la pauvreté des personnes sans emploi (inactifs en France, chômeurs en Allemagne) qui augmente depuis la fin des années 1990.

Le graphique 1 représente l’évolution entre 1996 et 2010 du taux de pauvreté des individus, calculé au seuil de 60 % du niveau de vie médian, selon leur statut d’activité. Deux faits saillants ressortent. Premièrement, la pauvreté touche avant tout les chômeurs : leur taux de pauvreté est d’environ 35 % sur la période. Deuxièmement, les inactifs de plus de 15 ans, ni étudiants, ni  retraités (dit ‘autres inactifs’), soit les chômeurs découragés, et les hommes et femmes (surtout les femmes !) au foyer, constituent la population la plus touchée par l’augmentation de la pauvreté. Alors que leur taux de pauvreté s’élevait à 23 % en 1996, il atteint 32 % en 2010. Dans le même temps, la pauvreté des actifs occupés est passée de 9 % à 8 %. Par conséquent, alors que les actifs occupés représentaient 25 % des pauvres en 1996 et les ‘autres inactifs’ 12 %, ces derniers représentent 17 % de pauvres en 2010 et les actifs occupés 22 %. Le poids des travailleurs pauvres dans la population pauvre tend donc à diminuer, tandis que celui des inactifs augmente.

graph1_GA1902

 

Concernant l’Allemagne, l’analyse du taux de pauvreté par statut d’activité se heurte à des divergences selon les sources, notamment concernant l’évolution de la pauvreté des chômeurs, beaucoup plus marquée selon Eurostat (enquête Eu-Silc) que dans l’enquête nationale SOEP (voir graphique 2). Malgré les incertitudes statistiques, on peut tout de même observer que la pauvreté touche avant tout les chômeurs et que leur taux de pauvreté a beaucoup augmenté : de 30 à 56 % entre 1998 et 2010 selon l’enquête SOEP, généralement considérée comme plus fiable que SILC (Hauser, 2008). Si la pauvreté augmente pour toutes les catégories de population (voir Heyer, 2012), c’est bien chez les chômeurs qu’elle est la plus prononcée.

L’augmentation de la pauvreté chez les chômeurs est la conséquence de certaines mesures des lois Hartz IV, moins connues que celles instituant les mini-Jobs (Hartz II). Avant ces lois, les chômeurs pouvaient recevoir une indemnisation chômage pour une durée maximale de 32 mois, à la suite de laquelle ils pouvaient recevoir une assistance chômage sous condition de ressources pour une durée illimitée (Ochel, 2005). Mais contrairement à l’ASS[i] en France, le montant de cette assistance dépendait des derniers revenus nets d’activité et assurait un taux de remplacement relativement généreux (53 % du revenu net pour les personnes sans enfant). Ce système a été remplacé à partir de 2005 par une indemnisation beaucoup moins généreuse, répondant à un objectif d’activation. L’indemnisation chômage (Arbeitslosengeld I – ALG I) a été limitée à 12 mois pour les chômeurs de moins de 55 ans et les motifs de sanction ont été élargis. A la suite de cette période, l’assistance chômage (Arbeitslosengeld II – ALG II) a été très fortement diminuée et n’agit plus que comme un dernier filet de sécurité : son montant pour un célibataire est limité à 345 euros par mois ; les sanctions ont également été élargies et durcies[ii]. La stratégie allemande d’activation a ainsi joué sur deux leviers : la réduction des revenus d’assistance pour les chômeurs et les sanctions. Si cette politique a peut-être contribué à la baisse du chômage (voir Chagny, 2008, pour une discussion sur les effets controversés de la réforme), elle a eu par construction un impact important en termes de pauvreté des chômeurs.

graph2_GA1902

Un paradoxe qu’il convient d’éclairer est la faible évolution (au moins selon l’enquête SOEP) du taux de pauvreté des individus en emploi depuis le début des années 2000. En effet, durant cette période, la proportion de bas-salaires a progressé et le recours au temps-partiel s’est fortement développé sans que le taux de pauvreté des personnes en emploi n’augmente significativement. En 2010, 4,9 millions de personnes (soit 12 % de la population en emploi) détiennent un mini-job grâce auquel ils ne peuvent recevoir plus de 400 euros par mois de revenus d’activité (Alber et Heisig, 2011). Il faut y ajouter le développement des temps-partiels avec protection sociale (de 3,9 millions en 2000 à 5,3 en 2010). On s’attendrait donc à une progression de la pauvreté des travailleurs. Mais celle-ci est freinée pour deux raisons : le développement des possibilités de cumul avec les allocations chômage (troisième levier de la stratégie d’activation) et les solidarités familiales. En effet, les emplois à temps partiel et à bas salaire sont très majoritairement détenus par des femmes qui représentent ainsi deux tiers des travailleurs à bas salaire annuel[iii]. Le revenu de leur conjoint, lorsqu’elles en ont un, leur permet souvent d’éviter la pauvreté puisque les revenus de tous les membres du ménage sont agrégés afin de déterminer le niveau de vie et la pauvreté. En cela, en paraphrasant Meulders et O’Dorchai, le ménage sert bien de cache-sexe aux faibles revenus des femmes. Les mères isolées, par contre, sont particulièrement touchées par la pauvreté : le taux de pauvreté est ainsi de 40 % chez les familles monoparentales.

Du point de vue des indicateurs, l’utilisation de la catégorie ‘travailleurs pauvres’ pose ainsi plusieurs problèmes. Premièrement, la catégorie masque le chômage et l’inactivité comme déterminants de la pauvreté ; de par son appellation, elle met en avant un déterminant de la pauvreté laborieuse (« le travail ne paie pas ») par rapport aux autres déterminants (« faible nombre d’heures travaillées » ou «charges familiales élevées»). Les politiques publiques s’appuyant sur cette approche courent alors le risque de restreindre le public visé par la lutte contre la pauvreté (en France, les chômeurs indemnisés sont ainsi exclus du bénéfice du RSA-activité) et de se concentrer sur le renforcement des incitations financières à la reprise d’emploi afin de stimuler l’offre de travail alors même que le niveau élevé du chômage est lié à un rationnement du côté de la demande de travail. Deuxièmement, la catégorie est aveugle aux inégalités femmes-hommes : les femmes sont plus souvent pauvres et constituent la plus grande partie des bas-salaires mais sont moins souvent travailleurs pauvres (Ponthieux, 2004) ! Si on ne gère bien que ce que l’on mesure, il est également nécessaire que la mesure soit facilement interprétable par les décideurs publics. La réduction des inégalités de niveau de vie (entre ménages) et de revenus d’activité (entre individus) sont deux objectifs légitimes des politiques publiques (comme expliqué ici), qu’il convient de mesurer séparément, de même qu’il convient d’affecter des instruments spécifiques à ces deux objectifs.

Du point de vue des politiques publiques, l’évolution de la pauvreté par statut d’activité  en France et en Allemagne souligne qu’une lutte efficace contre la pauvreté nécessite de s’attaquer à toutes les formes de la pauvreté. Pour la population d’âge actif, dans des économies où la bi-activité parmi les couples est devenue la norme, il s’agit de mettre en place des politiques de pleine-activité et de plein-emploi qui ne recourent pas au développement de formes de travail atypiques. Ceci requiert, d’un point de vue macroéconomique, de la croissance ou du partage du travail (et des revenus associés) et, d’un point de vue microéconomique, de répondre aux besoins en termes, notamment, de gardes d’enfants, de formation et de transports. Si ces politiques sont coûteuses, les mesures économes, telles que le renforcement des incitations financières, n’ont pas réussi à démontrer qu’elles pouvaient réellement réduire la pauvreté dans son ensemble.

 

 

 


[i] Allocation de solidarité spécifique, versée aux chômeurs ayant épuisé leur droit à l’assurance chômage.

[ii] Au total, 1,5 million de sanctions ont été prononcées en 2009, pour 2,8 millions de chômeurs indemnisés, contre 360 000 en 2004, pour 4 millions de chômeurs indemnisés (d’après Alber et Heisig (2011) : tableaux 6-8 pp. 24-30).

[iii] Défini au seuil de 2/3 du salaire médian.

 




Pourquoi la France a raison (et des raisons) de renoncer à l’objectif des 3% de déficit public pour 2013

par Mathieu Plane

A la suite des déclarations du Ministre de l’Economie et des finances, le gouvernement semble avoir fait le choix de renoncer à atteindre l’objectif de déficit public de 3 % du PIB en 2013. Outre le virement de bord de la politique annoncée jusqu’à présent, qui était celle de ramener « coûte que coûte » le solde public à -3% en 2013, nous pouvons légitiment penser que la France a raison de renoncer à cet objectif et pouvons avancer plusieurs arguments. Si dans ce billet, nous ne revenons pas sur les conséquences économiques liées à la politique budgétaire menée en France et dans la zone euro, dictée par des objectifs de déficit nominaux qui ne tiennent pas compte de la décomposition structurel/conjoncturel et qui présentent un caractère dangereusement pro-cyclique, nous présentons en revanche plusieurs arguments auxquels pourraient être sensibles la Commission européenne :

1 – Selon les derniers chiffres de la Commission européenne du 22 février 2013[1], la France est le pays de la zone euro qui ferait le plus fort ajustement budgétaire en 2013 d’un point de vue structurel (1,4 point de PIB), juste derrière l’Espagne (3,4) et la Grèce (2,6). Et sur la période 2010-2013, la réduction du déficit structurel de la France représente 4,2 points de PIB, ce qui fait de la France le pays de la zone euro, avec l’Espagne (4,6 points de PIB), qui a fait le plus de restriction budgétaire parmi les grands Etats de la zone, devant l’Italie (3,3 points de PIB), les Pays-Bas (2,6) et bien sûr l’Allemagne (1,2) (graphique 1).

2 – En 2007, avant la crise, selon la Commission européenne, la France avait un solde public structurel de -4,4 points de PIB, contre -2,1 pour la moyenne de la zone euro et -0,9 pour l’Allemagne. En 2013, celui-ci atteint -1,9 point de PIB en France, -1,3 pour la zone euro, +0,4 pour l’Allemagne, ce qui représente une amélioration du déficit structurel de 2,5 points de PIB pour la France depuis le début de la crise, soit trois fois plus que la moyenne de la zone euro et deux fois plus que l’Allemagne (tableau 1). Et hors investissement public, le solde public structurel de la France en 2013 est positif et plus élevé que celui de la moyenne de la zone euro (1,2 point de PIB en France contre 0,8 pour la moyenne de la zone euro et 1,9 pour l’Allemagne). Rappelons que la France consacre 3,1 points de PIB à l’investissement public en 2013 (0,2 point de moins qu’en 2007) contre seulement 2 points en moyenne dans la zone euro (0,6 point de moins qu’en 2007) et 1,5 en Allemagne (équivalent à 2007). Or l’investissement public, qui a des effets positifs sur la croissance potentielle, et qui a pour contrepartie d’augmenter les actifs publics, ne modifiant ainsi pas la situation patrimoniale des administrations publiques, peut raisonnablement être exclu du calcul de solde public structurel.

3 – En 2013, le déficit public, même à 3,7 % du PIB selon la Commission européenne, retrouve un niveau proche de celui de 2008, similaire à celui de 2005, inférieur à celui de 2004 et à toute la période 1992-1996. Le chiffre de déficit public attendu pour 2013 correspond à la moyenne observée sur les trente dernières années, ne faisant plus figure de situation exceptionnelle, ce qui desserre la pression que pouvait subir la France vis-à-vis des marchés financiers. A l’inverse, selon la Commission européenne, le taux de chômage de la France en 2013 atteindrait 10,7 % de la population active et devrait être très proche de son pic historique de 1997 (graphique 2). Avec un taux de chômage en 2013 supérieur de 1,3 point à la moyenne des trente dernières années, la situation exceptionnelle se situe désormais plus du côté du marché du travail que du côté du solde public. Si de nouvelles mesures d’austérité permettraient de réduire péniblement le déficit public, en raison de la valeur élevée du multiplicateur budgétaire à court terme, elles conduiraient en revanche à dépasser largement notre pic historique de chômage. En effet, comme nous l’avons montré dans notre dernière prévision d’octobre 2012, si la France cherche à respecter « coûte que coûte » son engagement budgétaire pour 2013, il faut un nouveau tour de vis budgétaire de plus de 20 milliards d’euros, en plus des 36 milliards d’euros programmés, qui conduirait à une récession de -1,2 % du PIB et 360 000 destructions d’emplois (au lieu d’une croissance prévue à 0 % et environ 160 000 destructions d’emplois) débouchant sur un taux de chômage à 11,7 % de la population active fin 2013.

Pour redresser ses comptes publics depuis 2010, la France a donc fait un effort budgétaire historique, bien supérieur à la moyenne de ses partenaires européens, ce qui lui a coûté en termes de croissance et d’emploi. Rajouter une couche d’austérité en 2013 à une austérité déjà historique nous conduirait tout droit vers la récession et une dégradation sans précèdent du marché du travail pour cette année. Si on a le choix, quelques dixièmes de points de déficit public en moins valent-ils un tel sacrifice ? Rien n’est moins sûr. Il paraît donc incontournable de reporter l’objectif de réduction du déficit public à 3 % du PIB au moins à 2014.

 

 

 


[1] Nous avons une évaluation différente de la mesure du déficit public structurel. Par exemple, pour 2013, nous évaluons l’amélioration du solde public structurel de la France à 1,8 point de PIB mais pour ne pas biaiser l’analyse nous retenons les chiffres fournis par la Commission.




Et si les élections italiennes se révélaient une opportunité pour l’Europe ?

par Francesco Saraceno

Aujourd’hui l’Europe entière, inquiète, s’interroge sur les résultats des élections législatives italiennes. La coalition de centre gauche a obtenu une très courte majorité  – à cause d’une loi électorale décriée par tous mais qu’on n’a pas su ou pas voulu modifier – qui  ne lui donne la majorité absolue des sièges qu’à la Chambre des Députés. En raison de l’attribution de primes de majorité sur base régionale, au Sénat aucune coalition n’a la majorité. Or en Italie s’applique un système bicaméral parfait, si bien qu’en l’état, il n’y a pas de possibilité de créer un gouvernement issu d’une majorité politique. Ce billet explore un possible scénario pour les prochaines semaines et ses conséquences économiques sur l’Italie et sur l’Europe.

Mise à part la spectaculaire remontée de Silvio Berlusconi, dont l’objectif affiché était dès le début d’empêcher la victoire de la gauche plutôt que de s’assurer d’une majorité, les deux résultats éclatants de ce scrutin sont d’un côté la défaite du Premier ministre sortant, Mario Monti, et de l’autre l’avancée du mouvement Cinque Stelle de l’ancien comédien Beppe Grillo, qui devient aujourd’hui le premier parti à la Chambre des députés.

La défaite de Mario Monti représente un désaveu cinglant des politiques d’austérité que les citoyens italiens perçoivent comme imposées par l’Europe et par l’Allemagne. Lundi, dans le New York Times, Paul Krugman le qualifiait de « proconsul installé par l’Allemagne pour imposer l’austérité budgétaire à une économie déjà en perte de vitesse ». Mario Monti, appelé en novembre 2011 au chevet d’un pays essoufflé par le gouvernement Berlusconi, n’a pas su proposer autre chose que des politiques d’austérité qui, sans surprise, n’ont pas livré la croissance promise.  L’approbation dont l’ancien commissaire européen jouissait initialement s’est lentement érodée au fur et à mesure de la perte de mémoire des problèmes entourant la fin de règne de Berlusconi, et surtout au fur et à mesure que l’Italie s’enfonçait dans la crise économique. Mario Monti espérait certainement être déterminant dans la formation d’une majorité au Sénat, et donc pouvoir négocier sa reconduction comme Premier ministre. Mais son pari a échoué et il est aujourd’hui condamné à l’insignifiance numérique.

Au contraire, Beppe Grillo a obtenu un succès éclatant, un raz-de-marée qui le pose en arbitre de la formation d’un nouveau gouvernement.  Grâce aussi à une campagne électorale magistrale, jouée sur tous les médias et dans la rue, son mouvement est le premier parti à la Chambre et au Sénat dans plusieurs régions. Il a réussi à capter l’exaspération des Italiens contre « la casta » des politiques, et il a rassemblé presque neuf millions de votants sur une campagne qui a puisé dans le populisme de droite (par exemple ses propos sur l’immigration ou ses propos anti-euro, qu’il a énoncés à quelques reprises, mais qu’on ne retrouve pas dans son programme). Il a aussi mis l’accent sur des thèmes traditionnellement de gauche comme le refus de l’austérité,  l’environnement, la réduction du temps de travail, le revenu minimum de citoyenneté, ou encore la régulation des conflits d’intérêt, la durée limitée et le non-cumul des mandats électoraux, ou l’inéligibilité de celles et ceux condamnés par la justice.

Que va-t-il se passer dans les prochaines semaines ? L’Europe entière se le demande et les premières réactions des marchés semblent trahir une certaine nervosité à l’égard des évolutions futures.

Pour des raisons institutionnelles, un nouveau vote à brève échéance doit être écarté. Le Président Giorgio Napolitano, en fin de mandat, ne peut pas dissoudre le Parlement ; il faudra donc attendre le mois de mai et son successeur (qui sera élu par le Parlement issu du vote d’hier)  pour accéder à cette option. Par ailleurs, Il n’est pas certain que le Parlement issu d’un nouveau vote soit capable d’exprimer une majorité politique.

La loi électorale majoritaire livre au Parti démocratique la majorité absolue des sièges de la Chambre des Députés, ce qui le rend incontournable dans la formation d’un nouveau gouvernement. Ceci permet d’envisager seulement deux scénarios : tout d’abord, une grande coalition entre gauche et droite (avec ou sans le parti de Mario Monti). Ceci semble pourtant improbable, premièrement à cause du fossé idéologique entre les deux partis, accentué par le retour de Silvio Berlusconi ; et ensuite parce que cela serait perçu par les électeurs comme un déni du résultat du vote, qui a vu les deux grands partis perdre plus de onze millions de voix depuis l’élection de 2008.

La deuxième solution serait un gouvernement de minorité de centre-gauche, qui pourrait aller chercher les voix chez les élus de Beppe Grillo sur un programme limité en ampleur et en durée.  Cela vaut donc la peine de regarder quelles seraient, dans cette hypothèse, les possibilités d’une convergence entre le mouvement Cinque Stelle (dont le programme, en italien, peut être téléchargé ici)  et la coalition de Pierluigi Bersani. Il y aurait certainement un consensus sur des mesures très populaires pour faire face à la crise politique en cours (abolition des provinces, limite des mandats parlementaires, non cumul, inéligibilité, réductions des coûts de l’appareil politique, …), et pour corriger les anomalies les plus éclatantes des deux décennies berlusconiennes (des réformes sur le conflit d’intérêt et sur la corruption, réforme de la justice).

L’aile environnementaliste du centre-gauche pourrait aussi trouver des convergences sur des mesures d’incitation aux économies d’énergie et sur l’investissement dans les énergies renouvelables.

En économie, certaines des mesures phare de Beppe Grillo pourraient aussi être l’objet de convergences avec le centre-gauche, par exemple l’adoption d’un revenu de citoyenneté ou d’un salaire minimum, des thèmes qui, comme l’a prouvé le débat français, ne sont pas forcément populistes ou irréalistes.

La convergence entre le centre-gauche et Beppe Grillo pourrait difficilement se faire dans le cadre actuel de consolidation budgétaire ; il faudrait donc une remise en cause préalable d’une austérité désavouée par les électeurs, il convient de le répéter. Ceci ne se ferait pas sans problèmes pour le Parti démocratique qui, comme le Parti socialiste en France, a fait le choix de la rigueur. Une négociation avec le mouvement Cinque Stelle impliquerait l’abandon des politiques d’austérité sur lesquelles le Parti démocratique a toujours eu une position ambiguë. Mais, à son tour, cette solution aurait des conséquences sur l’Europe dans son ensemble.  Les gouvernants européens pourraient être confrontés, dans les prochaines semaines, ou bien à une absence de gouvernement dans la troisième économie de la zone euro, ou à un gouvernement qui vraisemblablement abandonnerait les politiques d’austérité. L’Europe pourrait alors être obligée de repenser ses propres stratégies économiques, et quelques pays pratiquant la rigueur à contre cœur (comme la France ?) pourraient en profiter pour remettre en cause le modèle de la croissance par l’austérité.




Fiscalisation des allocations familiales, est-ce le bon débat ?

Pour une redéfinition du contenu et des contours de la politique familiale

par Hélène Périvier et François de Singly

Le débat s’ouvre à nouveau sur la fiscalisation des allocations familiales. Face au déficit de la branche famille, environ 2,5 milliards d’euros en 2012, cette idée resurgit pour renflouer les caisses qui se vident sous l’effet, notamment, de la crise économique. Le débat oppose souvent une logique comptable visant à combler au plus vite les déficits à une logique conservatrice en matière de politique familiale… Ce post propose une perspective plus large qui dépasse cette approche binaire de la question…

 

De l’équilibre de la branche famille …

Dans la période actuelle, la question budgétaire relève de la quadrature du cercle : moins de rentrées fiscales et plus de dépenses sociales du fait de la crise économique. La tentation est grande de résoudre cette équation en réduisant les dépenses sociales pour rattraper la baisse des recettes. C’est dans ce contexte que resurgit la proposition de soumettre les allocations familiales à l’impôt sur le revenu.

Pendant les crises économiques, le rôle de stabilisateur automatique joué par la protection sociale, y compris la politique familiale, est fondamental. Elle  limite les effets de la crise sur le niveau de vie des personnes les plus exposées, et permet donc également de contenir l’accroissement des inégalités. En soutenant le revenu des ménages, elle évite un effondrement de l’activité économique. En période de conjoncture économique dégradée comme celle que nous connaissons actuellement, réduire les dépenses sociales n’est pas souhaitable et peut être contre-productif macro-économiquement.

Pour autant, rechercher l’équilibre budgétaire à moyen ou long terme de la branche famille n’est pas absurde, car c’est aussi un gage de la pérennité de l’action publique en matière d’aide aux familles. Le déficit de la branche famille s’élève à 2,5 milliards d’euros. Mais il est essentiellement le fait de la crise et des moindres recettes qui en découlent, il est donc conjoncturel. Mécaniquement, la branche famille devrait retrouver l’équilibre à législation constante d’ici quelques années et si la croissance économique revient (les hypothèses reposent sur un taux de croissance de 2% par an à partir de 2014). Il restera une dette issue de l’accumulation d’un déficit sur plusieurs années à partir de 2012[1], qui pourrait être purgée progressivement par les excédents qui seraient dégagés après le retour à l’équilibre. Si la croissance ne revient pas, ou pas aussi vite qu’attendu, la perspective change, et on peut s’interroger sur une redistribution de l’enveloppe allouée aux prestations familiales ou sur son niveau. La CNAF verse plus de 12 milliards d’euros d’allocations familiales[2], indépendamment du niveau de revenu des parents. Les familles de deux enfants reçoivent 127 euros par mois pour deux enfants et 163 euros par enfant supplémentaire. Ces prestations familiales ne sont pas imposées. Leur fiscalisation réduirait le montant des prestations nettes d’impôt versées aux familles, ceci de façon progressive avec le revenu. Ce faisant, un gain fiscal de l’ordre de 800 millions d’euros serait dégagé. Il peut paraître plus équitable que les familles ayant des revenus élevés participent davantage à l’effort lié aux restrictions budgétaires que les familles aux revenus plus faibles. Mais cette question est plus complexe qu’il n’y paraît.

La fiscalisation de ces prestations familiales peut être vue comme un moyen de compenser la perte de progressivité du système fiscal qui s’est opérée au fil des années, du fait principalement de la baisse des taux marginaux d’imposition de l’impôt sur le revenu, et ainsi de le rendre plus équitable. Mais cette réponse n’est qu’une course au moins disant social. Cette dynamique est une fuite en avant de notre Etat social, qui conduit à en réduire le périmètre d’action.

La fiscalisation des allocations familiales réduit le niveau des transferts des ménages sans enfants vers les ménages avec enfants, autrement dit cela porte atteinte au principe d’équité horizontale. Certes, elle permet aussi en particulier d’augmenter le niveau des transferts des familles avec enfants les plus aisées vers les moins aisées. Mais pour renforcer globalement le degré de redistribution verticale (c’est-à-dire pour augmenter le niveau de transferts des ménages les plus riches vers les plus pauvres), il faut accroître la progressivité du système fiscal, ce qu’ont d’ailleurs permis les derniers ajustements fiscaux (introduction d’une tranche à 45 % notamment). Dans ce contexte, on pourrait donc conserver l’universalité des allocations familiales, qui présente l’avantage de conforter l’adhésion des ménages ayant des revenus élevés au principe de l’Etat social : ils paient plus d’impôts, mais ils reçoivent le même montant d’allocations familiales lorsqu’ils ont des enfants.

La fiscalisation des allocations familiales n’est pas un simple ajustement de la politique familiale, mais elle touche à ses valeurs et notamment au principe d’équité horizontale. S’il convient de repenser les objectifs d’une politique familiale, aujourd’hui dépassée à bien des égards, comme nous le développons dans la section suivante, la période actuelle n’est probablement pas adéquate pour mener sereinement un tel débat car l’urgence, et la volonté de retrouver des marges de manœuvre budgétaires, vont conduire à l’adoption d’une vision de court terme alors même que la politique familiale s’inscrit dans le long terme.

… à une politique familiale équilibrée

Pour autant, il ne faudrait pas que ce débat sur la pertinence de la fiscalisation des allocations familiales conduise à un immobilisme en la matière. Les principes de la politique familiale actuelle ont été posés à partir d’une vision de la société qui prévalait il y a plus de 70 ans. Même si des ajustements ont été réalisés, ces principes sont toujours présents. Les objectifs d’hier ne sont pas les défis demain. Ainsi, renégocier les fondements des politiques familiales est indispensable. Comment réorienter l’action de l’Etat social vers les familles ? Quelle boussole suivre ? C’est à cette question qu’il nous faut répondre.

L’un des objectifs de la politique familiale actuelle est le soutien de la natalité. Les aides s’accroissent avec le rang de l’enfant comme par exemple l’attribution d’une demi-part fiscale supplémentaire par enfant à partir du troisième enfant.  S’agissant de redéployer les dépenses de la politique familiale, la suppression de cette demi-part fiscale devrait être au 1er rang des propositions visant le rééquilibrage des comptes. De même, les allocations familiales ne sont versées qu’à partir du deuxième enfant. La France est l’un des seuls pays européens à ne pas accorder d’allocation familiale dès le premier enfant. Le dynamisme de la fécondité en France n’est pas le fruit de ces attributs natalistes de la politique familiale, mais il tient davantage au soutien de l’activité des femmes ayant des enfants : l’école maternelle, l’accueil périscolaire, l’accueil de la petite enfance, mais aussi valorisation de l’activité professionnelle des mères (et non sa stigmatisation comme c’est le cas en Allemagne). La politique familiale doit être redirigée vers un objectif reposant sur les droits de chaque enfant quel que soit son rang de naissance. Elle doit être centrée sur la citoyenneté sociale de l’individu (c’est-à-dire un mode d’acquisition de droits sociaux plus individuel) de sa naissance à sa mort (en tenant compte de l’allongement de la durée de la vie).

Une politique familiale renouvelée serait porteuse du principe d’égalité entre les enfants et d’égalité entre femmes et hommes avec notamment une refonte des aides à la petite enfance, un accroissement massif des modes de garde associé à une modification du congé parental. Il faudrait dépenser environ 5 milliards par an supplémentaires pour résoudre cette question de l’accueil de la petite enfance. En outre, la dernière publication de l’OCDE, Regards sur l’éducation 2012, montre que la France est un pays dans lequel la réussite scolaire des enfants est fortement corrélée avec le niveau de diplôme des parents. Enfin, le niveau du taux de pauvreté des enfants est préoccupant. Ce sont là des défis majeurs auxquels il nous faut répondre.

La montée des unions libres, mais aussi des divorces (plus généralement des séparations) et les recompositions familiales sont le signe d’une plus grande liberté individuelle de choix de vie, ce qui constitue une avancée dans le fonctionnement de notre société. Mais les séparations s’accompagnent souvent d’une baisse du niveau de vie et sont parfois inaccessibles financièrement pour les individus ayant de faibles revenus. En outre, les conséquences économiques des ruptures de couple pèsent davantage sur les femmes que les hommes[3]. Les familles monoparentales, le plus souvent des mères qui ont la charge de leurs enfants, sont davantage exposées à la pauvreté que les autres types de ménages. Une politique familiale plus conforme aux nouvelles formes de vie, qui accompagnerait sur le cycle de vie les modifications des structures des familles est à penser.

Il est nécessaire de redéfinir le contenu et les contours de la politique familiale pour demain mais la volonté de retrouver l’équilibre des comptes sociaux ne peut pas en être le seul moteur. Il faut cesser de penser le changement sur un mode étriqué car il faut réformer le système dans ses fondements en fonction des nouveaux besoins et autour des principes de justice et des solidarités qui fondent notre Etat social.


[1] La dette de la branche famille en 2011 a été transférée à la Caisse d’amortissement de la dette sociale, la CADES (loi organique 2010-1380).

[2] Ce qui représente environ 15 % du montant total des prestations versées par la branche famille.

[3] Jeandidier Bruno et Cécile Bourreau-Dubois, 2005, « Les conséquences microéconomiques de la désunion », In Joël M.-E. et Wittwer J. Economie du vieillissement. Age et protection sociale, Ed. L’Harmattan,, tome 2, pp. 335-351.




Loi de séparation bancaire : symbole politique ou nouveau paradigme économique ?

par Céline Antonin et Vincent Touzé

Imprudence, aléa moral et engrenage systémique ont été les maîtres-mots de la crise bancaire. Mécontents de n’avoir eu d’autre choix que de venir à la rescousse des banques, les gouvernements tentent aujourd’hui de reprendre le contrôle et d’imposer de nouvelles réglementations. La plus emblématique d’entre elles concerne la séparation des activités de marché (trading pour compte propre ou compte de tiers) des autres activités bancaires (dépôts, crédits, conseil stratégique et financier, etc.). L’avantage attendu d’une séparation est une plus grande étanchéité entre les activités. Cette dernière pourrait protéger les épargnants en cas de mauvaises opérations des banques sur les marchés financiers. Le 19 février 2013, le Parlement français a voté une loi de séparation bancaire. Malgré des objectifs initiaux ambitieux, la séparation sera partielle puisque seules les activités financières en compte propre seront filialisées. Concernant moins de 1 % des revenus bancaires, cette mesure a un caractère plutôt symbolique. Toutefois, en inscrivant un principe de séparation dans la loi, l’Etat montre sa volonté d’être un superviseur plus actif.

 

L’idée de cloisonner les activités bancaires n’est pas nouvelle. Au lendemain de la crise de 1929, les Etats-Unis adoptèrent le Glass Steagall Act (1933), obligeant à une stricte séparation entre banques commerciales (spécialisées dans les activités de crédit et de gestion des dépôts) et banques d’affaires (spécialisées dans les activités financières) ; la France leur emboîta le pas avec la loi bancaire[1] de 1945. Les avantages attendus d’une séparation bancaire sont doubles. D’une part, les dépôts des clients seraient mieux protégés, car ils ne pourraient plus être sollicités pour éponger les éventuelles pertes de l’activité de marché ; d’autre part, en cas de faillite, l’aide de l’Etat serait limitée, car seule la partie banque de détail des établissements bénéficierait d’une garantie publique.

Quarante ans plus tard, à la faveur du grand mouvement de dérégulation des années 1980-1990, la France fut l’une des premières à abolir la distinction avec la loi bancaire de 1984, posant ainsi le principe de banque universelle. Ce principe conduit à regrouper les activités à fort besoin de liquidité (financement de l’économie) avec celles qui permettent de recueillir la liquidité (activités de dépôts). Ce regroupement présente l’indéniable mérite d’offrir une plus grande solidité financière aux banques. D’autres avantages en découlent : l’effet de levier se trouve renforcé ; le facteur taille conduit à des économies d’échelle ; la capacité d’internationalisation permet aux banques de rentrer dans la catégorie « too big to fail ». Outre-Atlantique, ces arguments ont certainement joué en faveur de l’abolition du Glass Steagall Act en 1999 par l’administration Clinton.

A partir de 2008, les banques ont subi plusieurs chocs : crise des subprimes, chute des valeurs financières, baisse de la croissance économique et crainte d’insolvabilité des dettes souveraines (pour les banques de la zone euro). Ces chocs ont montré que certains avantages de la banque universelle pouvaient se transformer en inconvénients dès lors que le levier financier avait été utilisé de façon trop systématique et que des banques de grande taille en situation difficile faisaient peser un risque systémique. De nombreuses voix vont alors plaider pour un nouveau Glass Steagall Act, voyant dans la séparation entre activités de marché[2] et autres activités bancaires, un moyen de se prémunir contre les crises bancaires d’ampleur. Les activités en compte propre concentrent l’essentiel des dysfonctionnements des banques : prise de risque inconsidérée et quelques cas de traders « fous »[3]. Par conséquent, ce compartiment fait, aujourd’hui, l’objet d’une attention accrue de la part des régulateurs.

Le Dodd–Frank Wall Street Reform and Consumer Protection Act[4] adopté aux Etats-Unis en 2010 n’instaure pas une séparation bancaire stricto sensu mais reprend la « Volcker rule » qui interdit aux banques de « jouer » avec l’argent des déposants, ce qui conduit à une quasi-interdiction des activités de spéculation pour compte propre des entités bancaires ainsi que d’investissement dans les fonds spéculatifs (hedge fund) ou d’investissement privés (private equity fund). Au-delà de cette règle, cette loi est aussi une vaste réforme en faveur d’une réglementation accrue de l’ensemble des agents financiers (banques, assurances, hedge funds, agences de notation, etc.) ainsi que d’une plus grande surveillance des risques systémiques.

L’Europe envisage à son tour de légiférer sur la séparation bancaire. A la demande du commissaire européen Michel Barnier, le groupe d’experts dirigé par le gouverneur de la Banque centrale de Finlande, Erkki Liikanen, a remis un rapport le 2 octobre 2012. Ce dernier préconise  un cloisonnement bancaire strict[5] mais revient aussi sur les rémunérations des dirigeants et des traders, dont les modalités actuelles pourraient être de véritables « pousses au crime » en matière de spéculation à outrance, afin de les rendre plus compatibles avec des objectifs de long terme. Si ce rapport est transformé en directive européenne, cette dernière devra alors faire l’objet d’une retranscription en droit national dans chaque Etat membre. Cependant, la démarche européenne risque fort d’être devancée par les processus législatifs de plusieurs pays européens. En Allemagne, un projet de loi de régulation bancaire[6] vient d’être présenté par le gouvernement le 6 février 2013, et pourrait entrer en vigueur en janvier 2014 (pour une mise en œuvre d’ici juillet 2015). Le Royaume-Uni s’est illustré en 2011 avec la publication du rapport Vickers[7], mais le gouvernement britannique ne semble pas pressé de mettre ces recommandations en œuvre avec une probable échéance 2019. La France n’est pas en reste avec la « loi de séparation et de régulation des activités bancaires ».

 

UN PROJET DE LOI FRANÇAIS MODESTE…

 

La loi française comporte plusieurs volets. En plus de l’inclusion d’un principe de séparation, elle prévoit aussi des mesures de protection du consommateur bancaire ainsi que le renforcement de la surveillance et du contrôle des banques, à travers plusieurs mesures :

–          Chaque établissement bancaire sera obligé d’élaborer un plan préventif de rétablissement[8] en cas de crise, et de résolution en cas de défaillance (testament bancaire). Le plan de résolution sera soumis à l’appréciation de l’Autorité de contrôle prudentiel (ACP), qui devient Autorité de contrôle prudentiel et de résolution (ACPR).

–          Le Fonds de garantie des dépôts devient fonds de garantie des dépôts et de résolution, et voit sa capacité d’intervention augmentée pour pouvoir intervenir en cas de défaillance d’une banque.

–          La surveillance macro-prudentielle est renforcée, avec l’instauration du Conseil de la stabilité financière.

–          Les droits du consommateur bancaire sont renforcés (transparence sur le coût de l’assurance emprunteur, libre choix de l’assurance emprunteur, droit à un compte bancaire, etc.).

 

Cependant la mesure-phare de la réforme reste la séparation entre « activités utiles à l’économie » et activités spéculatives. Les établissements bancaires devront cantonner leurs activités dites « pour compte propre » dans une filiale ad hoc, soumise à une régulation spécifique et financée de manière autonome. Ces filiales auront interdiction de pratiquer certaines activités spéculatives jugées « trop risquées ou qui peuvent être nuisibles à l’économie ou à la société », comme celles portant sur les marchés de produits dérivés ayant comme sous-jacent les matières premières agricoles et le trading à haute fréquence. Seront néanmoins épargnées de nombreuses activités, comme  la fourniture de services aux clients, l’activité de tenue de marché, la gestion de trésorerie, les opérations d’investissement ou la couverture par l’établissement de ses propres risques.

Cette loi de cloisonnement bancaire, présentée au départ comme ambitieuse, sera finalement d’un impact limité. Le modèle de banque universelle n’est pas remis en question. L’aveu du PDG de la Société Générale ne peut être plus clair[9] : moins de 1 % des revenus seraient concernés. On est donc loin du retour au cloisonnement bancaire d’avant 1984. Le critère de cantonnement est ambigu. En effet, la frontière est poreuse entre la couverture du risque et la pure spéculation : la loi avance un principe flou de « pertinence économique », et les banques pourraient être tentées de jouer sur ce vide juridique. Quant à la tenue de marché[10], il est difficile de faire la différence entre les activités spéculatives pour compte propre, qui devront être filialisées, et les activités permettant au marché de rester liquide : le trading à haute fréquence est ainsi le plus souvent pratiqué sous couvert d’accords de tenue de marché, donc la loi risque d’être un coup d’épée dans l’eau si le statut de teneur de marché n’est pas plus précisément défini[11].

La loi prévoit également d’interdire au groupe bancaire de détenir des parts d’un fonds spéculatif de type hedge fund. Or, les crédits accordés par les banques aux fonds spéculatifs sont toujours accompagnés de garanties. De ce point de vue, la loi aura également un faible impact.

 

… MAIS POUVAIT-ON ALLER PLUS LOIN ?

 

Trouver un autre paradigme économique pour le modèle bancaire est un exercice complexe. En pratique, une séparation bancaire pure et simple n’est pas sans inconvénient et, de façon générale, les limites aux réformes bancaires sont nombreuses.

Tout d’abord, limiter, voire priver, les banques d’investissement d’un accès aux dépôts comme source de liquidité les conduirait à un financement par endettement accru, ce qui pourrait être difficile à concilier avec les contraintes liées à la réglementation prudentielle Bâle III. Cette dernière vient d’être mise en place au 1er janvier 2013. Elle est déjà très exigeante en matière de fonds propres.

Ensuite, il est important de noter que le risque bancaire n’est pas seulement inhérent aux activités de marché. Les contre-exemples récents sont nombreux. L’activité de crédit immobilier a été une source importante de risque : en Espagne, la chute des prix immobiliers et l’insolvabilité des emprunteurs ont mis les banques en quasi-faillite ; aux Etats-Unis, la crise des subprimes est une crise du crédit immobilier qui a affecté les marchés grâce à des mécanismes sophistiqués de titrisation qui ont permis aux banques de sortir le risque de leur bilan (du moins en apparence) ; au Royaume-Uni, la Northern Rock est une banque de détail spécialisée dans les crédits immobiliers qui a subi de plein fouet la crise de liquidité et la crise immobilière. Dans une certaine mesure, les banques universelles ont joué un rôle important pour sauver les banques trop spécialisées : par exemple, JPMorgan Chase (universelle) a repris Washington Mutual (caisse d’épargne) et Bear Stearns (affaires), et Bank of America (universelle) a secouru Merrill Lynch (affaires).

De plus, la séparation est censée rendre plus étanches les activités bancaires. Mais, que se passera-t-il si la filiale qui gère la spéculation pour compte propre fait faillite et engendre de lourdes pertes pour la maison mère? Par le passé, deux des quatre principaux groupes français, BPCE et Crédit Agricole, ont déjà isolé leurs activités de marché dans leurs filiales respectives, Natixis et Cacib, et ont dû venir à leur rescousse en 2008 et 2011 respectivement. L’isolation semble donc très perméable.

Dans un contexte de globalisation financière, la compartimentation risque de ne jamais être effective. La finance globalisée permet, en principe, de tout interconnecter. C’est notamment le rôle des marchés interbancaires[12].

En pratique, il semble difficile pour un gouvernement de réformer, sans coordination avec les autres Etats, son secteur bancaire. Les banques nationales ont des filiales étrangères qui pourraient ne pas être soumises à cette réglementation. Et surtout, les banques étrangères concurrentes pourraient afficher une meilleure rentabilité, ce qui affaiblirait la compétitivité des banques nationales. Au niveau européen, les intérêts nationaux diffèrent et chacun pourrait être tenté d’imposer son projet de loi. Si le rapport Liikanen est transformé en directive, chaque Etat membre aura l’obligation de la retranscrire en droit national. Pour l’instant, les législations de l’Allemagne et de la France prennent de l’avance. Il est possible que ces changements influencent une éventuelle directive future.

A trop vouloir compartimenter, on risque aussi de reporter les interconnections vers des échelons moins visibles. Il ne faudrait pas tomber dans le piège d’une dangereuse illusion : on pense avoir éliminé un risque, en réalité, on l’a juste déplacé.

Enfin, trop de réglementation peut parfois tuer la réglementation. Dans le domaine financier, les contraintes réglementaires peuvent servir de support de spéculation. Ainsi, lorsqu’une banque a des difficultés pour respecter certaines contraintes réglementaires, les marchés sont particulièrement encouragés à spéculer pour provoquer et profiter de la défaillance. La prudence est donc de mise avant d’introduire de nouvelles réglementations.

A vouloir être trop strict sur l’application d’un principe de séparation, on pourrait aussi être amené à ne pas soutenir une banque d’affaires qui fait face à d’importants problèmes de liquidité. Pourtant, selon le principe « too big to fail », une telle décision n’est pas toujours judicieuse. Ne pas avoir soutenu Lehman Brothers est une punition qui a eu des effets collatéraux considérables et durables. Cette faillite a affecté toute la sphère économique et financière.

On notera au passage qu’une réglementation bancaire et financière interprétée comme un remède miracle peut avoir des effets délétères en matière de responsabilité individuelle et collective. On attend tout de la loi et on pense qu’elle résout tout. En même temps, il est très vraisemblable que les vecteurs de la prochaine crise financière réussiront à contourner les contraintes réglementaires, d’où l’importance pour les autorités de contrôle de rester vigilantes et d’adopter en permanence une analyse critique.

 

DEPASSER LE SYMBOLE POLITIQUE

Les marges de manœuvre du gouvernement pour séparer les activités bancaires sont indéniablement limitées car trop réglementer pourrait s’avérer inefficace, voire dangereux. Par conséquent, cette loi de séparation bancaire n’est pas radicale et aura une portée modérée sur les banques. D’un côté, le gouvernement peut avoir la bonne conscience d’avoir fait quelque chose à l’instar de ses homologues étrangers. D’un autre côté, les banquiers ne sont probablement pas mécontents de donner le sentiment d’avoir servi, et surtout à moindres frais, l’intérêt général.

Certains n’y verront qu’un piètre symbole politique. D’autres chercheront à voir au-delà avec l’espoir que cette réforme soit perçue comme un signal fort adressé au monde bancaire. L’espoir ne sera peut-être pas vain puisque le principe de séparation est désormais inscrit dans la loi et un gouvernement futur aura tout loisir de le durcir.

En pratique, un changement de paradigme économique, qui conduirait à la raréfaction des spéculations dommageables, ne peut résulter d’une simple séparation des activités. Les lois bancaires ne doivent pas être trop compliquées car le diable a tendance à se cacher dans le détail. Les autorités de contrôle doivent en permanence conserver un regard critique sur le fonctionnement des marchés et la loi doit leur donner une certaine souplesse d’initiative pour définir quand et comment elles peuvent intervenir. Sur ces sujets, la déclaration de Volcker en 2011 est sans ambiguïtés[13] : « J’aurais écrit un projet de loi beaucoup plus simple. J’aurais adoré voir un projet de loi de quatre pages qui interdit le trading pour compte propre et qui rend le conseil d’administration et le directeur général responsables de la mise en conformité. Et j’aurais voulu des régulateurs forts. Si les banques ne s’étaient pas conformées à l’esprit de la loi, elles les auraient eu à leurs trousses ». De nombreuses mesures visant à responsabiliser les professionnels de la finance (dirigeants et opérateurs de marchés) méritent également d’être étudiées. A ce titre, le rapport Liikanen propose de revoir les modes de rémunération des dirigeants et financiers des banques afin de les rendre plus compatibles avec une vision de long terme. La piste d’une responsabilité pénale[14] accrue des dirigeants du monde financier doit également être explorée. On peut également s’interroger sur la perméabilité des carrières professionnelles du secteur régulateur vers le secteur régulé. Dans ce domaine, il y a sûrement matière à rendre plus étanche le système. L’histoire récente n’a-t-elle pas montré qu’il était possible d’être tour à tour Président de la Fed puis conseiller avisé d’un riche et puissant hedge fund


[1] La loi 45-15 du 2 décembre 1945 instaurait la spécialisation des institutions financières en classant les banques en trois catégories : les banques de dépôts, les banques d’affaires, les banques de crédit à long terme et à moyen terme (articles 4 et 5).

[2] La gestion d’actifs peut être exercée :

– soit pour compte propre (proprietary trading) : la banque achète ou vend des instruments financiers, financés directement par ses ressources. Ces ressources n’incluent pas seulement les fonds propres de la banque, mais aussi les dépôts des épargnants et les emprunts. Cela veut donc dire que, outre les fonds propres, les autres strates de financement de la banque, notamment les dépôts de la clientèle supportent indirectement un risque.

– soit pour compte de tiers (non proprietary trading) : contrairement à la gestion pour compte propre, les risques de crédit et de marché sont principalement pris par le client. Mais, sur certains produits, la banque peut toutefois supporter d’importants risques opérationnels.

[3] http://lexpansion.lexpress.fr/economie/trading-pour-compte-propre-la-face-cachee-des-banques_233686.html.

[4] Le titre VI de la loi propose d’améliorer la régulation et est considéré comme une application de la « Volcker Rule », http://useconomy.about.com/od/criticalssues/p/Dodd-Frank-Wall-Street-Reform-Act.htm.

[5] Le rapport recommande une séparation des activités de marché pour compte propre mais aussi de certaines activités sur les marchés financiers et de produits dérivés pour compte de tiers.

[6] L’Allemagne prépare aussi un projet de loi, dans lequel les banques allemandes seront contraintes d’isoler leurs activités pour compte propre. Comme en France, le modèle de banque universelle ne sera pas remis en question. http://m.lesechos.fr/redirect_article.php?id=reuters_00495696&fw=1.

[7] Le rapport Vickers de septembre 2011 préconise un cloisonnement des activités de banque de détail et d’investissement, via une filialisation de l’activité banque de détail, complétée par une exigence de fonds propres de 10 % pour les banques de détail. Le gouvernement britannique s’est engagé à introduire ces réformes dans la loi en 2015, pour une mise en œuvre prévue d’ici 2019.

[8] Ce plan présente les différentes modalités possibles de rétablissement (recapitalisation, plan d’économie, restructuration, etc.) et doit exclure tout appel à un soutien financier public.

[9] « Nous estimons que, si en 2006-2007, 15 % des activités relevaient des activités de marché, parmi lesquelles 15 % à 20 % pouvaient être classées comme déconnectées de la clientèle, et par  conséquent transférées à une filiale, cette proportion est désormais inférieure à 10 %, se situant autour de  3,5 % à 5 % en moyenne », Frédéric Oudéa, 30 janvier 2013, audition devant la Commission des Finances de l’Assemblée nationale, http://www.assemblee-nationale.fr/14/pdf/cr-cfiab/12-13/c1213060.pdf.

[10] L’activité de tenue de marché (« market making ») correspond à la présence permanente d’un intervenant qui apporte de la liquidité au marché.

[11] A cet égard, mentionnons l’amendement déposé par Karine Berger qui souhaite que Bercy fixe le seuil à partir duquel les activités de marché doivent impérativement être filialisées.

[12] Depuis 2008, la crise de confiance sur le marché bancaire a posé de grosses difficultés d’accès aux liquidités à certaines banques, bien que parfaitement solvables, ce qui a contraint les banques centrales à intervenir et à se substituer au marché interbancaire.

[13] “I’d write a much simpler bill. I’d love to see a four-page bill that bans proprietary trading and makes the board and chief executive responsible for compliance. And I’d have strong regulators. If the banks didn’t comply with the spirit of the bill, they’d go after them”, 22 octobre 2011, http://www.nytimes.com/2011/10/22/business/volcker-rule-grows-from-simple-to-complex.html?pagewanted=all&_r=0.

[14] A ce titre, la justice américaine n’hésite pas à entreprendre des actions contre les institutions financières qui ont failli à leurs devoirs. Voir par exemple, l’action récente contre Standard & Poor’s, http://www.bloomberg.com/news/2013-02-06/s-p-lawsuit-portrays-cdo-sellers-as-duped-victims.html. Voir aussi, les poursuites engagées contre un ancien employé de Goldman Sachs : http://www.sec.gov/litigation/complaints/2010/comp-pr2010-59.pdf et http://dealbook.nytimes.com/2013/01/31/trader-accused-of-misleading-clients-leaves-goldman/ ainsi que l’enquête sur la fameuse « baleine » de Londres : http://www.reuters.com/article/2013/02/15/us-lehman-jpmorgan-londonwhale-idUSBRE91E00W20130215.




Jusqu’ici tout va bien…

par Christophe Blot

La zone euro est toujours en récession. En effet, selon Eurostat, le PIB a de nouveau reculé au quatrième trimestre 2012 (-0,6 %). Ce chiffre, inférieur aux attentes, est la plus mauvaise performance trimestrielle pour la zone euro depuis le premier trimestre 2009, et c’est aussi le cinquième trimestre consécutif de baisse de l’activité. Sur l’ensemble de l’année 2012, le PIB baisse de 0,5 %. Ce chiffre annuel cache de fortes hétérogénéités (graphiques 1 et 2) au sein de la zone puisque l’Allemagne affiche une croissance annuelle de 0,9 % tandis que la Grèce devrait subir, pour la deuxième année consécutive, une récession de plus 6 %. Surtout, pour l’ensemble des pays, le taux de croissance sera plus faible en 2012 qu’il ne l’était en 2011 et certains pays (Espagne et Italie pour n’en citer que deux), s’enfonceront un peu plus dans la dépression. Cette performance est d’autant plus inquiétante que, depuis plusieurs mois un regain d’optimisme avait suscité l’espoir de voir la zone euro sortir de la crise. Cet espoir était-il fondé ?

Bien que très prudente sur la croissance pour l’année 2012, la Commission européenne, dans son rapport annuel sur la croissance, soulignait le retour de quelques bonnes nouvelles. En particulier, la baisse des taux d’intérêt publics à long terme en Espagne ou en Italie et la réussite des émissions de dettes publiques par l’Irlande ou le Portugal sur les marchés financiers témoignaient du retour de la confiance. Force est de constater que la confiance ne suffit pas. La demande intérieure est au point mort en France et en chute libre en Espagne. Le commerce intra-zone pâtit de cette situation puisque la baisse des importations des uns provoque la baisse des exportations des autres, ce qui amplifie la dynamique récessive de l’ensemble des pays de la zone euro. Comme nous le soulignions lors de notre précédent exercice de prévision ou à l’occasion de la publication de l’iAGS (independent Annual growth survey), la sortie de crise ne peut en aucun cas s’appuyer uniquement sur un retour de la confiance tant que des politiques budgétaires très restrictives sont menées de façon synchronisée en Europe.

Depuis le troisième trimestre 2011, tous les signaux ont confirmé notre scénario et montré que la zone euro s’enfonçait progressivement dans une nouvelle récession. Le chômage n’a pas cessé d’augmenter battant chaque mois un nouveau record. En décembre 2012, il a atteint 11,7 % de la population active de la zone euro selon Eurostat. Pourtant, ni la Commission européenne, ni les gouvernements européens n’ont infléchi leur stratégie budgétaire, arguant que les efforts budgétaires consentis étaient nécessaires pour restaurer la crédibilité et la confiance, qui à leur tour permettraient la baisse des taux d’intérêt et créeraient des conditions saines pour la croissance future. Ce faisant, la Commission européenne a systématiquement sous-estimé l’impact récessif des mesures de consolidation budgétaire, négligeant ainsi une littérature de plus en plus abondante qui montre que les multiplicateurs augmentent en temps de crise et qu’ils peuvent être nettement supérieurs à l’unité (voir le post d’Eric Heyer sur le sujet). Les partisans de l’austérité budgétaire considèrent par ailleurs que les coûts d’une telle stratégie sont inévitables et temporaires. Ils jugent que l’assainissement des finances publiques est un préalable indispensable au retour de la croissance et négligent le coût social durable d’une telle stratégie.

Cet aveuglement dogmatique rappelle la réplique finale du film La Haine (réalisé par Mathieu Kassovitz) « C’est l’histoire d’une société qui tombe et qui au fur et à mesure de sa chute se répète sans cesse pour se rassurer : jusqu’ici tout va bien, jusqu’ici tout va bien, jusqu’ici tout va bien… l’important c’est pas la chute, c’est l’atterrissage ». Il serait temps de reconnaître que la politique économique menée depuis 2011 est une erreur. Elle ne permet pas de créer les conditions d’une sortie de crise. Pire, elle est directement responsable du retour de la récession et de la catastrophe sociale qui ne cesse de s’amplifier en Europe. Comme nous l’avons montré, d’autres stratégies sont possibles. Elles ne négligent pas l’importance de restaurer à terme la soutenabilité des finances publiques. En reportant et en atténuant l’austérité (voir le billet de Marion Cochard, Bruno Ducoudré et Danielle Schweisguth), il est possible de retrouver la croissance plus rapidement et de permettre une décrue plus rapide du chômage.

IMG1_blot2002

IMG2_blot2002

 

 




Faut-il réduire les prestations familiales ? Faut-il les imposer ?

par Henri Sterdyniak

Le gouvernement s’est donné comme objectif d’atteindre l’équilibre des finances publiques en 2017, ceci nécessiterait  une baisse d’environ 60 milliards des dépenses publiques. Ainsi, le Premier ministre, Jean-Marc Ayrault, a-t-il demandé à Bertrand Fragonard, le Président du Haut Conseil à la Famille, de lui proposer, d’ici fin mars, un plan de restructuration de la politique familiale, permettant le retour à l’équilibre de la branche famille en 2016. Il faudrait donc réduire les aides aux familles, de 2,5 milliards (soit de 6,25 % les prestations familiales), le montant du déficit de la CNAF en 2012. Est-ce justifié d’un point de vue économique et d’un point de vue social ?

En 2012, les comptes de la CNAF souffrent de la récession, qui diminue les montants des cotisations sociales et de la CSG, qu’elle reçoit. Si on estime que la masse salariale est inférieure de 5 % à son niveau normal, la perte de recettes pour la CNAF peut être évaluée à 2,5 milliards. La totalité du déficit de la CNAF est donc conjoncturelle. Prétendre le réduire en diminuant les prestations revient à mettre en cause le rôle stabilisateur des finances publiques. Imaginons que la demande privée chute de 1 % du PIB ; en supposant un multiplicateur égal à 1, le PIB baisse de 1 % ; les finances publiques voient leur déficit public se creuser de 0,5 %. Si on veut éviter ce déficit, il faudrait réduire les dépenses publiques de 0,5 % du PIB, ce qui diminuerait le PIB, donc les recettes fiscales et obligerait à de nouvelles réductions. Ex post, les dépenses publiques devraient baisser de 1 % et le PIB de 2 %. La politique budgétaire jouerait un rôle déstabilisant. La CNAF doit donc être gérée en considérant son solde structurel, or celui-ci est équilibré en 2012. Sur le plan économique, en situation de profonde dépression, quand la consommation et l’activité stagnent, rien ne peut justifier une ponction sur le pouvoir d’achat des familles[i].

Par ailleurs, les gouvernements successifs ont progressivement mis à la charge de la CNAF, et l’assurance vieillesse des parents au foyer (pour 4,4 milliards en 2012) et les majorations familiales de retraite (pour 4,5 milliards en 2012). Ainsi, sur les 54 milliards de ressources de la CNAF, près de 9 milliards sont détournés vers l’assurance-retraite et ne profitent pas directement  aux enfants.

tabHS_1802

 

Ce détournement a été possible car les prestations familiales ont peu augmenté dans le passé,  n’étant généralement indexées que sur les prix et ne suivant pas les salaires. Pire, certaines années, les prestations n’ont même pas été augmentées à hauteur de l’inflation. Finalement, de 1984 à 2012, la BMAF a perdu 5,7 % en pouvoir d’achat absolu (colonne 1 du tableau), mais 25 % en pouvoir d’achat relativement au revenu médian des ménages (colonne 2). Faut-il poursuivre et accentuer cette dérive ?

Les jeunes de moins de 20 ans représentent 25 % de la population. En utilisant l’échelle d’équivalence de l’INSEE, c’est 12,5 % du revenu des ménages qui devrait être fourni par des prestations familiales pour assurer aux familles avec enfants le même niveau de vie qu’aux personnes sans enfants. Or l’ensemble des prestations sous critères familiaux ne représente que 4,2 % du revenu des ménages[ii].

Le RSA est nettement plus faible que le minimum vieillesse sous prétexte d’inciter ses titulaires à travailler, mais ceci pèse sur le niveau de vie des enfants, qui vivent généralement avec des actifs, non avec des retraités. La création du RSA-activité aurait pu fournir un complément de ressources appréciable à beaucoup de familles de travailleurs à bas salaires, mais celui-ci est mal conçu : beaucoup de bénéficiaires potentiels ne le demandent pas. De plus, il ne bénéficie pas aux chômeurs (et donc à leurs enfants). Ainsi, en 2010, le taux de pauvreté des enfants (au seuil de 60 %) était-il de 19,8 % contre 14,1 % pour l’ensemble de la population. Au seuil de 50 %, il était de 11,1 % contre 7,8 % pour l’ensemble de la population. Ainsi, 2,7 millions d’enfants sont-ils en dessous du seuil de pauvreté de 60 %. 1,5 million d’enfants sont même en dessous du seuil de 50 %.

Une famille avec trois enfants a un niveau de vie plus bas qu’un couple sans enfant, percevant les mêmes salaires, de 16 % si elle gagne 2 fois le SMIC, de 30 % si elle gagne 5 fois le SMIC. Les allocations familiales sont devenues très faibles pour les classes moyennes ;  le quotient familial ne fait que tenir compte de la baisse de niveau de vie induite par la présence d’enfants ; il n’apporte pas d’aide spécifique aux familles. A aucun niveau de revenu, les aides aux enfants ne sont excessives. Le niveau de vie moyen des enfants était en 2010 inférieur de 10 % à celui de la moyenne de la population. Ce devrait être l’inverse, puisque les enfants ont besoin d’un niveau de vie satisfaisant pour développer toutes leurs potentialités, et puisque les parents qui élèvent leurs enfants, en plus de leurs activités professionnelles, jouent un rôle social fondamental.

Faut-il fiscaliser les allocations familiales ? Ce serait oublier que leur montant est déjà très faible par rapport au coût des enfants. Le revenu médian par unité de consommation était de l’ordre de 1 660 euros en 2012 ; le coût moyen d’un enfant, qui représente 0,3 unité de consommation, est donc de l’ordre de 500 euros. Or, les allocations familiales sont de 64 euros par enfant (pour une famille avec deux enfants), et de 97 euros par enfant (pour une famille avec trois enfants). Il faudrait donc au minimum multiplier par cinq les allocations avant que la question de leur fiscalisation ne devienne légitime.

Se rapprocher des objectifs de la politique familiale française tels qu’ils sont proclamés dans la Loi de financement de la Sécurité sociale[iii] – réduire les écarts de niveau de vie selon la configuration familiale, sortir tous les enfants de la pauvreté, augmenter les places en crèche – nécessiterait que plus de moyens soient donnés à la politique familiale. Ces moyens devraient être supportés par tous les contribuables, et non par les familles des classes moyennes, qui ne sont pas les plus favorisées du système.

Réduire de 2,5 milliards les sommes que la Nation consacre à ses enfants serait une erreur de politique macroéconomique comme de politique sociale. Comme le disait Charles Gide : « De tous les investissements qu’une nation puisse envisager, c’est l’éducation des enfants qui est la plus rentable ».

 


[i] Voir un argumentaire similaire : Cornilleau Gérard, 2013, «  Faut-il réduire les dépenses d’indemnisation du chômage », Blog de l’OFCE, février.

[ii] Voir Sterdyniak Henri, 2011, « Faut-il remettre en cause la politique familiale française », Revue de l ’OFCE, n°116.

[iii] Voir PLFSS, 2013, Programme de qualité et d’efficience, Famille.

 




Augmenter les aides au logement : une fausse bonne idée ?

par Pierre Madec

Inscrite dans le projet de Loi de finances pour 2013, l’augmentation de 500 millions d’euros des aides personnelles au logement (APL, ALS et ALF[1]) a été adoptée par le Parlement et est entrée en vigueur au 1er Janvier 2013. Cette augmentation de 3 % porte le montant prévisionnel consacré aux aides personnelles au logement à 17,3 milliards d’euros pour l’année à venir.

Dans les faits, depuis 2007, les aides personnelles au logement sont indexées sur l’indice de référence des loyers (IRL). En 2012, ces dernières n’ont été revalorisées que de 1 % (au lieu de 1,9%) à la suite d’un amendement parlementaire au projet de Loi de finances pour 2012. Cette augmentation de 500 millions d’euros n’est donc que le retour à l’indexation prévue par la loi.

 

Principal poste budgétaire de la politique du logement, les aides à la personne sont perçues par 6,4 millions de ménages (CAF 2012) et constituent, compte tenu de leur ciblage sur les ménages modestes, l’une des prestations sociales les plus redistributives. De plus, leur impact sur le taux d’effort des ménages n’est plus à prouver[2]. Selon un récent rapport de l’IGAS (2012), elles permettent à elle seules de réduire de 35,8 % à 19,5 % (hors charges) le taux d’effort médian des allocataires et de faire baisser de 3 points leur taux de pauvreté[3].

Pour autant, cette efficacité s’effrite peu à peu. En 2012, 86,3 % des locataires du parc privé avaient un loyer supérieur aux plafonds définis par la loi. Cette dynamique est ancienne et est principalement due aux importantes hausses successives qu’ont connues les loyers du secteur libre depuis maintenant plus de 10 ans (+40 % depuis 2000). Hausses largement déconnectées de l’évolution de l’indice légal sur la période (inférieure à 25 %) et qui, au vu de la faiblesse des plafonds réglementaires de loyers, sont intégralement supportées par les locataires.

Depuis le 1er Août 2012 et l’entrée en vigueur du décret sur l’encadrement des loyers, la loi ne permet plus aux propriétaires-bailleurs, dans les zones les plus tendues[4], de faire évoluer leur loyer d’une proportion supérieure à l’IRL (sauf gros travaux ou sous évaluation manifeste)[5]. Cette mesure en faveur des locataires a pour principal objectif de contenir la progression du taux d’effort des ménages locataires du secteur libre. En 2010, le taux d’effort net médian (hors charges) des locataires du parc privé était de 26,9 % contre 22,8 % en 1996[6].

Pour autant, le décret n’exigeant pas de « blocage » des loyers, les ménages voient tout de même leur loyer et donc leur taux d’effort augmenter, leur revenu (et jusqu’à présent leurs aides) n’étant pas (plus) indexé(s) sur l’IRL.

L’augmentation de 3 % des aides au logement associée à la mesure d’encadrement permettra donc au mieux de ramener le taux d’effort des ménages allocataires à un niveau proche de celui de 2011.

Pour autant, la simple indexation suffira-t-elle à améliorer la situation très dégradée des ménages les plus fragiles ? Pour cela, il faudrait que la hausse des loyers soit inférieure à la hausse de l’indice légal ce qui, compte tenu des « effets secondaires » engendrés par les mesures d’encadrement et de hausse des allocations, est peu probable.

Pour ce qui est de l’encadrement, les propriétaires n’étant plus en capacité d’augmenter librement leur loyer lors de la relocation, et donc de rattraper à ce moment-là les prix du marché, ils seront fortement incités à appliquer à leurs loyers une augmentation annuelle égale à l’IRL et ce aussi bien en cours de bail que lors du renouvellement de bail[7]. De plus, concernant l’augmentation des aides personnelles au logement, de nombreuses études, théoriques et empiriques, menées tant en France (G. Fack, 2005 ; A. Laferrère et D. Le Blanc, 2002) qu’aux Etats-Unis (S. Susin, 2002) ou en Angleterre (S. Gibbons et A. Manning, 2006), ont montré l’important effet inflationniste d’une telle mesure sur les loyers. Bien que difficilement chiffrable, cet effet significatif semble agir à deux niveaux distincts. Les estimations suggèrent dans un premier temps qu’une grande partie (entre 50 et 80 % selon Fack) des allocations perçues par les bas revenus est absorbée par des augmentations de loyers. Dans un second temps, l’amélioration de la solvabilité des ménages les plus modestes (étudiants, …) augmente la demande sur le marché locatif et, compte tenu de la faible élasticité de l’offre de logement à court terme, contribue à l’effet inflationniste. On peut tout de même noter que cet effet peut être fortement atténué par une politique de construction ambitieuse, et donc une augmentation importante de l’offre locative, notamment sociale.

A partir de ces observations, deux enseignements peuvent être tirés de la mesure d’augmentation des aides au logement et de leur future ré-indexation sur l’indice de référence des loyers : d’une part cela permettra, associé à la mesure d’encadrement des loyers, de contenir le taux d’effort des ménages les plus modestes à un niveau proche de celui de 2011 ; d’autre part, cette mesure, coûteuse à moyen comme à long terme (l’indexation augmentera automatiquement, chaque année, de l’IRL le montant global des aides), ne permettra en aucun cas d’alléger significativement les dépenses en logements des allocataires les plus fragiles, et ce d’autant plus si cette augmentation, et l’indexation future, ne prennent pas en compte l’évolution des charges locatives.

Une fois ces résultats établis, une question se pose : que faire ? Différentes solutions s’offrent aux pouvoirs publics. La première est de considérer que le taux d’effort des ménages est (une fois cette ré-indexation effectuée) à un niveau supportable, que les loyers maintenant encadrés le sont aussi, et que l’Etat est en capacité de compenser chaque année, à hauteur de 300 millions d’euros[8], la hausse probable des loyers. Compte tenu d’une part des difficultés budgétaires que connaissent les finances publiques et d’autre part des taux d’effort subis par certains des ménages locataires les plus modestes, il est difficile de considérer cette solution comme optimale.

Dans le cas où la volonté du gouvernement est de faire baisser le taux d’effort des ménages modestes, nous avons montré que la simple indexation ne suffirait pas. Une fois de plus, on peut penser qu’au vu de la situation budgétaire, la hausse du budget global consacré aux aides à la personne ne constitue pas, à court terme, une réponse acceptable pour les pouvoirs publics. De même, un encadrement plus strict des loyers  (voire un « blocage » temporaire) serait perçu, à tort ou à raison, de manière très négative par les propriétaires-bailleurs.

Une solution réside donc dans un ciblage plus strict des aides. En effet, à enveloppe budgétaire constante, l’exclusion d’un certain nombre de bénéficiaires du système d’allocation (baisse des plafonds de ressources, modification du calcul de la participation personnelle, …) permettrait d’orienter  plus efficacement les aides vers les ménages les plus fragiles, qui subissaient, en 2010, un taux d’effort net médian de 33,6 %[9]. On peut ainsi penser que, pour les étudiants, un rapprochement des systèmes de bourses d’études et d’allocations logements pourrait être opéré. Actuellement, les seules ressources prises en compte dans le calcul de l’allocation sont celles du futur bénéficiaire. Cette politique à priori très égalitaire (elle rend tous les étudiants-locataires potentiellement indépendants de leurs parents) peut s’avérer assez critiquable. La prise en compte de l’appartenance ou non du bénéficiaire au foyer fiscal parental, comme c’est aujourd’hui le cas pour le système des bourses, pourrait permettre une répartition des aides plus juste socialement. De même, une différentiation des aides en fonction des zones géographiques, et donc des loyers pratiqués, pourrait être envisagée.

 


[1] L’APL désigne l’aide personnalisée au logement, l’ALS l’allocation de logement social et l’ALF l’allocation de logement familiale.

[2] Le taux d’effort est défini comme le rapport entre les dépenses en logement (loyers+charges) et le revenu du ménage. On parle de taux d’effort net lorsque l’on ajoute au revenu les aides au logement perçues.

[3] Cette réduction du taux de pauvreté peut être comparée à la diminution de 2 points engendrée par la perception de minima sociaux ou des autres prestations familiales perçues sans condition de ressources.

[4] C’est-à-dire les zones où l’offre de logement est la plus faible et donc les loyers et les taux d’effort des ménages les plus élevés.

[5] Voir S. Le Bayon, P. Madec et C. Rifflart, blog de l’OFCE, 2012

[6] Source Enquête Loyer et Charge, INSEE

[7] Voir S. Le Bayon, P. Madec et C. Rifflart, à paraître dans la Revue de l’OFCE, n°128, 2013.

[8] Hausse du montant global des aides au logement prévue pour 2014 si l’IRL est d’environ 1,7 % (estimation basse).

[9] Taux d’effort net médian en 2010 des locataires du secteur privé appartenant au 1er quartile de niveau de vie (source INSEE).




Quelle politique monétaire pour la BCE en 2013 ?

par Paul Hubert

La Banque centrale européenne (BCE), après sa réunion mensuelle du Conseil des gouverneurs du 7 février 2013, a décidé de maintenir son principal taux directeur à 0,75%. L’analyse de la situation économique faite par Mario Draghi lors de la conférence de presse qui a suivi révèle des développements contrastés qui justifient ce statu quo. Dans une récente étude, nous montrons que les projections d’inflation de la BCE permettent d’apporter un autre éclairage sur les évolutions futures du taux directeur.

Le statu quo actuel s’explique par plusieurs facteurs qui se compensent mutuellement. Les banques ont commencé à rembourser une partie des liquidités obtenues à travers le mécanisme du LTRO (140 milliards d’euros sur 489), ce qui reflète une amélioration de leur situation financière, mais dans le même temps les prêts accordés aux entreprises non financières continuent de se contracter (-1,3% en décembre 2012) tandis que les prêts aux ménages restent à des niveaux très faibles.

D’un point de vue macroéconomique, la situation au sein de la zone euro ne donne pas de signaux clairs sur la politique monétaire à venir : après une contraction de 0,2% au deuxième trimestre 2012, le PIB réel de la zone euro a encore baissé de 0,1% au troisième trimestre, tandis que l’inflation, mesurée en rythme annuel, est passée de 2,6% en août 2012 à 2% en janvier 2013 et devrait repasser sous la barre des 2% dans les mois à venir sur la base des chiffres de croissance du PIB et des prix du pétrole actuels et anticipés.

De plus, les anticipations d’inflation des agents privés, mesurées par le Survey of Professional Forecasters, restent solidement ancrées autour de la cible d’inflation de la BCE. Au quatrième trimestre 2012, elles étaient de 1,9% pour les années 2013 et 2014. Avec un objectif d’inflation « inférieur à, mais proche de 2% » atteint en l’état actuel, une zone euro en récession et un chômage à des niveaux records, la BCE pourrait porter soutien à l’activité réelle. Cependant, la BCE anticipe que l’activité économique devrait reprendre graduellement au second semestre 2013, en partie grâce au caractère accommodant de la politique monétaire actuelle.

De cette anticipation, et compte tenu du niveau historiquement bas auxquels sont les taux directeurs aujourd’hui et des délais de transmission de la politique monétaire à l’économie réelle[1], la probabilité d’une future baisse des taux paraît bien faible. Un dernier élément vient finir de brouiller les pistes: la hausse récente de l’euro  – même si on est encore bien loin des niveaux records – pourrait tuer dans l’œuf la faible reprise économique qui s’annonce et justifierait, selon certains, un soutien aux secteurs exportateurs[2].

Dans un récent document de travail de l’OFCE (n°2013-04), nous discutons de l’utilisation que peut faire la BCE de ses prévisions d’inflation pour améliorer la mise en œuvre de sa politique monétaire. Nous proposons un nouvel élément d’éclairage sur les évolutions futures du taux directeur basé sur les projections macroéconomiques que publie la BCE trimestriellement. Dans cette étude consacrée aux effets de la publication des projections d’inflation de la BCE sur les anticipations d’inflation des agents privés, nous montrons qu’une baisse des projections d’inflation de la BCE de 1 point de pourcentage est associée à une baisse du taux directeur de la BCE de 1,2 point de pourcentage dans les deux trimestres suivants. Nous concluons que les projections d’inflation de la BCE sont un outil qui permet de mieux comprendre les décisions de politique monétaire courantes ainsi que de mieux anticiper les décisions futures.

Les dernières projections d’inflation pour les années 2013 et 2014, publiées en décembre 2012, s’établissent respectivement à 1,6% et 1,4%. La publication, le 7 mars prochain, des nouvelles projections pourrait donner une indication complémentaire sur l’orientation de la politique monétaire à attendre en 2013.


[1] En moyenne, une variation des taux directeurs est estimée produire ses effets sur l’inflation après 12 mois et sur le PIB après 18 mois.

[2] Rappelons tout de même qu’environ 64% du commerce de la zone euro se fait avec des partenaires de la zone euro et est donc indépendant des variations de change.