Les inégalités sociales devant la mort*

par Gilles Le Garrec

Le problème des inégalités devant la mort a pris une place importante dans le débat public français il y a peu, lorsqu’il s’est agi, à l’automne 2010, d’augmenter de deux ans l’âge minimal légal de départ à la retraite, le portant ainsi progressivement de 60 à 62 ans. Le débat s’est ainsi focalisé autour d’une question politiquement très clivante : fallait-il laisser l’âge de départ à la retraite inchangé pour les personnes faiblement qualifiées qui, parce qu’elles sont entrées sur le marché du travail précocement et/ou ont eu des métiers plus pénibles, vivent moins longtemps ? Ainsi, depuis l’arrivée au pouvoir du gouvernement socialiste en 2012, deux mesures dérogatoires ont été adoptées pour permettre aux moins qualifiés de continuer à prendre leur retraite à 60 ans. Ce fut d’abord l’instauration dès l’été 2012 d’une exception pour « carrière longue », c’est-à-dire à destination de ceux qui ont cotisé suffisamment longtemps. En cette rentrée 2013, c’est aussi le choix de la mise en place d’un compte « pénibilité » dès 2015, qui permettra à tout salarié exposé à des conditions de travail réduisant son espérance de vie de partir à la retraite plus tôt. Pour autant, la question des inégalités devant la mort – un sujet tabou ? – dépasse très largement celle du départ à la retraite : plus en amont, elle a aussi à voir avec les inégalités de revenus, de logement, d’accès à l’emploi, d’éducation, etc. Ci-après un petit panorama (statistique) sur les inégalités devant la mort en France, leurs causes et la difficulté d’y apporter une solution politique adaptée tant les causes en sont multidimensionnelles.

Des statistiques anciennes … mais pas très fiables

Dès la fin du 18e siècle[1], l’élaboration de nouveaux recensements associés au développement des statistiques a permis la construction de données mettant en évidence l’existence d’un lien étroit entre inégalités devant la mort et inégalités sociales. Ces premières études montrent alors que les inégalités face à la mort s’expliquent avant tout par le revenu (Cambois, 1999). Toutefois, la faible fiabilité des données et de la méthodologie en a limité la portée. La construction d’indicateurs fiables sur cette question est en effet délicate. Dès lors que l’on dispose des catégories socioprofessionnelles (CS) pour les statistiques de décès et pour les recensements, on peut facilement calculer des taux de mortalité en rapportant les effectifs de décès de l’année (ou de plusieurs années) classées par CS aux effectifs de population classées de la même manière. Par exemple, en France pour la période 1907-1908, Huber répertoria sur une base annuelle le décès de 129 patrons de 25 à 64 ans sur un effectif de 10 000, contre 218 ouvriers. Cette méthode, simple et intuitive, donne néanmoins une vision biaisée des inégalités sociales devant la mort à cause d’incompatibilités entre données de population et données de décès (Desplanques, 1993). La difficulté d’obtenir une représentation fidèle des inégalités devant la mort est d’autant plus difficile, avec cette méthode, que les trajectoires professionnelles ont de plus en plus tendance à se morceler, avec alternance de périodes d’activité et de chômage.

La méthode longitudinale et ses enseignements

Pour palier ce problème, l’INSEE a élaboré une méthode longitudinale qui consiste à suivre régulièrement un groupe d’individus, dont on relève un certain nombre de caractéristiques à un moment donné, et éventuellement la date de leur décès. L’Echantillon démographique permanent ainsi obtenu, initialisé lors du recensement de 1968, regroupe actuellement environ 900 000 histoires individuelles, garantissant une bonne représentativité de la population française (Couet, 2006, pour une description et un historique de la construction de cet échantillon). Ce panel sociodémographique de grande taille permet ainsi de dresser une situation relativement fidèle des inégalités sociales devant la mort en France. On remarque alors que la durée de vie varie beaucoup d’une catégorie socioprofessionnelle à l’autre, tout particulièrement chez les hommes (tableau 1). Parmi les hommes, les cadres supérieurs ont ainsi une espérance de vie (à l’âge de 35 ans) plus élevée de quatre à cinq ans que la moyenne. Hors inactifs[2], les plus défavorisés sont les ouvriers, suivis des employés, avec, respectivement, deux ans et un an d’espérance de vie en moins relativement à la moyenne. Autre élément intéressant à noter : le gain global d’espérance de vie de quatre ans sur la période n’a pas réduit les inégalités devant la mort. Ainsi, de manière relativement stable, les ouvriers ont une espérance de vie à 35 ans de six à sept ans (cinq à six ans pour les employés) inférieure à celle des cadres supérieurs. De plus, à 35 ans, ces derniers vivront en moyenne 34 années en bonne santé[3], soit 73% de leur espérance de vie, contre 24 années pour les ouvriers, soit 60 % de leur espérance de vie (Cambois et al., 2008). Si, chez les femmes, la différence d’espérance de vie entre cadres et ouvrières n’est « que » de trois années au dernier recensement, on retrouve par contre des différences similaires aux hommes en ce qui concerne l’espérance de vie en bonne santé. Le constat est donc clair : il y a bien des inégalités sociales persistantes devant la mort mais aussi devant la santé. Ce constat s’observe dans tous les pays d’Europe de l’Ouest qui ont mené ce même genre d’enquête, même si on peut noter que les inégalités en France apparaissent de loin les plus fortes (Kunst et al., 2000). Le rapport des taux de mortalité « manuel/non manuel » est de 1,71 en France pour les hommes de 45-59 ans, alors qu’il est de l’ordre de 1,35 dans la plupart des autres pays (la Finlande, seconde derrière la France en termes d’inégalité, est à 1,53). Excluant des problèmes de comparabilité des données, la consommation d’alcool est, selon Kunst et al. (2000), le facteur privilégié pour expliquer la spécificité française. En effet, les plus fortes inégalités de mortalité en France sont dues aux grandes différences de mortalité par cirrhose du foie et par cancer des voies aéro-digestives, deux pathologies associées à une consommation excessive d’alcool.

tab_2409_GL

 

Les causes

Plusieurs éléments ont été identifiés pour expliquer ce différentiel de mortalité entre CS.

En premier lieu, on imagine très bien que les conditions de travail des ouvriers sont en général physiquement éprouvantes et usantes. Par ailleurs, on a pu voir durant les années 1980 une transformation de la structure des emplois non qualifiés. Sur cette période, l’accroissement du besoin de réactivité des entreprises a amené ces dernières à accroître le recours à des formes d’emplois flexibles et précaires (contrats courts, horaires atypiques, développement du temps partiel, intérim, …). Or, cette précarisation des emplois, qui touche avant tout les emplois peu qualifiés, participe grandement à la dégradation des conditions de travail. Les conditions économiques globales peuvent donc avoir une part d’explication dans les disparités de mortalité. En tout état de cause, les conditions de travail des ouvriers s’améliorent moins vite que celle des cadres. C’est assurément ce point de vue qui a été défendu dans l’instauration du compte « pénibilité », qui sera mis en place à partir de 2015. Ainsi, tout salarié du secteur privé exposé à des conditions de travail réduisant l’espérance de vie cumulera des points qui lui permettront, entre autres, de partir à la retraite plus tôt et potentiellement avant l’âge légal de 62 ans.

On note également que les plus défavorisés cumulent un grand nombre de comportements à risques tels que la consommation de tabac, l’abus d’alcool, une mauvaise hygiène alimentaire ou encore une trop forte sédentarité. A l’inverse, les cadres et les professions intermédiaires fument et boivent modérément. Comme déjà souligné pour expliquer la spécificité du cas français parmi les pays d’Europe de l’Ouest (Kunst et al., 2000), cette différence de comportement est parfaitement visible à travers la mortalité engendrée par certaines maladies. Les risques de décès par tumeur des voies aéro-digestives (larynx, pharynx, poumons, œsophage, foie) sont particulièrement élevés chez les ouvriers, et sont à l’origine d’une bonne partie des différences de mortalité observées. Par exemple, durant les années 1980, pour les hommes de 45 à 54 ans, le taux de mortalité par tumeur du pharynx est 11 fois plus élevé pour les ouvriers spécialisés et manœuvres que pour les professeurs et professions intellectuelles supérieures (Desplanques, 1993).

La difficulté d’accès aux soins pour les plus défavorisés est une autre explication avancée pour expliquer les disparités de mortalité, tout d’abord pour des questions de coût. Mormiche (1995) montre ainsi que la consommation de produits médicaux (leur quantité mais aussi leur nature) dépend fortement du revenu. Les disparités dans l’accès aux soins sont d’autant plus marquées que les soins sont chers ou mal couverts (soins dentaires en particulier). Herpin (1992) souligne que la réduction des revenus liée à la perte d’emploi entraîne une réduction quasi proportionnelle des dépenses de consommation, santé comprise. Les hommes au chômage auraient ainsi un risque de mortalité accru de 60 % au cours des années qui suivent la perte d’emploi (Mesrine, 1999). Un homme en mauvaise santé a bien entendu plus de chance d’être au chômage, mais le chômage, via l’apparition d’une contrainte financière et la perte de repères et de considérations personnels, pourrait altérer la santé en créant une distance physique et morale par rapport aux soins.

Enfin, l’environnement social et le contexte local jouent un rôle important dans la persistance des inégalités sociales devant la mort observée dans le tableau 1. L’idée que les comportements des individus sont influencés par leur lieu de résidence est développée dans une abondante littérature tant sociologique que psychologique (Roberts et DelVecchio, 2000). Des mécanismes d’identification des enfants au comportement des adultes qui les environnent mettent en évidence une socialisation de type collectif. Or, la polarisation socio-spatiale, qui se caractérise par la création de zones urbaines qui cumulent tous les handicaps sociaux, n’a eu de cesse de s’accroître depuis les années 1980 en France (Fitoussi et al., 2004). La forte concentration dans ces quartiers des populations caractérisées par des comportements à risque pour la santé peut instaurer, par phénomène d’identification, ces comportements au cœur du mode de vie. Ce phénomène pourrait expliquer l’inefficacité des politiques de prévention dans les populations à risque. Les difficultés financières qui sont à l’origine d’une sous-utilisation des infrastructures médicales peuvent par ailleurs engendrer à terme une distance sociale aux questions de santé. La faible participation des femmes des classes défavorisées aux grandes actions publiques de dépistage du cancer du sein en est l’une des illustrations. De plus, même dans les pays où la couverture sociale universelle est complète, les écarts de consommation de soins persistent.

Que conclure ?

L’inégalité sociale devant la mort est une question délicate. Une multitude de causes, plus ou moins imbriquées, en sont à l’origine. Des politiques de lutte contre ce type d’inégalités, pour qu’elles soient efficaces, doivent donc analyser ces inégalités comme faisant partie d’un tout, interagissant dans leurs dimensions économiques, sociales et spatiales. En attendant une résorption de ces inégalités, tenir compte de ces dernières pour mettre en place des politiques sociales justes apparaît très souhaitable. A cet égard, l’instauration d’un compte « pénibilité », permettant à tout salarié exposé à des conditions de travail réduisant son espérance de vie, de partir à la retraite plus tôt va indéniablement dans le bon sens. Pourtant la mise en place des critères n’est pas aussi aisée qu’elle n’y paraît. En effet, on a vu qu’une bonne part des inégalités sociales devant la mort pouvait s’expliquer par des comportements à risque. Or, on peut penser que ceux-ci sont l’expression d’une liberté individuelle dont la société n’a pas à compenser les conséquences. A contrario, on peut considérer que ces comportements sont la réponse à un stress psychosocial engendré, entre autres, par des conditions de travail difficiles. Dans ce cas, la compensation sous forme d’un départ à la retraite anticipé apparaît plus juste. Mais il n’est pas sûr que l’on puisse réellement distinguer les deux cas de figure. Parions que la future définition des critères d’accumulation des points au titre de la pénibilité et donnant droit à un départ à la retraite anticipé fera l’objet de longues négociations…

 

Références

Cambois E., 1999, Calcul d’espérances de vie sans incapacité selon le statut social dans la population masculine française, 1980-1991 : un indicateur de l’évolution des inégalités sociales de santé, thèse de doctorat.

Cambois E., Laborde C. et Robine J.-M., 2008, « La ‘double peine’ des ouvriers : plus d’années d’incapacité au sein d’une vie plus courte », Population § Sociétés, n° 441, INED.

Desplanques G., 1993, « L’inégalité sociale devant la mort », Données Sociales, INSEE.

Kunst A., Groenhof F. et Mackenbach J., 2000, « Inégalités sociales de mortalité prématurée : la France comparée aux autres pays européens », in Les Inégalités sociales de santé, sous la direction de Leclerc A., Fassin D., Grandjean H., Kaminski M. et Lang T., Editions La découverte/Inserm, Recherches.

 

_______________________________________

* Je tiens à remercier Sandrine Levasseur, Hélène Périvier et Evens Salies pour leurs commentaires avisés.

[1] Parmi les travaux précurseurs, on citera ceux de Moheau (1778) et Villermé (1840).

[2] Catégorie qui regroupe les individus n’ayant jamais travaillé. Pour les femmes, ce sont principalement les « femmes au foyer ».

[3] Une bonne santé est définie par l’absence de limitations d’activités (dans les gestes de la vie quotidienne) et l’absence d’incapacités.




Le partage du congé parental : un impératif d’égalité

par Hélène Périvier

Le projet de loi sur l’égalité entre femmes et hommes, voté par le Sénat le 18 septembre 2013, comprend notamment un volet visant à modifier les modalités d’accès à l’allocation de congé parental[1] en introduisant le Complément libre choix d’activité (CLCA). La dernière Note de l’OFCE (n°34 du 26 septembre 2013) analyse les conséquences de ce projet en termes d’égalité femmes-hommes et propose d’autres pistes pour une plus large réforme.

Le droit à l’allocation de congé parental est un droit familial : il est attribué à l’un des deux parents qui réduit ou cesse son activité professionnelle pour s’occuper de l’enfant, et ce pour une durée de 3 ans maximum. Partant du constat que 98 % des allocataires sont des femmes, l’objectif visé par la loi est d’encourager les pères à y recourir : désormais sur les 36 mois de droit à l’allocation de congé parental, 6 devront être pris par l’autre parent. Autrement dit, au terme de 30 mois de congé parental pris par la mère, le père devra prendre le relais pour les 6 mois restant, au risque pour la famille de perdre ces 6 mois. L’Unaf, hostile à cette réforme, a publié sur son site une enquête sur « les pères et le congé parental ». Il en ressort une opposition, au nom de la complémentarité des sexes, au principe instauré dans la loi visant à promouvoir le partage des tâches familiales entre les mères et les pères. De même la pénurie de modes de garde des jeunes enfants est mise en avant comme un rempart à toute modification du congé parental, au motif qu’elle accentuerait la contrainte organisationnelle qui pèse sur les parents de jeunes enfants. Pourtant, le caractère sexué du congé parental fait de ce dispositif un frein à l’égalité, même si une partie des allocataires déclarent y recourir par choix personnel. Réformer les modalités d’accès au congé parental est donc nécessaire pour avancer du point de vue de l’égalité femmes-hommes. Les modifications proposées dans la loi seront-elles suffisantes pour faire bouger les lignes de la division sexuée du travail ?

Répartir la contrainte sur les mères et les pères

Ne pas réformer le CLCA serait introduire le libre choix de recourir au congé de certaines mères et le libre choix de ne pas y recourir pour l’ensemble des pères, devant la lutte contre les discriminations qui affectent la plupart des femmes. Certes, le congé parental n’est pas à lui seul responsable des inégalités femmes-hommes, mais il en est un moteur et les inégalités professionnelles en retour renforcent son caractère sexué.

Une politique visant l’égalité professionnelle ne peut donc pas faire l’impasse sur une réforme du congé parental. Renverser ce cercle vicieux exige des modifications majeures de ce type de congé. Un congé plus court, reposant sur un droit individuel, non transférable entre conjoints et dont l’indemnisation serait reliée au salaire du bénéficiaire, serait sans aucun doute plus attractif pour les pères et porteur d’égalité (Méda et Périvier, 2007). A défaut d’être immédiatement paritaire, ce dispositif aurait l’énorme avantage de garantir l’autonomie des femmes par rapport à leur conjoint et donc d’intégrer l’émancipation économique comme un principe de l’action publique. Mais le raccourcissement de la durée du congé parental ne peut se faire sans avoir, au préalable, comblé le déficit des modes d’accueil des jeunes enfants, estimé aujourd’hui à 350 000 places[2]. Ce congé renouvelé devrait donc s’insérer dans une refonte du parcours d’accueil des jeunes enfants. Dans le cas contraire, raccourcir le congé parental conduirait à serrer davantage l’étau qui pèse sur les parents et en particulier les mères. Une politique ambitieuse d’accueil de la petite enfance, dans laquelle intégrerait un congé parental court et rémunéré en proportion du salaire, serait favorable à l’égalité. Elle exige une dépense publique importante, environ 5 milliards d’euros par an (Périvier, 2012). Or les arbitrages pris par le gouvernement en matière d’ajustements budgétaires vont dans le sens d’une réduction des dépenses publiques.

De fait, par manque de moyens, la réforme proposée dans la loi est modeste et ne va pas permettre de rééquilibrer le partage des tâches familiales entre femmes et hommes. Mais elle a le mérite de mettre en exergue les contradictions qui traversent notre société en matière d’égalité : sans une contrainte de partage du congé parental, ce dernier restera une affaire de femme. L’introduction d’une durée de congé parental affectée au père ne va pas directement accroître la contrainte liée à la pénurie des modes d’accueil : le droit à l’allocation de congé parental reste de 36 mois pour la famille. Elle va simplement en répartir la charge entre les mères et les pères. L’arbitrage auquel les pères vont devoir faire face est celui auquel les mères sont confrontées depuis longtemps. Étant donné le caractère forfaitaire et faible du montant de l’indemnisation, il est probable que peu de pères soient tentés par ce congé. Néanmoins si les orientations en matière budgétaire ferment la porte à toute réforme ambitieuse de l’accueil de la petite enfance, les femmes ne peuvent pas être les seules à en assumer les conséquences.

Réformer le congé parental est donc un impératif d’égalité.


[1] Il convient de distinguer l’allocation de congé parental en tant que telle, du congé parental du point de vue du droit du travail (c. trav. art.L. 122-28-1), qui garantit, sous certaines conditions, à une personne qui travaille de retrouver son emploi au terme d’un congé parental d’une durée d’un an renouvelable 3 fois. La première est versée par la CAF dans le cadre plus général de la politique familiale, sous certaines conditions (rang de l’enfant, activité passée, …). Les conditions d’accès en termes d’activité passées sont plus souples pour l’éligibilité à l’allocation qu’au congé parental stricto sensu. De fait, seulement 60% des allocataires du CLCA bénéficient d’une garantie de retour à l’emploi (Legendre et Vanovermeir, 2011).

[2] Voir notamment, Rapport Tabarot, Périvier 2012.




Faut-il remplacer le RSA-activité et la PPE par une Prime d’activité ? Réflexions autour du rapport Sirugue

Par Guillaume Allègre

Après avoir annoncé son intention de réformer les dispositifs de soutien aux revenus d’activité modestes (RSA-activité et Prime pour l’emploi – PPE), le Premier ministre a confié au député Christophe Sirugue l’élaboration d’un rapport portant sur les voies de réforme permettant de trouver un équilibre entre redistribution vers les plus pauvres et accompagnement du retour à l’emploi. 

La Note de l’OFCE n°33 du 24 septembre 2013 montre que la Prime d’activité proposée dans le rapport Sirugue n’améliorerait qu’assez marginalement le système de soutien aux bas revenus. Instrument hybride entre PPE et RSA-activité, la Prime d’activité est une nouvelle combinaison des défauts et qualités de ces deux instruments. La note propose une autre réforme, qui minimiserait le problème du non-recours. Le soutien aux bas revenus reposerait alors sur un RSA « conjugalisé », fortement dégressif, un complément familial généreux dès le premier enfant, une allocation d’insertion pour les chômeurs de 18 à 25 ans, versée par Pôle Emploi et une revalorisation du SMIC compensée par des allègements de cotisations employeurs.

 




Quel(s) SMIC pour l’Allemagne ?

par Odile Chagny et Sabine Le Bayon

La campagne pour les élections législatives du 22 septembre en Allemagne a fait l’objet d’un large débat entre toutes les forces politiques sur la consolidation de l’Etat social. Le programme du SPD met très largement en avant la notion de justice sociale tandis que la CDU a repris dans son programme plusieurs des thèmes phares du SPD dans le domaine social. Le rôle de l’Etat social n’a jamais été aussi présent dans une campagne pour les législatives depuis 2002. Pour autant, il ne s’agit pas d’aller vers davantage d’Etat social mais d’un retour vers plus de qualité dans l’Etat social, en corrigeant certaines des conséquences négatives de l’Agenda 2010[1]. La lutte contre la pauvreté aux âges avancés (au travers de la revalorisation des avantages familiaux des mères âgées, de l’introduction d’un minimum contributif), la re-régulation de certaines formes de travail (intérim) et la nécessité de renforcer les minima salariaux (salaire minimum) se retrouvent aussi bien dans les programmes de la CDU que du SPD. Même le FDP, traditionnellement hostile à toute idée de salaire minimum, a introduit dans son programme électoral la nécessité d’un « salaire convenable même au bas de l’échelle des salaires ». Cependant, derrière cette unité apparente, les modalités de ce salaire minimum divergent largement entre les partis.

Un affaiblissement du système de négociations collectives

Dans un pays où il n’y a pas de salaire minimum interprofessionnel légal, les grilles salariales sont négociées par les partenaires sociaux au sein de chaque branche, au niveau régional ou national. Mais la baisse de la part de salariés couverts par une convention collective (53% en 2012 dans les anciens Länder, 36% dans les nouveaux Länder, contre respectivement 70% et 56% en 1996), l’affaiblissement des syndicats et le développement des formes d’emploi atypiques, notamment depuis les réformes Hartz, ont entraîné une augmentation de la part des personnes percevant un bas salaire, remettant en cause la fonction protectrice du système de négociations collectives pour toute une frange de la population. En 2010, la part des bas salaires[2] était de 22,2% en Allemagne et de 6,1% en France. La majorité des 8,1 millions de salariés concernés (Kalina et Weinkopf, 2013) sont à temps complet (45%), un quart occupent des emplois à temps partiel soumis à cotisations sociales et 30% sont employés en « mini-job ». La fourchette des salariés percevant un bas salaire (inférieur à 9,14 euros[3]) est large : 1,8 million touche moins de 5 euros par heure, 2,6 millions entre 5 et 7 euros et 2,5 millions entre 7 et 8,50 euros.

Le débat sur l’introduction d’un salaire minimum légal remonte aux années 1990. Il est cependant longtemps resté cantonné à quelques secteurs, tout particulièrement le BTP, dans une logique de lutte contre la concurrence salariale exercée par les entreprises des nouveaux pays membres de l’Union européenne, qui détachaient leurs salariés en Allemagne à des conditions de rémunérations très en deçà de celles prévues dans les négociations collectives. Il a fallu attendre le milieu des années 2000 pour que la première revendication syndicale commune pour un salaire horaire minimum interprofessionnel (de 7,5 euros l’heure) soit formulée par le DGB (la confédération des syndicats), et que les préoccupations relatives au soutien du revenu l’emportent petit à petit sur celles relatives au dumping salarial. Ce niveau a été revalorisé à 8,5 euros à compter de mai 2010.

SPD et CDU/CSU/FDP : deux visions différentes du salaire minimum

Si tous les grands partis mettent en avant la volonté d’instaurer un salaire minimum, il n’y a pas pour autant consensus sur ses modalités concrètes.

Le SPD propose l’instauration d’un salaire minimum légal de 8,5 euros de l’heure (brut), qui s’appliquerait à tous les salariés, indépendamment des minima conventionnels de branche. Il s’agit, comme l’a souligné le candidat du SPD, Peer Steinbrück, lors du débat qui l’a opposé à Angela Merkel début septembre, d’en finir avec le « patchwork des salaires minima de branche à branche et de région à région ». Quelques 6,9 millions de personnes verraient leur salaire horaire revalorisé (Kalina et Weinkopf, 2013) de 30% en moyenne et de plus de 80% pour les 1,8 million de salariés qui perçoivent moins de 5 euros de l’heure. Environ un cinquième des salariés serait concernés, dont plus de la moitié ayant un emploi « normal » (soumis à cotisations sociales). Il en résulterait un choc de revenu (pour les ménages) et de compétitivité (pour les entreprises) de grande ampleur ainsi qu’une remise en cause fondamentale de l’économie à bas salaires qui caractérise désormais certains secteurs (agriculture, agro-alimentaire, commerce de détail, hôtellerie restauration, sécurité et nettoyage, etc.).

La question du salaire minimum est de fait indissociable de celle du devenir des « mini-job », ces 7 millions d’emplois rémunérés à moins de 450 euros par mois (400 euros avant avril 2013), exonérés de cotisations salariés et d’impôt sur le revenu et qui ne permettent quasiment pas d’obtenir de droits sociaux. Dans le cas de l’introduction d’un salaire minimum interprofessionnel de 8,5 euros de l’heure, ils représenteraient près de 40% des effectifs concernés par une revalorisation de leur salaire.

On peut rappeler que l’une des mesures phares du premier gouvernement SPD-Verts conduit par Schröder avait été, en 1999, de restreindre fortement le recours aux « mini-job », accusés (i) de favoriser la précarisation de l’emploi par la substitution à des emplois normaux soumis à cotisations sociales et (ii) de ne pas offrir de couverture sociale. Trois ans plus tard, la Commission Hartz proposait d’en assouplir l’usage en vue de développer le segment des emplois peu qualifiés.

De nombreuses études ont récemment mis en évidence des violations caractérisées du droit du travail (non-respect des règles relatives aux absences maladie, aux congés payés, etc.) et des salaires horaires indécemment bas dans le cadre de ces emplois (Bäcker et Neuffer 2012[4], Bundesministerium für Familie, 2012). Il ne faut donc pas s’étonner que tous les grands partis (à l’exception du FDP) aient inclus dans leur programme électoral la volonté de réformer les « mini-jobs ». Mais alors que la CDU vise uniquement les violations du droit du travail, le programme du SPD va plus loin. L’introduction d’un salaire minimum de 8,5 euros (en brut) par heure limiterait en effet l’intérêt pour les entreprises d’avoir recours aux « mini-job ». De plus, un salaire de 8,5 euros par heure équivaudrait de fait à réintroduire une limite temporelle aux « mini-jobs », d’environ 13 heures par semaine compte tenu du plafond de rémunération mensuelle. On ne serait alors pas loin de la limite de 15 heures hebdomadaire qui avait été supprimée par la loi Hartz II en 2003…dans le cadre de l’Agenda 2010[5]. Plus globalement, c’est toute l’économie politique de ces emplois qui serait remise en cause puisque leur logique est d’offrir une rémunération d’appoint exonérée de cotisations sociales salariés dans des secteurs à faibles minima salariaux.

La proposition de la CDU sur le salaire minimum vise à faciliter l’extension des conventions existantes (c’est- à-dire à réformer la procédure par laquelle une convention collective devient obligatoire pour toutes les entreprises de la branche concernée) et à exiger des branches sans convention collective la fixation de minima salariaux. La volonté de se préserver contre la concurrence salariale exercée par les entreprises n’adhérant pas aux conventions collectives et par les entreprises des pays de l’Est détachant en Allemagne leurs salariés[6] a conduit plusieurs branches à recourir au cours des années récentes à ces procédures d’extension. Or, alors que cette extension est quasi automatique en France, c’est loin d’être le cas en Allemagne, même si cette procédure a été simplifiée en 2009. Pour la CDU, c’est donc une logique de moindre peine qui est proposée, c’est-à-dire d’intervention de l’Etat dans les seuls cas de défaillance des partenaires sociaux. Le but est de pallier les situations de « vide conventionnel » et de permettre à un maximum de salariés d’être rémunérés en fonction des minima conventionnels, tout en laissant aux partenaires sociaux le soin d’en fixer le niveau, puisque la CDU estime que des salaires minima différenciés permettent de tenir compte au mieux de la diversité des situations régionales et sectorielles.

La CDU, qui ne pourra vraisemblablement pas gouverner seule durant la prochaine législature, ne s’avance pour l’instant pas plus sur ce sujet dans l’attente du résultat des élections. Selon le parti avec lequel elle gouvernera, les choix en termes de régulation des bas salaires devraient en effet être très différents.

On peut rappeler ici les nombreuses limites du système actuel de procédure d’extension par l’Etat, dans lequel s’inscrit la proposition de la CDU :

  • – Lorsque plusieurs conventions collectives au sein d’une même branche existent, la procédure d’extension devient plus délicate puisqu’il s’agit de déterminer laquelle est la plus représentative, ce qui peut donner lieu à controverses. Cela a été le cas dans le secteur postal où deux conventions collectives concurrentes coexistaient, l’une couvrant les salariés de Deutsche Post, l’ancien monopole dans ce secteur, l’autre concernant les salariés des entreprises concurrentes et où les salaires minima étaient bien inférieurs. Le gouvernement avait décidé d’étendre à l’ensemble du secteur la convention signée au sein de Deutsche Post. Les entreprises concurrentes ont porté plainte et la procédure d’extension a été invalidée par le Tribunal de Berlin[7].
  • – Les négociations concernant les salaires minimaux de branche sont reconduites régulièrement (par semestre ou pour une ou plusieurs années). Or, quand les renégociations n’aboutissent pas, il peut s’écouler plusieurs mois pendant lesquels aucun minimum n’est en vigueur et les employeurs en ont parfois profité pour embaucher des salariés 30 % moins chers que les minima précédents. Ce fut par exemple le cas fin 2009 dans la branche du nettoyage industriel (Bosch et Weinkopf 2012).
  • – Les minima de branche sont très variables et certains d’entre eux ne permettent pas de protéger les salariés contre le risque de pauvreté. Ainsi, selon les données du WSI- Tarifarchiv (mars 2013), 11% des conventions collectives fin 2012 prévoyaient des minima inférieurs à 8,50 euros, le seuil proposé comme salaire minimum légal par le SPD, lui-même inférieur au seuil de bas salaire (9,14 euros).

L’effet des propositions des différents partis sur l’évolution de l’emploi est difficile à estimer à partir des études conduites récemment en Allemagne (Bosch et Weinkopf 2012), ne serait-ce que parce que ces dernières avaient porté sur l’introduction de minima salariaux dans des branches isolées, avec une proportion de salariés concernés réduite. Cela serait sans commune mesure avec l’introduction d’un salaire minimum interprofessionnel touchant au moins un quart des salariés, et non différencié, ou même avec la généralisation de minima conventionnels. Le but est bien dorénavant que le maximum de salariés touche un salaire « décent », même si le niveau de ce dernier diffère selon les programmes. Il est aussi de faire reculer certaines formes d’emploi atypiques. Notamment, dans plusieurs secteurs, les études qui ont été réalisées montrent que l’introduction d’un salaire minimum a conduit à une modification de la structure de l’emploi avec moins de « mini-jobs » et plus d’emplois « normaux » (soumis à cotisations sociales), du fait des contrôles réguliers effectués pour vérifier le respect des minima salariaux dans les entreprises. Quels que soient les résultats des élections, les mesures adoptées iront en tout cas dans le sens d’une correction des injustices les plus flagrantes en termes de rémunérations salariales, notamment concernant les « mini-jobs ».

 

 

 

 


[1] L’Agenda 2010 regroupe l’ensemble de réformes menées en Allemagne par la coalition SPD-Verts entre 2003 et 2005, qui portaient principalement sur les réformes du marché du travail (réformes dites Hartz) (pour plus de détails, voir par exemple Hege 2012, Chagny 2008).

[2] Il s’agit des salariés percevant moins des 2/3 du salaire horaire brut médian.

[3] Pour mémoire, le salaire horaire brut médian était de 13,7 euros en 2011 en Allemagne.

[4] « Von der Sonderregelung zur Beschäftigungsnorm : Minijobs im deutschen Sozialstaat », WSI Mitteilungen 1/2012.

[5] Sans mentionner le fait qu’il en résulterait la nécessité de repenser complètement le soutien aux bas salaires via les exonérations de cotisations sociales salariés.

[6] Lorsque les entreprises d’un Etat membre envoient leurs travailleurs dans un autre Etat, elles sont tenues de respecter des normes minimales (temps de travail, salaires). Le détachement des travailleurs est encadré par la directive européenne de 1996. Ces détachements qui augmentent posent de nombreux problèmes (dumping social, concurrence déloyale, conditions de travail dégradées). (Metis 2013).

[7] Pour plus de détails, voir : “Vrais et faux enjeux de la controverse sur les salaires minima légaux en RFA”, Karl Brenke, Regards sur l’économie allemande, n° 94, 2009.




Encadrement des loyers : l’ALUR suffit-elle ?

par Sabine Le Bayon, Pierre Madec et Christine Rifflart

Le 10 septembre 2013, a débuté au Parlement la discussion du projet de loi “Accès au Logement et un Urbanisme Rénové” (ALUR). Cette loi va se traduire par un interventionnisme plus prononcé sur le marché du logement locatif privé et vient compléter le décret, entré en vigueur à l’été 2012, sur l’encadrement des loyers en zones tendues et qui avait marqué une première étape dans la volonté du gouvernement d’enrayer la hausse des dépenses de logement des locataires[1].

La volonté du gouvernement d’encadrer les dérives du marché locatif privé devrait avoir rapidement un impact pour les ménages qui s’installent dans un nouveau logement. Pour les locataires en place, le processus devrait être plus long. Au final, dans une agglomération comme Paris, on peut s’attendre, si les loyers les plus élevés diminuent au niveau du plafond défini par la loi, à une baisse de 4 à 6% du loyer moyen. Si, par un effet d’entraînement, cela se répercute ensuite sur l’ensemble des loyers, l’impact désinflationniste sera plus fort. En revanche, le risque d’une dérive haussière sur les plus bas loyers n’est pas à écarter, même si le gouvernement s’en défend. Enfin, l’impact de la loi dépendra en grande partie du zonage défini par les observatoires des loyers dont la mise en place est en cours.

Le décret d’encadrement : un effet visible … mais minime

Le dernier rapport annuel de l’Observatoire des loyers de l’agglomération parisienne (OLAP)[2] nous donne un premier éclairage de l’impact du décret sur l’encadrement des loyers. Pour rappel, le décret contraint les loyers à la relocation à augmenter au maximum au rythme de l’indice légal de référence (IRL), sauf si des travaux importants ont été réalisés (dans ce cas, la hausse est libre). Ainsi, entre le 1er janvier 2012 et le 1er janvier 2013, 51 % des logements parisiens proposés à la relocation ont vu leur loyer augmenter plus vite que l’IRL, et ce sans réalisation de travaux importants. Cette part a été moins élevée qu’en 2011 (58,3 %) et 2010 (59,4 %), mais elle demeure à un niveau proche de ceux observés entre 2005 et 2009 (50%), avant l’existence du décret.

L’impact semble un peu plus concluant à partir des données mensuelles. Ainsi, sur la période d’application du décret d’août à décembre 2012, la part des loyers proposés à la relocation et ayant augmenté plus vite que l’IRL a baissé de 25 % en moyenne sur un an, contre seulement 8 % sur les mois de janvier à juillet 2012, comparés à la même période de 2011.

Un « effet décret » a donc bien eu lieu.  Celui-ci aurait permis de faire baisser la part des hausses de loyers à la relocation supérieures à l’IRL d’environ 18%. Pour autant, si l’on considère, qu’en cas de respect total du décret, aucune hausse supérieure à l’IRL n’aurait dû persister, l’impact reste insuffisant. Plusieurs facteurs déjà identifiés dans un document de travail, peuvent expliquer cela : loyers de référence inexistants, manque d’information tant du propriétaire que du locataire, insuffisance des possibilités de recours, etc. Un an après, il s’avère que ces manquements ont joué négativement sur l’application de la mesure.

Une loi à l’envergure plus large

La grande nouveauté du projet de loi ALUR porte sur l’encadrement des niveaux de loyers dans les zones tendues alors que les précédents décrets ne portaient que sur leur évolution. Désormais, une fourchette de niveaux de loyers autorisés sera fixée par la loi et le décret viendra encadrer les évolutions maximales autorisées[3]. Pour cela, le gouvernement fixe chaque année par arrêté préfectoral un loyer médian de référence au m2, par secteur géographique (quartier, arrondissement, …) et par type de logement (1 pièce, 2 pièces,..). Ainsi,

  • – pour les nouvelles locations ou les relocations, le loyer ne pourra excéder le loyer médian de référence majoré au plus de 20%, sauf à justifier d’un complément de loyer exceptionnel (prestations particulières,…). Ensuite, l’augmentation ne pourra excéder l’IRL conformément au décret d’encadrement dans les zones tendues (sauf travaux) ;
  • – lors du renouvellement de bail, le loyer pourra être réajusté à la hausse ou à la baisse en fonction du loyer médian de référence majoré ou minoré[4]. Ainsi, un locataire (respectivement un bailleur) pourra engager un recours en diminution (resp. en augmentation) de loyer si ce dernier est supérieur (resp. inférieur) au loyer médian majoré (resp. minoré). En cas de hausse de loyer, un mécanisme d’étalement de cette hausse dans le temps est prévu. S’il y a un désaccord entre locataires et bailleurs, un règlement à l’amiable pourra être engagé, préalablement à la saisine d’un juge dans des délais strictement déterminés. A l’intérieur de la fourchette, la hausse est limitée à l’IRL ;
  • – en cours de bail, la révision annuelle du loyer se fait comme actuellement sur la base de l’IRL ;
  • – les locations meublées seront désormais concernées par l’encadrement : le préfet fixera un loyer de référence majoré et la révision sera limitée à l’IRL.

L’introduction de ces loyers médians de référence présente trois avancées majeures. D’une part, ils seront calculés à partir des informations recueillies par les observatoires des loyers sur l’ensemble du stock du parc locatif, et non à partir des seuls logements vacants et disponibles à la location, c’est-à-dire des loyers dits « de marché ». Or, ces loyers de marché sont supérieurs de près de 10 % à la moyenne de l’ensemble des loyers, elle-même supérieure à la médiane des loyers. Ce mode de calcul entraînera donc inéluctablement une baisse des loyers (de marché et moyens).

De même, le choix opéré de la médiane et non de la moyenne comme loyer de référence va dans le sens d’une plus grande stabilité de la mesure. Dans l’hypothèse où l’ensemble des loyers supérieurs de 20% à la médiane (donc au loyer de référence majoré) vient à baisser et où les autres loyers restent inchangés, la médiane reste identique. Dans le cas d’un ajustement de l’ensemble des loyers, la médiane viendrait à baisser mais dans des proportions moindres que la moyenne, par définition plus sensible à l’évolution des valeurs extrêmes.

Enfin, l’obligation d’inscrire dans le bail les loyers médian et médian majoré de référence, le dernier loyer pratiqué et si nécessaire, le montant et la nature des travaux effectués depuis la signature du dernier contrat, accroît la transparence et établit un cadre réglementaire plus strict qui devrait entraîner un plus grand respect de la mesure.

Quelles évolutions sont à attendre ?

En 2012, sur les 390 000 logements mis en location à Paris, 94 000 ont un loyer supérieur au loyer médian majoré (3,7 euros/m² de plus en moyenne) et 32 000 ont un loyer inférieur de plus de 30% au loyer médian de référence (2,4 euros/m² de moins en moyenne). En considérant que seuls les loyers supérieurs au loyer médian majoré seront corrigés, la baisse du loyer moyen pourrait être de 4% à 6% selon les zones et le type de logement. Cette diminution, bien que non négligeable, permettrait au mieux de revenir aux niveaux de loyers observés en 2010, avant la forte inflation des années 2011 et 2012 (+7,5% entre 2010 et 2012). Cet ajustement des loyers pourrait néanmoins prendre du temps. Propriétaires et locataires pourront facilement faire valoir leurs droits au moment d’une relocation[5] , mais les réévaluations lors du renouvellement de bail pourraient être plus lentes à mettre en place. Malgré un accès à l’information et un cadre réglementaire plus favorables au locataire, le risque d’un conflit avec le propriétaire et la concurrence exacerbée sur le marché locatif dans les zones où s’applique la loi, peuvent encore dissuader certains locataires de faire valoir leurs droits.

La question est beaucoup plus complexe pour les 32 000 logements dont les loyers sont inférieurs au loyer de référence minoré. Si la qualité de certains logements peut justifier cet écart (insalubrité, localisation,…), on sait également que la sédentarité des locataires est le principal facteur explicatif de la faiblesse de certains loyers. Ainsi, selon l’OLAP, à Paris, un logement occupé depuis plus de 10 ans par le même locataire a en moyenne un loyer inférieur de 20 % au loyer moyen de l’ensemble des locations. Dès lors, la question de la réévaluation de ces loyers se pose. En effet, la loi permet au propriétaire, en contradiction d’ailleurs avec le décret[6], de réévaluer, lors d’une relocation ou d’un renouvellement de bail, à hauteur du loyer médian minoré. Une fois ce dernier atteint, l’évolution ne pourra excéder l’IRL. A terme, certains logements aux caractéristiques équivalentes seront donc sur le marché à des loyers très disparates, pénalisant ainsi les bailleurs de locataires sédentaires. A contrario, les locataires présents depuis longtemps dans leur logement ont le risque de voir leur loyer fortement réévalué (supérieur à 10%). Les taux d’effort[7] de ces ménages risquent alors d’augmenter, poussant ainsi ceux à la contrainte budgétaire trop forte à émigrer vers des zones moins tendues.

Néanmoins, la possibilité de réajuster le loyer au niveau du loyer de marché, dans le cas d’une sous-évaluation manifeste, existe déjà dans le cadre de la loi actuelle du 6 juillet 1989 (article 17c) au moment du renouvellement de bail. En 2012, à Paris, 3,2 % des propriétaires ont eu recours à cet article. Avec la nouvelle loi, si les réajustements devraient être plus nombreux, l’impact inflationniste devrait être plus faible puisque la référence (le loyer médian minoré) est largement inférieure au loyer de marché.

Dès lors, la question du zonage est centrale. Plus le découpage sera fin, plus les loyers de référence correspondront aux caractéristiques réelles du marché local. Dans l’hypothèse d’un large découpage du territoire, les loyers médians de référence risquent d’être trop élevés pour les quartiers les moins chers et trop bas pour les quartiers les plus chers. Parallèlement, les faibles loyers seraient peu revalorisés dans les quartiers chers et plus franchement dans les quartiers qui le sont moins. Cela pourrait entraîner alors un rapprochement des loyers « inter quartiers » – indépendamment des caractéristiques locales – et non « intra quartiers ». Conséquences néfastes tant pour le propriétaire bailleur que pour le locataire.

La loi en discussion actuellement pourrait avoir d’autant plus d’impact sur les loyers que les prix immobiliers ont entamé une baisse en France en 2012 et que la conjoncture actuelle morose freine déjà les hausses de loyer. Mais, faut-il encore le rappeler, seule la construction de logements dans les zones tendues (y compris via une densification[8]) résoudra les problèmes structurels de ce marché. Les mesures d’encadrement des loyers ne sont qu’un moyen temporaire de limiter la hausse des taux d’effort mais elles ne sont pas à elles seules suffisantes.

 


[1] Pour plus de détails, voir le post “L’encadrement des loyers : quels effets en attendre?“.

[2] Le territoire couvert par ce rapport est composé de Paris, la petite couronne et la grande couronne parisienne.

[3] Le décret d’encadrement des loyers n’ayant pas le même champ d’action que la loi (38 agglomérations contre 28), certains territoires ne seront soumis qu’à l’encadrement des évolutions et non des niveaux.

[4] Si le projet de loi restait flou sur le calcul du loyer de référence minoré, un amendement adopté en juillet par la Commission de l’Assemblée propose que le loyer médian minoré soit inférieur d’au moins 30 % au loyer médian de référence. Un autre amendement précise qu’en cas de réajustement à la hausse, le nouveau loyer ne pourra excéder ce loyer médian minoré.

[5] En 2012, seul 18% des logements du parc locatif privé ont été l’objet d’une relocation.

[6] Lors du renouvellement de bail et de la relocation, le décret d’encadrement permet au propriétaire de réévaluer son loyer de la moitié de l’écart qui le sépare du loyer de marché.

[7] Il s’agit de la part du revenu du ménage consacré au logement.

[8] Sur ce sujet, voir l’article de Xavier Timbeau, “Comment construire (au moins) un million de logements en région parisienne”, Revue de l’OFCE n°128.




De la monnaie cosmopolitique

Par Maxime Parodi, sociologue à l’OFCE

Une monnaie cosmopolitique est une monnaie commune à plusieurs nations et fondée explicitement sur une forme de co-souveraineté (pour une analyse approfondie voir le working paper de l’OFCE, 2013-09, juin 2013). Une telle monnaie n’est possible qu’en acceptant une politique monétaire et des politiques budgétaires et fiscales fondées sur des raisons partagées, où chacun est responsable des engagements monétaires qu’il prend et co-responsable de la capacité de chacun à mener une politique économique adéquate. Pour durer, cette monnaie exige une attention soutenue sur les divergences macroéconomiques entre les partenaires et les difficultés que rencontre chacun ; elle impose une concertation ouverte sur les raisons de ces divergences et de ces difficultés ; elle nécessite une force de propositions sur les remèdes possibles, à court, moyen et long terme ; enfin, elle exige la coopération volontaire de chacun, à condition toutefois d’en avoir la capacité.

De tous les sociologues classiques, seul Simmel aurait pu envisager une telle monnaie. En effet, il est le seul à étudier la socialisation en elle-même, à vouloir comprendre la société en train de se faire tandis que Durkheim partait d’une société toujours déjà constituée, d’un individu toujours déjà socialisé et Weber partait d’individus toujours déjà constitués, « terminés », sans les considérer aussi comme des sujets susceptibles de s’influencer mutuellement pour faire délibérément société. Or une union cosmopolitique est précisément une union toujours en train de se faire ; elle n’est jamais définitivement constituée. Ce type d’union est donc fragile par essence mais, en même temps, elle n’apparaît jamais que dans les contextes où elle s’impose objectivement aux citoyens. L’union est sans cesse renouvelée, remise à l’ouvrage, parce qu’il y a un terreau objectif d’intérêts voisins ou transversaux et que, par conséquent, chacun juge souhaitable de résoudre au mieux les problèmes de voisinage. Dès lors, au nom de l’union, il devient possible de régler certains conflits avec équité et de resserrer les liens.

Dans cette optique, le fait d’adopter une monnaie commune n’est pas un acte anodin au sein d’une union cosmopolitique. D’un coup, chacun s’engage à respecter ses promesses monétaires à l’égard de ses voisins. C’est évidemment un grand bouleversement, qui a des conséquences immédiates et prévisibles : les coûts de transaction entre les partenaires s’effondrent, en particulier il n’y a plus de risque lié à la détention d’une devise étrangère puisque la devise est maintenant commune et garantie politiquement. Mais il y a aussi des conséquences moins immédiates, plus souterraines. Ainsi, cet engagement commun remet souvent en cause la culture économique des nations concernées en les obligeant à expliciter certains de leur mode de fonctionnement : des gouvernements habitués à résoudre leurs problèmes par l’inflation ou la dévaluation doivent dorénavant dire à leurs citoyens qu’il faut augmenter les taxes ou dépenser moins ; des banques « trop grosses pour faire faillite » doivent maintenant rédiger des testaments au lieu de compter sur la garantie implicite des citoyens… Enfin, la monnaie cosmopolitique crée un nouveau lien entre les partenaires, qui les conduit en principe à se soucier de leurs voisins. De fait, les partenaires ne se sont pas simplement engagés à respecter leurs promesses envers chacun, mais aussi à ce que chacun soit en mesure de respecter les siennes (puisque la confiance ne se divise pas).

Aussi la monnaie cosmopolitique introduit une sorte de solidarité au sein de l’union. Il faut désormais se soucier que son voisin soit en capacité de tenir ses engagements monétaires. Ceci implique de garantir à celui-ci une capacité d’endettement et/ou un flux d’investissement sur son territoire. Mais, à la différence des solidarités au sein d’une nation, cette garantie-ci est plus morale que juridique : elle n’est pas entièrement gravée dans le marbre de l’union, mais doit être discutée au cas par cas. Le risque d’aléa moral est ainsi écarté.

L’euro apparaît comme le cas paradigmatique d’une monnaie cosmopolitique. C’est même le seul cas au travers de l’histoire où le cosmopolitisme fonde véritablement la monnaie. Ce caractère inédit pose d’ailleurs des difficultés en bousculant les cultures économiques nationales. Depuis les débuts de la crise monétaire, en 2008, chacun découvre comment les institutions verticales (Conseil européen, BCE) abordent les problèmes et mettent en œuvre des réponses. Une culture de l’euro se forge-là, presque une jurisprudence. C’est pourquoi, d’ailleurs, le Conseil européen devrait s’interroger sur le poids de ses décisions sur cette culture naissante : la zone euro est-elle en train d’adopter une coutume des « retours immédiats » ? Une doctrine née de la défiance ? Si une monnaie cosmopolitique est possible, encore faut-il en accepter les deux faces – la co-responsabilité autant que la responsabilité.

 




Chocs, chômage et ajustement, les limites de l’union monétaire européenne

Par Christophe Blot

Dans un article paru en 2013 dans Open Economies Review[1], C. A. E. Goodhart et D. J. Lee comparent les mécanismes de sortie de crise aux Etats-Unis et en Europe. S’appuyant sur une comparaison de la situation de trois Etats (l’Arizona, l’Espagne et la Lettonie) confrontés à un krach immobilier et à une récession, les auteurs explorent les raisons de la divergence croissante observée entre les pays de la zone euro, divergence qui ne se retrouve pas aux Etats-Unis. Leur analyse s’appuie sur les critères de zones monétaires optimales permettant aux membres d’une union monétaire de s’ajuster en cas de choc négatif, et ainsi d’éviter une divergence pérenne de leur taux de chômage lors d’un ralentissement ou d’un recul de l’activité. Si la Lettonie ne fait pas formellement partie d’une union monétaire[2], sa monnaie est cependant restée solidement ancrée à l’euro pendant la crise. Ainsi, aucun des Etats étudiés par Goodhart et Lee n’a eu recours à une dévaluation nominale pour absorber les chocs financiers et réels auxquels ils ont été confrontés. Ils concluent que si l’Arizona a mieux absorbé les chocs que l’Espagne, c’est à la fois en raison de la plus grande solidarité fiscale qui existe entre les Etats des Etats-Unis et de la plus forte intégration du système bancaire américain qui contribue à amortir les chocs spécifiques à chaque Etat.

Outre l’appartenance de jure ou de facto à une union monétaire, l’Arizona, l’Espagne et la Lettonie ont en commun d’avoir enregistré un boom immobilier dans les années 2000 suivi d’une correction qui a débuté dès 2006 dans l’Arizona et en Lettonie, et un an plus tard en Espagne (graphique 1). La crise immobilière s’accompagne d’une récession et l’on retrouve le même décalage entre l’Espagne et les deux autres Etats. La Lettonie a enregistré la baisse d’activité la plus forte (-21 % entre 2007 et 2010). En revanche, les pertes d’activité enregistrées par l’Arizona (-5,5 % depuis 2007) et l’Espagne (-5 % depuis 2008) sont comparables. Tandis que l’ajustement à la baisse du marché immobilier a cessé en Arizona (la reprise est enclenchée dans l’Etat américain), la récession se poursuit en Espagne. Au total, cette différence dans l’ajustement se traduit par une hausse continue du chômage en Espagne alors qu’il a baissé de 2,8 points en Arizona depuis le pic atteint au premier trimestre 2010 (graphique 2).

L’enlisement de l’Espagne dans la récession et la divergence croissante des économies dans la zone euro pose la question de la capacité des pays de la zone euro à s’ajuster en cas de choc négatif. La théorie des zones monétaires optimales, initialement développée par Mundell en 1961[3], permet d’évaluer les conditions sous lesquelles un pays peut avoir intérêt à adhérer à une union monétaire. L’optimalité de ce choix dépend de la capacité du pays à absorber les chocs sans avoir recours à une dévaluation de la monnaie. Différents mécanismes d’ajustement sont mis en exergue. Il s’agit principalement[4] de la flexibilité des prix et en particulier des salaires, de la mobilité du facteur travail, de l’existence de transferts budgétaires entre les pays de l’union monétaire et de l’intégration financière. La flexibilité des prix correspond à un mécanisme de dévaluation interne. Comme pour la dépréciation de la monnaie, il s’agit de gagner en compétitivité – par une baisse du coût du travail relatif – pour stimuler les exportations et la croissance lorsque survient un choc négatif. Néanmoins, ce type d’ajustement est généralement bien plus long et coûteux comme le suggèrent les exemples récents de l’Islande et de l’Irlande[5]. La mobilité du travail permet l’ajustement dès lors que la récession conduit des personnes à migrer des Etats où le chômage est élevé vers celui où il est plus faible. La mise en œuvre de transferts budgétaires résulte de l’ensemble des mécanismes permettant aux Etats où la croissance ralentit de bénéficier de transferts stabilisateurs en provenance des autres Etats de l’union ou d’un échelon de gouvernement supérieur. Enfin, Goodhart et Lee considèrent également le rôle stabilisateur du système bancaire local. En l’occurrence, au sein de la zone euro, moins le système bancaire local est fragilisé par la crise immobilière ou celle des dettes publiques, meilleure est l’absorption des chocs.

Les auteurs analysent l’ajustement des économies considérées à l’aune de ces quatre critères. Ils étudient notamment le degré de flexibilité des prix et de mobilité du travail en fonction du chômage dans les trois Etats. Puis ils évaluent l’importance des transferts budgétaires et l’architecture du paysage bancaire. Leurs conclusions sont les suivantes :

  1.  La flexibilité des prix n’a joué que marginalement dans l’ajustement sauf en Lettonie où la hausse du chômage a entraîné une baisse du coût unitaire du travail. Ces coûts n’ont par contre pas réagi significativement à l’augmentation du chômage en Espagne et dans l’Arizona.
  2.  Si les migrations sont plus fortes au sein des Etats-Unis qu’en Europe, les différences ne permettent toutefois pas d’expliquer l’écart d’ajustement des taux de chômage. Il ressort cependant que le rôle des migrations en tant que mécanisme d’ajustement se serait renforcé en Europe. Il reste qu’elles sont insuffisantes pour assurer la convergence des taux de chômage.
  3. En 2009 et 2010, l’Arizona a bénéficié d’importants transferts du gouvernement fédéral alors qu’au niveau européen, il n’existe aucun mécanisme automatique de transferts entre Etats. Toutefois, la Lettonie a bénéficié de l’assistance du FMI en 2009 tandis que les pays de la zone euro sont venus au chevet des banques espagnoles. Il reste qu’en l’absence de budget européen conséquent, les pays européens ne peuvent bénéficier que de plans d’aide d’urgence qui, certes, permettent de répondre à un besoin de financement, mais sont insuffisants pour jouer le rôle de stabilisateur économique.
  4. Enfin, les auteurs soulignent que l’amplification financière des chocs a été moindre en Arizona dans la mesure où l’essentiel de l’activité bancaire y est réalisée par des banques nationales qui sont de fait moins sensibles aux conditions macroéconomiques et financières locales. Le risque de rationnement du crédit est alors atténué, ce qui permet de mieux absorber le choc initial. En Espagne, à l’exception de quelques banques ayant une activité internationale, qui leur permet de diversifier les risques, l’activité bancaire dépend de banques locales qui sont de fait plus vulnérables. Cette fragilité accrue pousse les banques à restreindre l’accès au crédit, ce qui renforce le choc initial. La Lettonie se trouve dans une position alternative dans la mesure où l’activité financière est essentiellement réalisée par des banques étrangères. La nature du risque est alors différente puisque l’activité financière locale est déconnectée des conditions macroéconomiques lettones mais dépend de celles du pays où ces banques – suédoises dans une forte proportion – exercent leur activité principale.

La crise de la zone euro a donc bien une dimension institutionnelle. A partir du moment où les pays ont librement consenti à abandonner leur souveraineté monétaire, ils ont aussi refusé de recourir à la dévaluation de la monnaie pour amortir les récessions. Il est cependant indispensable que des mécanismes d’ajustement alternatifs opèrent afin de garantir la « soutenabilité » de l’unification monétaire. L’article écrit par Goodhart et Lee rappelle à cet égard que ces mécanismes font encore défaut dans la zone euro. Les négociations autour du budget européen n’ont ouvert aucune perspective pour la mise en œuvre de transferts fiscaux permettant de stabiliser les chocs au niveau européen. La discussion sur les Eurobonds est au point mort. Si le MES (Mécanisme européen de stabilité) est bien un outil de solidarité entre les Etats membres, il répond à une problématique différente puisqu’il s’agit uniquement d’une aide financière d’urgence et non d’un mécanisme de stabilisation automatique. L’intégration bancaire pourrait aussi permettre d’amortir les fluctuations. Cependant, la crise a entraîné une fragmentation accrue des marchés bancaires européens. Le dernier rapport sur l’intégration financière en Europe, publié par la BCE, révèle une baisse des flux bancaires transfrontaliers de 30 % au cours de la période récente. De même, malgré la politique monétaire commune, les taux appliqués aux crédits par les banques européennes ont divergé récemment[6] (graphique 3). Ainsi, malgré le passeport bancaire européen issu de la directive européenne du 15 décembre 1989 en matière de reconnaissance mutuelle des agréments délivrés aux établissements de crédit, l’activité bancaire transfrontalière reste peu développée à l’échelle européenne. Le modèle de banque de détail s’appuie sur l’existence de relations de long terme entre la banque et ses clients, ce qui explique sans doute pourquoi le processus d’intégration est beaucoup plus long que pour les marchés obligataires, monétaires ou d’actions. Il reste cependant que l’union bancaire pourrait constituer une étape supplémentaire dans ce difficile processus d’intégration. Cela favoriserait le développement d’une activité transnationale, ce qui permettrait aussi de déconnecter les problèmes de solvabilité et de liquidité des banques et ceux du financement de la dette publique.

graph1_1110CBblog

graph2_1110CBblog

graph3b_1110CBblog

 

___________________________________

[1] « Adjustment mechanisms in a currency area », Open Economies Review, January 2013. Une version préliminaire de l’article peut être téléchargée ici : http://www.lse.ac.uk/fmg/workingPapers/specialPapers/PDF/SP212.pdf

[2] La Lettonie participe depuis 2005 au mécanisme de change européen et devrait adopter l’euro au 1er janvier 2014.

[3] « A theory of optimum currency areas », American Economic Review,  vol. 51, 1961.

[4] On peut aussi ajouter le taux d’ouverture de l’économie ou le degré de diversification de la production.  Mongelli (2002) propose une revue détaillée de ces différents critères. Voir : « New views on the optimum currency area theory : what is EMU telling us ? » ECB Working Paper, n° 138.

[5] Voir Blot et Antonin (2013) pour une analyse comparative des cas irlandais et islandais.

[6] C. Blot et F. Labondance (2013) proposent une analyse de la transmission de la politique monétaire aux taux appliqués par les banques aux sociétés non financières (voir ici) aux prêts immobiliers (voir ici).




Le solaire refroidit les relations sino-européennes

par Sarah Guillou

Début juillet 2013, c’est encore une entreprise de l’industrie du solaire, Conergy, qui est déclarée en faillite. La sortie de cette entreprise allemande, créée en 1998, illustre la fin d’un cycle pour l’industrie solaire. Cette faillite s’ajoute à une série de fermetures et de liquidations, tous pays confondus, qui ont ponctué la montée de la tension commerciale entre les Etats-Unis et l’Europe d’un côté et la Chine de l’autre au sujet des panneaux solaires (voir La Note de l’OFCE : « Le crépuscule de l’industrie solaire, idole des gouvernements », n° 32 du 6 septembre 2013). Au sommet de cette tension, en mai, la Commission européenne a décidé de menacer la Chine de droits de douanes de plus de 45 %. La guerre commerciale conclut une décennie d’engagements des gouvernements comme s’il s’agissait de sauver les deniers publics investis. Mais, elle signe surtout l’échec industriel d’une politique énergétique mondiale non coopérative.

Des débuts industriels prometteurs mais chaotiques

Amorcée au début des années 2000, l’idolâtrie gouvernementale en faveur du solaire, partagée des deux côtés de l’Atlantique, mais aussi dans les économies émergentes (et singulièrement la Chine) a certes propulsé l’énergie solaire au premier rang des énergies renouvelables, mais a aussi alimenté de nombreux déséquilibres de marché et de fortes turbulences industrielles. Alors que le prix du pétrole ne cessait d’augmenter de 2000 à 2010, la nécessité d’accélérer la transition énergétique et les engagements du protocole de Kyoto ont poussé les gouvernements à soutenir la production d’énergie renouvelable dont l’énergie solaire a été la grande bénéficiaire. De fait, l’industrie mondiale a connu une croissance gigantesque depuis 2004 : elle a crû de plus de 600 % de 2004 à 2011.

Le soutien public, accompagné d’investissements privés, a suscité des entrées massives sur le marché qui ont déstabilisé le prix de la ressource principale, le silicium, dont la quantité ne pouvait s’ajuster aussi rapidement. Les fluctuations du prix du silicium au gré des déséquilibres sur le marché des panneaux photovoltaïques ont créé une grande instabilité d’approvisionnement de la ressource principale s’ajoutant à l’incertitude technologique des entreprises qui cherchaient à innover dans le secteur (comme l’entreprise américaine Solyndra qui a finalement déposé le bilan en 2013).

La guerre commerciale pour une étoile

L’accélération de la domination chinoise sur l’industrie a pour sa part affecté  l’incertitude concurrentielle. La Chine est aujourd’hui le premier marché mondial et l’implication du gouvernement chinois dans le développement de l’industrie est sans égal. Aujourd’hui troisième pays au classement en termes de capacités installées (après l’Allemagne et l’Italie), la Chine est également le premier producteur mondial de panneaux solaires. Elle totalise aujourd’hui la moitié de la production mondiale de panneaux alors qu’elle en produisait seulement 6 % en 2005. Les producteurs chinois ont bénéficié d’un soutien massif des gouvernements central et locaux, ce qui a aussi participé à saturer le marché chinois.

La Chine, au-delà du soutien public, bénéficie d’un indéniable avantage de coût du travail qui rend l’activité de fabrication de panneaux solaires très compétitive – les étapes plus intenses en technologie se situent en amont dans cette industrie au niveau de la cristallisation du silicium et du découpage en tranches. Outre cet avantage compétitif, les producteurs chinois sont accusés de dumping, c’est-à-dire de vendre en dessous du coût de production. Leur compétitivité est donc sans égal mais … de plus en plus contestée. Les Etats-Unis ont décidé en octobre 2012 d’imposer des droits de douane sur les importations de cellules et de modules chinois faisant varier les taxes anti-dumping de 18,3 à 250% (pour les nouveaux entrants) selon les entreprises.

L’Europe, qui importe beaucoup plus d’éléments photovoltaïques de Chine que les Etats-Unis, a tout d’abord décidé de s’orienter vers l’imposition de droits anti-dumping et a ouvert une enquête en septembre 2012, déclenchée par une plainte d’EU ProSun – une association sectorielle de 25 fabricants européens de modules solaires – concernant les importations de panneaux et de modules en provenance de Chine. La Commission a finalement décidé en juin 2013 d’imposer un droit de douane de 11,2% sur les panneaux solaires tout en menaçant de le faire grimper à 47% si la Chine ne modifiait pas sa position en termes de prix d’ici le 6 août .

La contre-attaque de l’Empire

La contre-attaque n’a pas tardé : la Chine a décidé en juillet 2013 d’instaurer des droits anti-dumping sur les importations de silicium en provenance des Etats-Unis et de la Corée du Sud. La menace plane aussi sérieusement sur les acteurs européens : la Chine est un des plus gros marchés pour les exportateurs de silicium européen (870 millions de dollars en 2011).

Cette guerre commerciale révèle essentiellement une position défensive des concurrents industriels de la Chine face à une politique de soutien qu’ils jugent disproportionnée et déloyale et ceci alors que la Chine n’a cessé ces dix dernières années de grignoter les emplois industriels de ses concurrents. Mais on peut évidemment s’interroger sur la logique industrielle de cette politique commerciale.

Tout d’abord, elle contredit les précédentes politiques des gouvernements en matière de promotion de l’énergie solaire. L’arbitrage entre les objectifs du changement climatique (disposer des outils de transition énergétique à bas coût) et la rentabilité et pérennité de l’industrie semble avoir été tranché en faveur du second. Ensuite, elle soutient cette fois-ci les producteurs directement mais pourrait handicaper les installateurs, les cabinets d’études préalables à l’installation et les fabricants de panneaux à partir de composants chinois. Enfin, elle expose sérieusement à des représailles commerciales qui pourraient coûter cher, que ce soit aux exportateurs de silicium poly-cristallin, de machines servant à l’industrie solaire ou encore d’autres industries comme le vin ou les voitures de luxe.

Par crainte d’une probable non approbation d’une majorité des pays membres ou pour « fouetter d’autres dragons » plus librement (le conflit des télécoms à venir), l’accord obtenu fin juillet par le Commissaire Karel De Gucht et validé par la Commission européenne le 2 août, ne devrait pas entraîner de représailles commerciales ni perturber trop fortement l’approvisionnement du marché. Il engage près de 90 producteurs chinois à ne pas vendre en dessous de 56 centimes d’euro par watt de puissance. Ce prix est un compromis entre ce qui est jugé cohérent avec le coût de production chinois et le prix moyen actuel sur le marché d’un côté et ce qui est acceptable par les concurrents européens de l’autre.

Au final, au cours de cette décennie (2002-2012), l’industrie du solaire photovoltaïque est indéniablement devenue globale et fortement concurrentielle, et ceci en dépit d’un net  interventionnisme des gouvernements. En réalité, même les gouvernements se sont fait concurrence. A présent, ils règlent leurs conflits en jouant avec les règles du commerce international. Le soutien coûteux de l’Etat aura propulsé le développement de la filière de manière inespérée : en créant un excès d’offre, le prix du panneau solaire a fortement chuté et a accéléré l’incroyable boom du solaire. Le solaire représente en 2013 plus de 2 % de l’électricité consommée dans l’Union européenne. Cette percée du solaire s’est accompagnée de nombreuses sorties du marché mais aussi d’entrées, sans qu’une concentration significative des acteurs ne se soit pour le moment produite. Le choix du retrait public en faveur de la politique commerciale est une nouvelle page de l’histoire de cette industrie dont les motivations ne relèvent plus de la politique énergétique et guère davantage de la politique industrielle. Evidemment il n’y a pas de crépuscule sans une prochaine aube. Mais l’aube de demain sera certainement faite d’un autre « solaire ». L’avenir européen de la fabrication de panneaux solaires passera par l’innovation technologique non pour en réduire le coût mais pour en augmenter les performances.




In memoriam. Ronald H. Coase (1910-2013)

par Vincent Touzé

Décédé à l’âge de 102 ans le 2 septembre 2013, l’économiste américain Ronald Coase nous laisse une œuvre exceptionnelle du fait de sa simplicité et sa pertinence.

Précurseur de la théorie de la firme, il voit dans cette ce type de structure une capacité indéniable à réduire les coûts de transaction et organiser ainsi efficacement l’activité économique en dehors des marchés (« The Nature of the firm », Economica, 1937). Le dilemme de la firme est le suivant : faire (c.à.d. produire soi-même) ou faire faire (recourir au marché). En l’absence de coûts de transaction sur les marchés, il n’y aurait pas de firme mais seulement des petites unités autonomes de production. Les coûts de transaction résultent de l’ensemble des dépenses associées à l’acquisition ou à la vente d’un produit : rémunération d’intermédiaires, acquisition d’information, recherche du meilleur prix, etc. Ainsi, lorsque ces coûts sont trop élevés, il est opportun de produire soi-même le bien ou le service. Toutefois, les firmes font également face à des coûts pour s’organiser. La théorie des organisations est née.

Défenseur de la libre concurrence, il attribue aux défaillances des marchés une mauvaise définition des droits de propriété (« The Problem of social cost », 1960, Journal of Law and Economics, 3: 1-44). Il se méfie des réglementations coûteuses. Il s’oppose à Pigou (The Economics of Welfare, 1932, Macmillan and Co. Ed.) qui recommande l’intervention publique pour gérer les externalités négatives. Au contraire, il préconise une meilleure identification des droits de propriété, le rôle de l’Etat devant se limiter à être garant du respect de ces droits. Cette idée a été synthétisée sous la forme du « théorème de Coase » en 1966 par George Stigler dans son ouvrage The Theory of Price (MacMillan Ed.). En s’intéressant précisément aux interactions entre droit (définition de la propriété, fondements et conséquences des décisions de justice, etc.) et économie, Coase apparaît comme un des pères-fondateurs d’une discipline nouvelle, celle de l’analyse économique du droit.

Dans les années 1990, le protocole de Kyoto a popularisé le « théorème de Coase » en  proposant la mise en place d’un commerce de droits d’émissions pour réguler la quantité de gaz à effet de serre, les fameux « droits à polluer ». Pour contrôler les émissions de gaz à effets de serre, deux approches sont possibles : la vente de droits à polluer ou la taxation à la Pigou. La première approche consiste à attribuer des droits à émettre du gaz en quantité limitée. Pour produire, il faut détenir des droits. Ces droits s’échangent sur un marché où le prix des émissions de gaz résulte de la confrontation de l’offre à la demande. La seconde approche consiste à attribuer un prix ad hoc (taxe pigouvienne) au coût social marginal de l’externalité. Cette taxe est payée par les entreprises émettrices des gaz. Le principe des droits à polluer est souvent considéré comme plus exigeant (et donc contraignant pour les entreprises) car le prix de l’émission de gaz est endogène et la quantité totale limitée. Avec une taxe pigouvienne, c’est l’inverse. Le prix est fixe (ou faiblement endogène en cas de taxation progressive) et la quantité potentiellement illimitée.

Attaché à la simplicité de l’exposé, Coase n’hésite pas à dénoncer le recours à un formalisme mathématique trop excessif. Dans un portrait publié par l’Université de Chicago en 2012, il regrette ainsi que l’économie soit « devenue un sujet axé sur la théorie et les mathématiques ». Selon lui, « l’approche devrait être empirique. Vous étudiez le système comme il est, comprenez pourquoi il fonctionne de cette façon et considérez quels changements pourraient faire en sorte de l’améliorer ». Modeste, il confie : « Je n’ai jamais fait quelque chose qui n’était pas évident, et je ne sais pas pourquoi d’autres personnes ne le font pas » et aussi « Je n’ai jamais pensé que les choses que j’ai faites étaient si extraordinaires ».

Son œuvre a été couronnée par un prix Nobel en 1991.




Retraites 2013 : une (petite) réforme…

par Henri Sterdyniak

Les mesures annoncées par le gouvernement le 27 août ne constituent pas une grande réforme  des retraites. Comme le montre la Note de l’OFCE (n°31 du 4 septembre 2013), ce sont essentiellement des mesures de financement d’ampleur limitée. Les retraités sont plus frappés que les actifs. Les entreprises ont obtenu la promesse de ne pas être mises à contribution.  L’équilibre financier n’est pas vraiment assuré, étant conditionné à une forte reprise économique (à horizon 2020), à une croissance soutenue et à une nette baisse du niveau relatif des retraites d’ici 2040. Les mesures de justice en faveur des femmes et des travailleurs soumis à des travaux pénibles  sont annoncées, mais leur mise en place est reportée ; elles ne sont pas encore à la hauteur des enjeux. Le pire est certes évité (la désindexation des retraites, un recul rapide de l’âge ouvrant le droit à la retraite, une réforme dite structurelle) ; la pérennité du système est proclamée, mais la (petite) réforme de 2013 ne se donne guère les moyens d’assurer sa fiabilité économique et sociale.