Austérité en Europe: changement de cap ?

par Marion Cochard et Danielle Schweisguth

Le 29 mai dernier, la Commission européenne adressait aux Etats membres de l’Union européenne ses nouvelles recommandations de politique économique. Dans ces recommandations, la Commission préconise un report des objectifs de déficit public pour quatre pays de la zone euro (Espagne, France, Pays-Bas, Portugal), leur laissant davantage de temps pour atteindre la cible de 3 % de déficit public. L’Italie n’est plus en procédure de déficit excessif. Seule la Belgique est sommée d’intensifier ses efforts. Cette nouvelle feuille de route peut-elle être interprétée comme un changement de cap annonçant un assouplissement des politiques d’austérité en Europe ? Peut-on en attendre un retour de la croissance sur le vieux continent ?

Ces questions ne sont pas triviales. La Note de l’OFCE (n°29, 18 juillet 2013) tente d’y répondre en simulant trois scénarii de politique budgétaire à l’aide du modèle iAGS. Il ressort de cette étude que le report des objectifs de déficit public pour quatre pays de la zone euro ne traduit pas un véritable changement de cap de la politique budgétaire en Europe. Certes, le scénario du pire, dans lequel l’Espagne et le Portugal se seraient vu imposer les mêmes recettes que la Grèce, a été évité. La Commission accepte implicitement de laisser jouer les stabilisateurs automatiques quand la conjoncture se dégrade. Cependant, pour de nombreux pays, les préconisations en termes d’efforts budgétaires vont toujours au-delà de ce qui est imposé par les traités (0,5 point de PIB de réduction annuelle du déficit structurel), avec pour corollaire une hausse de 0,3 point du taux de chômage en zone euro entre 2012 et 2017.

Pourtant, une troisième voie nous semble possible. Il s’agit d’adopter dès 2014 une position de « sérieux budgétaire » qui ne remettrait pas en cause la soutenabilité de la dette publique. Cette stratégie consiste à maintenir constant le taux de prélèvements obligatoires et à laisser les dépenses publiques évoluer au même rythme que la croissance potentielle. Cela revient à une impulsion budgétaire neutre entre 2014 et 2017. Dans ce scénario, le solde public de la zone euro s’améliorerait de 2,4 points de PIB entre 2012 et 2017 et la trajectoire de dette publique s’inverserait dès 2014. A l’horizon 2030, le solde public serait excédentaire (+0,7 %) et la dette approcherait les 60 % du PIB. Surtout, ce scénario permettrait de faire baisser significativement le taux de chômage à l’horizon 2017. Les pays européens devraient peut-être s’inspirer de la sagesse de Jean de La Fontaine : « Rien ne sert de courir, il faut partir à point »…




Les conteurs d’EDF

par Evens Saliesa

L’enjeu des politiques de réduction des émissions de gaz à effet de serre n’est pas seulement environnemental. Il est aussi de stimuler l’innovation, facteur de croissance économique. La politique d’amélioration de l’efficacité énergétique [1] nécessite de lourds investissements visant à transformer le réseau électrique en un réseau plus intelligent, un smart grid.

A ce titre, les Etats membres ont jusqu’en 2020 pour remplacer les compteurs d’au moins 80 % des clients des secteurs résidentiel et tertiaire par des compteurs plus « intelligents ». En France métropolitaine, ces deux secteurs représentent 99 % des sites raccordés au réseau basse tension (< 36kVA), soit environ 43 % de la consommation d’électricité, et près de 25 % des émissions de gaz à effet de serre (sans compter celles émises lors de la production de l’énergie électrique qui alimente ces sites).

Ces nouveaux compteurs possèdent des fonctionnalités qui, comme l’ont montré des recherches, permettent de réduire la consommation électrique. La télérelève des données de consommation toutes les 10 minutes, et leur transmission en temps réel sur un afficheur déporté (l’écran d’un ordinateur, etc.), matérialisent sans délai les efforts d’économie d’électricité ; ce qui était impossible auparavant avec deux relevés par an. La télérelève à haute fréquence permet aussi un élargissement du menu de contrats des fournisseurs à des tarifs mieux adaptés au profil de consommation des clients. Le « pilote » du réseau de transmission peut optimiser plus efficacement l’équilibre entre la demande et une offre plus fragmentée à cause du nombre croissant de petits producteurs indépendants. Pour les distributeurs [2], la télérelève résout le problème d’accessibilité aux compteurs [3].

Ces fonctionnalités sont supposées créer les conditions d’émergence d’un marché de la maîtrise de la demande d’électricité (MDE) complémentaire de celui de la fourniture. Ce marché offre aux fournisseurs non-historiques la possibilité de se différencier un peu plus, en proposant des services adaptés au besoin de MDE de la clientèle [4]. Le gain en termes d’innovation pourrait être significatif si des sociétés tierces, spécialistes des technologies de l’information et de la communication, développent elles aussi les applications logicielles permises par l’usage du compteur. Pourtant, en France, la politique de déploiement des compteurs évolués ne semble pas aller dans le sens d’une plus grande concurrence. L’innovation pourrait s’arrêter au compteur en raison d’une délibération de la Commission de régulation de l’énergie (CRE) stipulant que :

« Les fonctionnalités des systèmes de comptage évolués doivent relever strictement des missions des [distributeurs] d’électricité, […] Ainsi, les fonctionnalités supplémentaires demandées par certains acteurs [essentiellement les fournisseurs] qui relèvent du domaine concurrentiel (notamment, l’afficheur déporté) ne sont pas retenues. »

A la lecture de ce paragraphe, nous comprenons que les fournisseurs ne sont pas prêts à supporter le coût de développement de ces fonctionnalités. Or, d’après l’Article 4 de cet arrêté, qui précise la liste des fonctionnalités réservées aux distributeurs, aucune ne semble avoir été laissée en exclusivité au secteur concurrentiel. En effet, les ménages équipés d’un ordinateur pourront consulter leurs données de consommation sans passer par leur fournisseur ou une société tierce.

Il est bon de s’interroger sur les bénéfices et les coûts d’une telle approche qui, a priori, ressemble à une monopolisation du marché de la MDE par les distributeurs.

Cette approche permettra d’atteindre rapidement l’objectif des 80 % puisque la CRE a opté pour un service public de la MDE : les distributeurs, qui ont des obligations de service public, déploieront les compteurs communicants. A lui seul, le compteur « Linky » du distributeur d’électricité dominant, ERDF, sera déployé sur 35 millions de sites basse tension, couvrant ainsi 95 % du réseau national de distribution[5]. Ainsi, le risque de sous-investissement dans les capacités d’effacement que les fournisseurs d’électricité devront bientôt détenir est faible. En effet, ces derniers n’ayant pas à supporter les coûts de fabrication et déploiement des compteurs, ils pourront rapidement investir dans le développement de ces capacités. De plus, la péréquation des coûts de sous-traitance pour la fabrication des compteurs et de déploiement sur tout le réseau français de distribution permet des économies d’échelle considérables. Enfin, le faible taux de pénétration des compteurs dans les pays qui ont opté pour une approche décentralisée (le compteur et les services sont alors en partie à la charge des ménages intéressés), plaide en faveur du modèle français. Ce modèle est en effet plus pragmatique puisqu’il supprime l’essentiel des barrières à l’adoption.

Cependant, le niveau de concentration des activités de distribution et de fourniture de l’électricité aux ménages pose question : ERDF est affilié à EDF, en quasi-monopole dans la fourniture aux ménages. En termes d’innovation dans les services de MDE, l’intérêt pour EDF d’aller au-delà du projet Linky de sa filiale paraît faible. D’abord, à cause des coûts déjà engagés par le groupe (au moins cinq milliards). Ensuite parce que la qualité de la solution de base d’information sur les consommations par défaut dans Linky, sera suffisante pour parvenir à créer des coûts de migration vers les services de MDE offerts par la concurrence [6]. Certes, les fournisseurs alternatifs vont pouvoir introduire des tarifs innovants. Mais EDF aussi. Une manière de surmonter cet obstacle serait de mettre en place une plateforme Linky, pour que des applications des sociétés tierces puissent dialoguer avec son système d’exploitation. Moyennant l’accord du ménage et, éventuellement, une charge d’accès aux données, l’activité serait certes régulée, mais l’entrée serait libre. Cela stimulerait l’innovation dans les services de MDE, mais n’augmenterait pas la concurrence puisque ces sociétés ne seront pas fournisseurs d’électricité. Le consommateur a-t-il beaucoup à perdre ? Evidemment, cela dépend du montant de la réduction de sa facture. Etant donnée la hausse probable de 30% des prix de l’électricité d’ici à 2017 (inflation incluse), nous craignons que les efforts des ménages en vue d’optimiser leur consommation ne seront pas récompensés. Le gain net à moyen terme pourrait être négatif.

Finalement, nous pouvons nous demander si, avec Linky, le groupe EDF n’essaie pas de maintenir sa position d’entreprise dominante dans la fourniture d’électricité, affaiblie depuis l’ouverture à la concurrence. Avec un service de MDE installé par défaut sur 95% des sites basse tension, Linky va devenir l’élément d’infrastructure du réseau national que devront emprunter tous les offreurs de service de MDE. Du point de vue des règles de la concurrence, il faut alors se poser la question de savoir si ERDF et ses partenaires ont bien communiqué l’information sur le système d’exploitation de Linky, sans favoritisme pour le groupe EDF et ses filiales (Edelia, Netseenergy). Les conteurs aimeraient nous narrer une belle histoire d’encouragement à l’innovation dans l’énergie et l’économie numérique pour réussir la transition écologique. Sachant que l’actuel PDG de l’entreprise en charge de l’architecture du système d’information de Linky, Atos, était ministre de l’économie et des finances juste avant le lancement du projet Linky en 2007, nous pouvons en douter…


[1] « Amélioration de l’efficacité énergétique » et « économie d’électricité » sont utilisées indifféremment dans ce billet. Voir l’article 2 de la directive 2012/27/UE du Parlement et du Conseil européens pour des définitions précises.

[2] Les distributeurs sont les gestionnaires des réseaux de lignes moyenne et basse tension. Le plus répandu est ERDF. Réseaux et compteurs font partie des ouvrages concédés, propriété des collectivités locales délégantes.

[3] Cependant, cela impliquera, par exemple pour ERDF, la suppression de 5 000 postes (à rapprocher des 5900 départs à la retraite … ; cf. Sénat, 2012, Rapport n° 667, Tome II, p. 294).

[4] En conformité avec la loi NOME de 2010, les fournisseurs et autres opérateurs devront être capables de baisser ponctuellement la consommation d’électricité de certains clients (couper momentanément l’alimentation d’un chauffage électrique, etc.), ce qui est appelé « effacement de consommation ».

[5] Dans les territoires où ERDF n’est pas concessionnaire, d’autres expérimentations existent, comme celle du distributeur SRD dans la Vienne qui déploie son compteur évolué, i-Ouate, sur 130 000 sites.

[6] Voir DGEC, 2013, Groupe de travail sur les compteurs électriques communicants – Document de concertation, février.

———-

a L’auteur remercie C. Blot, K. Chakir, S. Levasseur, L. Nesta, F. Saraceno, et plus particulièrement O. Brie, M.-K. Codognet et M. Deschamps. Les opinions défendues dans ce billet n’engagent que son auteur.




Le Livret A noyé sous les critiques

par Pierre Madec

Alors que le gouverneur de la Banque de France et le ministre de l’Economie et des finances annonçaient une nouvelle baisse (probable) du taux du Livret A pour le 1er août prochain, l’agence de notation Standard&Poor’s (S&P) publiait de son côté une étude sur le système bancaire français. L’agence américaine y affirmait que le Livret A, et plus généralement l’épargne réglementée, « pénalise les banques » françaises et est à l’origine d’une « distorsion du marché bancaire». Ce débat, ancien, a fait l’objet de nombreux rapports : Duquesne, 2012 ; Camdessus, 2007 ; ou encore Noyer-Nasse, 2003, … . Certains défendent ardemment cette spécificité française que constitue le Livret A, tandis que d’autres prônent, au contraire, une réforme profonde d’un système qualifié de « perdant-perdant ».

Qu’en est-il ? Le Livret A met-il réellement en péril l’activité bancaire française ? Quelle utilisation est faite de l’épargne des ménages qui y est déposée ? Quels ont été les effets des hausses successives des plafonds sur les montants collectés ? Quelles conséquences aura la (probable) nouvelle baisse de taux envisagée par le ministre de l’Economie et des finances, M. Pierre Moscovici, tant pour les épargnants que pour le financement du logement social ? Nous présentons ici nos éléments de réponse.

Que représente le Livret A ?

Le Livret A, vieux de presque 195 ans, est un placement réglementé donnant droit à un avantage fiscal (défiscalisation totale et exonération de prélèvements sociaux), dont le taux est fixé par l’Etat et les dépôts sont garantis[1].

En 2011, le taux d’épargne des Français atteignait 16 % en moyenne, soit 1,1 point de plus qu’en 2006. Cette augmentation du taux d’épargne s’est faite en grande partie en faveur de l’épargne réglementée, et particulièrement en faveur du Livret A, détenu par près de 63,3 millions de Français et dont l’encours a plus que doublé depuis janvier 2007 pour atteindre 230 milliards d’euros en avril 2013. Trois phénomènes successifs ont favorisé cette augmentation massive de l’encours : la crise financière, qui a redirigé une partie de l’épargne des ménages vers les placements sans risque, la généralisation de la distribution du Livret A à toutes les banques depuis le 1er Janvier 2009, au titre de la Loi de modernisation de l’économie[2]  et enfin l’augmentation de 50 % du plafond du Livret A qui a eu lieu en deux temps (en octobre 2012 puis en janvier 2013). Cet attrait croissant pour le Livret A s’explique aussi par la liquidité totale ainsi que la garantie des dépôts qu’il procure. Liquidité totale et garantie des dépôts que ne permet pas, par exemple, l’assurance vie.

A quoi sert le Livret A ?

L’une des (nombreuses) spécificités du modèle de financement du logement en France porte (entre autres) sur le non-recours des bailleurs sociaux aux marchés obligataires (Levasseur, 2011). Ainsi, les bailleurs sociaux se financent principalement (à hauteur de 73 % en 2012) auprès de la Caisse des dépôts et consignations (CDC) où est déposée une partie de l’épargne du Livret A des ménages. La CDC, au travers d’un fonds d’épargne, centralise 65% des encours du Livret A, ce qui représentait en avril dernier plus de 150 milliards d’euros (Banque de France). Les dépôts ainsi disponibles sont prioritairement utilisés pour l’octroi de prêts au logement social et à la politique de la ville[3]. Ces emprunts servent en grande partie à la construction, l’acquisition et la réhabilitation de logements locatifs sociaux par des bailleurs HLM mais peuvent aussi financer des opérations d’habitat spécifique et des missions de la politique de la ville tel que le Plan national de rénovation urbaine (PNRU). Afin de sécuriser les dépôts et assurer les ressources nécessaires au fonds d’épargne, le montant des dépôts centralisés au titre du Livret A doit toujours être supérieur ou égal à 125 % de l’encours des prêts au logement social et à la politique de la ville octroyés par la CDC.

Il est clair que l’objectif de financement de 150 000 logements sociaux par an (à comparer aux 105 000 de l’année 2012) va engendrer une augmentation sensible des besoins de financement du secteur. Ainsi, pour satisfaire cet objectif, ce sont 13,7 milliards d’euros de prêt au logement locatif social qui devront être accordés pour la seule année 2013, soit 4 milliards d’euros de plus qu’en 2012.

Enfin, les ressources du Livret A qui ne sont pas centralisées par la CDC (80 milliards d’euros) font l’objet d’une « obligation d’emploi ». Elles doivent être employées par les établissements bancaires « au financement des PME » à hauteur de 80 % ainsi  « qu’au financement des travaux d’économie d’énergie dans les bâtiments anciens » à hauteur de 10 % [4]. De même, un certain nombre de programmes d’investissement des collectivités locales (plan Campus, plan Hôpital 2012, Grenelle de l’environnement) ont bénéficié des encours du Livret A.

Le Livret A met-il en danger le système bancaire français ?

Compte tenu de l’attrait croissant des ménages pour l’épargne réglementée (et notamment celle du Livret A), on pourrait penser (à l’instar de S&P) que ce type de placement met en danger le système bancaire en appauvrissant les liquidités bancaires déjà mises à mal par la crise. Les relèvements de plafond opérés ces derniers mois ont en effet conduit – pour l’essentiel – à un transfert de l’épargne vers les placements défiscalisés dont la part dans l’épargne financière totale des ménages a augmenté de 0,6 point entre 2011 et 2012. On a ainsi pu observer en octobre 2012 une chute importante de l’encours des livrets soumis à l’impôt (-12 milliards d’euros), chute s’expliquant en partie par la hausse des encours sur le Livret A (+6 milliards d’euros)[5] (voir graphique 1).

graph1_1107PMblog

 

Pour autant, il est important de relativiser les déclarations alarmistes de S&P. D’une part, parce qu’excepté ce mois d’octobre 2012, les flux sur les livrets fiscalisés sont relativement stables. D’autre part, parce que l’épargne réglementée, bien qu’en nette progression, ne représentait en 2012 que 9,5 % (dont 6,2% pour le Livret A) de l’épargne financière totale des ménages qui s’élevait à 3 664 milliards d’euros. De plus, en cas de manque réel et durable de liquidité, des ajustements techniques existent ou peuvent être mis en place. Selon le dernier rapport annuel de la Cour des comptes, le ratio de couverture du fonds d’épargne atteignait au début de l’année 156 % des encours des prêts au logement social et à la politique de la ville au lieu des 125 % réglementaires. Cette sur-couverture représente quelques 50 milliards d’euros qui ne sont affectés ni au financement du logement social ni à la liquidité bancaire. Aujourd’hui réclamés par les banques, ces fonds se doivent d’être rapidement orientés. Le fonds d’épargne disposant de liquidités importantes, tout en laissant inchangé les taux de couverture et de centralisation (fruits d’âpres négociations), on peut imaginer qu’un certain nombre de mécanismes temporaires de transfert entre le fonds d’épargne et le secteur bancaire peuvent annihiler tout risque de crise de liquidité. Enfin, on peut noter que les banques ont aussi bénéficié de la généralisation de la distribution du Livret A, notamment au travers du versement, par le fonds d’épargne, d’un commissionnement sur les sommes centralisées. Ce commissionnement, qui ponctionne directement le financement des logements sociaux, a grevé le fonds d’épargne d’1 milliard d’euros en 2012. Sans conclure sur la suite à donner à ces contreparties, on peut s’interroger sur la mise en place d’un meilleur arbitrage entre taux de centralisation et de couverture, taux de commissionnement et financement pérenne du logement social[6].

Quid de la baisse « probable » des taux ?

Avancée le 23 juin dernier par le ministre de l’Economie, M. Pierre Moscovici, reprenant les déclarations faites quelques jours auparavant par le gouverneur de la Banque de France, M. Christian Noyer, l’idée d’une baisse du taux du Livret A devrait entrer en vigueur le 1er août prochain et découlerait de la baisse du taux d’inflation sur lequel ce dernier est en partie indexé. Quels effets cette baisse de taux peut-elle avoir sur les flux d’épargne déposés sur les Livrets A et donc sur le financement du logement social ?

En mai 2013, le taux d’intérêt du Livret A s’établissait, en termes réels, à 0,5 %, soit un niveau relativement bas. Sur la période 2011-2012, ce dernier était même nul en moyenne (voir graphique 2). Pour autant, les flux d’encours sont restés stables sur la période. Ceci s’explique en partie par les faibles taux proposés par les autres placements,  notamment les livrets fiscalisés de type Compte épargne logement(CEL) dont les taux réels nets sont négatifs depuis fin 2009. Compte tenu des arbitrages effectués par les ménages, notamment les plus aisés, en vue d’atteindre le meilleur rendement de leur épargne, il est assez complexe de mettre en évidence une corrélation stricto sensu entre le taux du Livret A (réel ou nominal) et les évolutions de l’encours. Ainsi, au second semestre 2009, le Livret A a subi une décollecte alors même que son taux réel était élevé ; en 2010 et 2011, en revanche, la collecte a été forte alors que ce n’était plus le cas.

Compte tenu, d’une part, des faibles taux réels nets que proposent les placements comparables et, d’autre part, des incertitudes sociales et économiques actuelles, on peut espérer une certaine stabilité des flux au second semestre 2013 et ce malgré la baisse du taux rémunérateur. Cette stabilité dépendra bien évidemment de l’importance de la baisse. Le taux étant actuellement de 1,75  %, il paraît peu probable de maintenir des flux élevés si le taux était révisé en deçà des 1,25 %. La Commission économique de la nation prévoyant une inflation de 1,2 % pour 2013, toute fixation du taux du Livret A inférieure à ce taux se traduirait par une baisse du pouvoir d’achat des ménages, baisse allant à l’encontre des engagements gouvernementaux.

graph2_1107PMblog

Rappelons tout de même que cette réévaluation du taux n’est pas automatique et reste dépendante des décisions politiques. Dans la seconde moitié de 2009, alors que l’effondrement de l’inflation aurait justifié un recul de 1,5 point pour ramener le taux à 0,25 %, la baisse de taux finalement appliquée n’a été que de 0,5 point, pour s’établir à 1,25 %. C’est ainsi que 2 milliards d’euros supplémentaires ont été redistribués aux ménages. Inversement, en février 2012, au vu du regain d’inflation (même temporaire), le taux aurait dû être revalorisé à 2,75 %. Le manque à gagner engendré pour les ménages de cette non-réévaluation du taux est estimée à 1 milliard d’euros.

A l’image du choix des ménages entre sécurité, liquidité et rendement, l’arbitrage public entre pouvoir d’achat des ménages et conditions d’emprunt des bailleurs sociaux peut s’avérer compliqué. Ainsi, alors qu’une sous-évaluation du taux avantage sensiblement les bénéficiaires de l’affectation des fonds issus du Livret A (essentiellement les bailleurs sociaux) dont les intérêts d’emprunt sont « indexés » sur le taux du livret A, elle devient pénalisante pour l’épargnant.

Bien que les « petits » épargnants soient peu sensibles aux variations des taux, les « gros » épargnants, c’est-à-dire ceux approchant le plafond des dépôts, peuvent rapidement arbitrer en défaveur du Livret A. Or, ces 10 % de déposants les mieux lotis représentent 51 % des dépôts du Livret A. Une réduction massive des taux pourrait donc entraîner une décollecte importante et, par la suite, réduire significativement les capacités de prêts de la CDC au secteur du logement social, secteur aux objectifs de construction ambitieux et aux besoins de financement croissants. A contrario, il paraît clair que le maintien, en période de faible inflation, de taux élevés entraînerait un renchérissement des crédits accordés aux bailleurs sociaux, au moment même où l’Etat et les organismes HLM viennent de s’engager à la construction de 120 000 logements sociaux par an entre 2013 et 2015.

 


[1] Pour plus de précision sur le mode de détermination du taux  d’intérêt, voir Péléraux (2012).

[2] En janvier 2009, l’encours a subi une augmentation historique de 12,5 %. A titre de comparaison, les hausses successives du plafond d’octobre et janvier dernier n’ont engendré que des hausses respectives de 3,1 et 3,5 %.

[3] En 2012,  pour le seul financement de 105 000 logements sociaux, ce sont 9,7 milliards d’euros de prêt qui ont été octroyés par le fonds d’épargne.

[4] A titre d’exemple, Oséo et le fonds stratégique d’investissement (FSI) ont reçu respectivement, en 2012, 5,2 et 0,5 milliards d’euros de ressources issues du Livret A.

[5] Le transfert s’est principalement opéré en faveur du Livret de développement durable (LDD) dont l’encours a progressé de près de 14 milliards d’euros en octobre 2012 à la suite du doublement de son plafond.

[6] Alors que le taux de commissionnement doit converger d’ici 2022 vers 0,50 % pour l’ensemble des établissements distributeurs, il s’élevait en 2011 à 0,37 % pour les nouveaux distributeurs et à 0,53 % pour les distributeurs historiques (CDC, 2012).




Comment peut-on défendre les 1% ?

par Guillaume Allègre

Dans un article à paraître dans le Journal of Economic Perspectives, Greg Mankiw, professeur à l’Université Harvard et auteur reconnu de manuels universitaires, défend les revenus perçus par les 1 % les plus aisés et critique l’idée d’une imposition des hauts revenus à un taux marginal de 75 %. Pour Mankiw, il est juste que les individus soient rémunérés en proportion de leur contribution. En concurrence pure et parfaire, les individus sont rémunérés selon leur productivité marginale, il n’est donc ni nécessaire ni souhaitable pour un gouvernement de modifier la répartition des revenus. Le gouvernement doit se limiter à corriger les distorsions de marché (externalités, recherche de rente).

Dans la dernière Note de l’OFCE (n° 28, 5 juillet 2013) nous démontrons que l’économie dans laquelle vivent ces « 1 % » s’éloigne de l’équilibre concurrentiel classique par de nombreuses façons non discutées par Mankiw, ce qui nous semble être une limite importante de son argumentation. C’est parce que les « 1 % » n’opèrent pas dans une économie concurrentielle pure et parfaite qu’ils peuvent recevoir des rémunérations astronomiques. Les rémunérations perçues sur le marché par les « 1 % » ne correspondent donc pas à leur contribution sociale marginale. Cela ne signifie pas que leur contribution sociale est nulle mais que le marché est incapable de mesurer cette contribution. Les rémunérations astronomiques ne peuvent donc pas être défendues sur la base du « mérite mesuré par la contribution marginale » proposé par Mankiw.

_____________

Voir dans le blog de l’OFCE  sur le même sujet : “Superstars et équité : Let the sky fall” et “Pigeons : comment imposer le revenu des entrepreneurs ?




Quand la jeunesse brésilienne rêve d’autre chose que de foot…

par Christine Rifflart

La hausse du prix des transports publics n’a pas été appliquée plus de deux semaines mais elle a allumé le feu de la révolte et amorcé un nouveau virage dans ce qu’il est convenu d’appeler le « modèle de développement brésilien ». Aspirant à des services publics de qualité (éducation, santé, transports, …), la nouvelle classe moyenne qui s’est formée au cours de la dernière décennie revendique ses droits et rappelle au gouvernement que les sommes englouties pour l’accueil des grands événements sportifs (Coupe du Monde de 2014, Jeux Olympiques de 2016) ne doivent pas être dépensées au détriment des autres priorités, surtout quand la croissance n’est plus au rendez-vous et que la contrainte budgétaire appelle à réaliser des économies.

Depuis 10 ans, la croissance brésilienne s’est accélérée : elle est passée de 2,5 % en moyenne par an dans les décennies 1980 et 1990 à presque 4 % entre 2001 et 2011. Mais surtout, elle a, pour la première fois, bénéficié à une population traditionnellement exclue de ses bienfaits. Jusqu’alors, la faible progression du revenu par tête allait de pair avec le renforcement des inégalités (supérieur à 0,6 sur la période, le Coefficient de Gini est l’un des plus élevés au monde) et la hausse du taux de pauvreté – qui a dépassé 40 % pendant les années 1980. Avec la fin de l’hyperinflation vaincue par le « Plan Real » de 1994, la croissance a repris mais est restée fragile du fait de la succession de chocs externes qui sont venus frapper le pays (conséquences de la crise asiatique de 1997 et de la crise argentine de 2001).

IMG1_Post-CR_3-7

L’arrivée de Lula à la présidence le 1er janvier 2003 a marqué un véritable tournant dans cette dynamique de croissance (graphique 1). Poursuivant à la fois l’orthodoxie libérale en matière de gestion macro-économique et de stabilisation financière de son prédécesseur F. H. Cardoso (à la différence de l’Argentine par exemple), le nouveau gouvernement a mis à profit la reprise de la croissance pour mieux répartir les richesses du pays et tenter d’éradiquer la pauvreté. Selon les enquêtes réalisées auprès des ménages, le revenu réel par ménage a progressé en monnaie nationale de 2,7 % par an entre 2001 et 2009 et le taux de pauvreté a reculé de près de 15 points, pour atteindre 21,4 % de la population en fin de période. De plus, le revenu réel des huit premiers déciles, en particulier celui des 20 % de la population la plus pauvre, a augmenté beaucoup plus vite que le revenu moyen (graphique 2). Au final, 29 millions de Brésiliens ont rejoint les rangs de la nouvelle classe moyenne qui compte désormais 94,9 millions d’individus (soit 50,5 % de la population) tandis que la classe à revenu supérieur a accueilli 6,6 millions de Brésiliens supplémentaires (et représente désormais 10,6 % de la population). A l’inverse, la population pauvre a baissé de 23 millions, et représente 73,2 millions d’individus en 2009. En termes de revenu, cette nouvelle classe moyenne accapare désormais 46,2 % des revenus distribués, soit plus que la catégorie la plus riche qui a vu sa part diminuer à 44,1 %[1].

IMG2_Post-CR_3-7

Cette nouvelle configuration de la société brésilienne modifie les modes de consommation et les aspirations, notamment en termes d’éducation, d’accès aux soins, d’infrastructures, … Mais si la consommation des ménages s’est accélérée depuis 10 ans (notamment en biens durables) et a stimulé l’investissement privé, ce vent de démocratisation pose un sérieux défi pour le gouvernement. Car si la hausse du tarif des transports publics a pu être rapidement annulée, l’offre de nouvelles infrastructures et l’amélioration de la qualité des services publics dans un pays grand comme 15 fois la France ne se fait pas en un jour. En 2012, sur 144 pays enquêtés, le World Economic Forum (pp 116-117) situait le Brésil à la 107e place pour la qualité de ses infrastructures et à la 116e place pour la qualité de son système éducatif. Les autorités doivent donc adroitement rebondir sur cette demande légitime de la population, notamment de la jeunesse[2].

Le pays dispose d’atouts importants pour y faire face et stimuler les investissements : un cadre politique et macroéconomique stable, des finances publiques saines, un endettement extérieur inférieur à 15 % du PIB, des réserves de changes abondantes, la confiance des marchés financiers ainsi que des investisseurs directs étrangers, et bien sûr des richesses naturelles variées et abondantes, tant agricoles (soja, café, …) que minières (minerai de fer, houille, zinc , bauxite, …) et énergétiques (hydroélectricité, pétrole).

Mais les difficultés à relever restent nombreuses. Actuellement, la croissance fait défaut alors même qu’elle bute sur les capacités de production. En 2012, elle n’a été que de 0,9 % (insuffisante pour accroître le revenu par tête) et, même si l’investissement repart, les prévisions pour 2013 sont régulièrement révisées à la baisse, autour de 3 %. Simultanément, l’inflation accélère, alimentée par de fortes tensions sur le marché du travail (à 5,5 %, le taux de chômage est très bas) et une productivité qui stagne depuis 2008. A 6,5 % en mai, l’inflation est sur le haut de la fourchette autorisée par les autorités monétaires. Pour respecter sa cible de 4,5 %, plus ou moins 2 points de moins, la banque centrale a remonté en avril dernier son taux directeur de 7,25 % à 8 %. La politique monétaire reste malgré tout très accommodante – l’écart du taux directeur avec le taux d’inflation n’a jamais été aussi bas – et la modération de la croissance devrait avoir raison des tensions inflationnistes. Par ailleurs, ce relatif soutien de la politique monétaire à l’économie est contrebalancé par une politique de consolidation budgétaire qui se poursuit. Après un excédent primaire de 2,4 % du PIB en 2012, l’objectif est de le maintenir à 2,3 % cette année. La dette nette du secteur public continue de baisser. De 60 % il y a dix ans, elle est passée à 43 % en 2008 et atteignait 35 % en avril dernier.

Cette quasi-stagnation de la croissance tient notamment à un grave problème de compétitivité qui ampute le potentiel de croissance du pays. Dans un contexte de conjoncture internationale morose, la hausse des coûts de production et une monnaie qui apparaît surévaluée se traduisent par une chute des performances à l’exportation, une frilosité de l’investissement et un recours accru aux importations. Le solde courant s’est dégradé de 1 point de PIB en un an pour atteindre 3 % en avril dernier.

Pour résorber ce problème d’offre, la banque centrale du Brésil intervient de plus en plus pour contrer les effets néfastes des entrées de capitaux – attirés par les taux d’intérêt élevés – sur le taux de change tandis que le gouvernement cherche à doper l’investissement. Inférieur à 20 % du PIB depuis plus de 20 ans et plutôt proche de 15 % entre 1996 et 2006, celui-ci est structurellement insuffisant pour entraîner l’économie sur une trajectoire de croissance vertueuse. Pour mémoire, le taux d’investissement a été au cours des 5 dernières années de 44 % en Chine, de 38 % en Inde et de 24 % en Russie. Pour amener le taux d’investissement autour d’une cible de 23-25 %, le gouvernement a mis en place en 2007 un Programme d’accélération de la croissance (PAC) basé sur la réalisation de grandes infrastructures. En 4 ans, les investissements publics sont passés de 1,6 % du PIB à 3,3 %. En 2011 a été lancée la deuxième phase du PAC qui prévoit d’y consacrer un budget d’1 % du PIB par an pendant 4 ans. A cela s’ajoutent d’autres programmes d’investissement dont les retombées, décevantes en 2012, devraient néanmoins aider à résoudre une partie des problèmes. Mais les efforts restent insuffisants. Selon une étude de Morgan Stanley de 2010[3], le Brésil aurait besoin d’investir dans les infrastructures 6 à 8 % du PIB chaque année pendant 20 ans pour rattraper le niveau des infrastructures de la Corée du Sud, et 4 % pour rattraper celui du Chili, référence en la matière en Amérique du Sud !

En améliorant l’offre productive et en stimulant la demande par la hausse de l’investissement public, l’objectif des autorités est donc bien de rattraper une partie du retard accumulé par le passé. Mais est-il possible de mener à bien des projets d’investissements de grande ampleur tout en poursuivant une politique de désendettement quand la dette publique nette est proche de 35 % du PIB ? Les autorités doivent accélérer le jeu des réformes pour mobiliser les investisseurs privés, notamment en favorisant le développement d’une épargne nationale de long terme (réforme des retraites, …) et, ce qui va de pair, en stimulant l’intermédiation financière. Le volume de crédits accordés par le secteur financier au secteur non financier ne représentait que 54,7 % du PIB en mai dernier. Un peu moins de la moitié sont des crédits fléchés (crédit rural, Banque nationale de développement, …) et à des taux d’intérêt largement subventionnés (0,5 % en terme réel contre 12 % pour les crédits non aidés aux entreprises, et 0,2 % contre 27,7 % respectivement pour les particuliers). Mais l’Etat doit également réformer une administration publique lourde et corrompue.

Le Brésil est un pays émergent depuis plus de quatre décennies. Avec un revenu de 11 500 dollars PPA par habitant, il est temps que ce grand pays passe à l’âge adulte en proposant les standards de qualité des services publics des pays développés et en recentrant son nouveau modèle de développement sur cette nouvelle classe moyenne dont les besoins restent à couvrir.


[1]Voir  The Agenda of the New Middle Class | Portal FGV sur le site de la Fondation Gétulio Vargas.

[2]http://www.oecd.org/eco/outlook/48930900.pdf

[3]Voir l’étude de Morgan Stanley Paving the way, 2010.

 




Des toits ou des plafonds ?

par Philippe Weil

Le projet de loi pour l’accès au logement et un urbanisme rénové prévoit d’encadrer les loyers «principalement dans les agglomérations où existe un fort déséquilibre entre l’offre et la demande de logements et où les loyers ont connu la progression la plus forte au cours des dernières années ».  Les loyers dépassant de plus de 20 % un loyer médian, fixé par quartier et type de logement,  « auront vocation à être abaissés ». L’objectif de ce plafonnement est certes louable puisqu’il « vise à combattre la crise du logement, marquée depuis de nombreuses années par une forte augmentation des prix, une pénurie de logements et une baisse du pouvoir d’achat des ménages ». L’enfer est hélas pavé de bonnes intentions car les plafonds d’aujourd’hui détruisent bien souvent les toits de demain :

  • Le plafonnement des loyers […] entraîne une répartition aléatoire et arbitraire des logements et rend leur utilisation inefficace. Il retarde la construction de nouveaux logements et prolonge indéfiniment le plafonnement des loyers, ou déprime la construction future en subventionnant aujourd’hui la construction résidentielle. Un rationnement formel des logements par les autorités publiques aurait des effets sans doute pire encore.

S’opposer au plafonnement des loyers ne signifie pas cependant se résoudre aux inégalités qui se manifestent en matière de logement :

  • Le constat que, dans des conditions de marché, ceux qui ont des revenus ou patrimoines plus élevés occupent de meilleurs logements est plutôt une raison de prendre des mesures de long terme pour réduire les inégalités de revenus et de richesse. Pour ceux qui, comme nous, voudraient encore plus d’égalité qu’aujourd’hui – en matière de logement comme pour tous les produits –, il est certainement préférable d’attaquer directement à leur source les inégalités existantes de revenu et de richesse plutôt que de rationner chacun des centaines des produits et services qui déterminent notre niveau de vie. Permettre aux individus de recevoir des revenus monétaires inégaux puis prendre des mesures complexes et coûteuses afin de les empêcher d’en bénéficier est le comble de la folie.

Les auteurs de ces deux citations, qui nous enjoignent de laisser le système de prix libre d’allouer aux locataires les logements disponibles tout en préconisant d’attaquer à leur source les inégalités de revenu et de richesse, ne sont autres que Milton Friedman et George Stigler – les deux fondateurs de l’école de Chicago. Le titre de ce billet est emprunté – qu’ils me le pardonnent – à leur article de 1946 « Roofs or Ceilings : the Current Housing Problem ».[1]

Le projet de loi Duflot envisage un mécanisme d’encadrement des loyers bien plus sophistiqué que celui que dénonçaient Friedman et Stigler il y a près de soixante-dix ans. Ses effets sur le parc immobilier français pourront être évalués dans quelques années mais la littérature économique récente nous prévient que les mécanismes de contrôle des loyers dits de « seconde génération » ont des effets souvent ambigus[2] – pas toujours négatifs mais pas obligatoirement positifs[3]. On peut regretter, dans ces conditions, qu’une expérimentation préalable, que la prudence exigerait, ne soit pas envisagée dans certaines villes choisies aléatoirement. L’urgence politique plaide certes contre les retards qu’elle entraînerait mais, en économie comme en médecine, il convient de s’assurer qu’on ne tue pas le patient en tentant de le guérir.

Reste, pour finir, l’avertissement de Friedman et Stigler : les inégalités de revenus et de patrimoine doivent être attaquées à leur source et pas dans leurs manifestations.

______________________________________

[1] Foundation for Economic Education, Irvington-on-Hudson, NY.

[2] Cf., par exemple, The Economics and Law of Rent Control, par Kaushik Basu et Patrick Emerson, Banque mondiale, 1998.

[3] Le lecteur pourra consulter Le Bayon, Madec et Rifflart (2013) pour une évaluation de la régulation du marché locatif français.

 




La Croatie dans l’Union européenne : une entrée sans fanfare

par Céline Antonin et Sandrine Levasseur

Le 1er juillet 2013, 10 ans après avoir déposé sa demande d’adhésion à l’Union européenne, la Croatie deviendra officiellement le 28e Etat membre de l’UE, et le deuxième pays de l’ex-Yougoslavie à intégrer l’Union. Etant donné la taille du pays (0,33 % du PIB de l’UE-28) et le consensus politique autour de l’adhésion, l’entrée de la Croatie devrait passer relativement inaperçue. Pour autant, cette entrée n’est pas sans enjeux. En effet, à l’heure où l’Union européenne traverse la pire crise de son histoire, on peut légitimement s’interroger sur l’opportunité d’intégrer prématurément la Croatie, alors même que le pays traverse sa cinquième année de récession. La dernière Note de l’OFCE (n°27, 26 juin 2013) revient sur deux des principales faiblesses du pays : d’une part, son manque de compétitivité, et d’autre part, son niveau de corruption encore beaucoup trop élevé pour lui garantir une croissance soutenue et durable.

Forte de 4,3 millions d’habitants, la Croatie a d’abord connu une période de forte croissance économique jusqu’en 2008, fondée sur le dynamisme de son tourisme et une consommation des ménages largement financée à crédit grâce aux capitaux étrangers. La crise a révélé, une fois de plus, les limites de ce modèle de développement et mis en lumière les faiblesses structurelles du pays : une très forte dépendance à l’égard des capitaux étrangers, la vulnérabilité d’un régime de changes (quasi) fixes, un environnement peu propice à l’investissement ou l’ampleur de l’évasion fiscale.

Même si les négociations ont eu le mérite d’aborder certains problèmes, d’autres restent encore irrésolus. Ainsi, en matière économique, l’ouverture du marché intérieur à la concurrence demeure insuffisante et le pays souffre d’un défaut de compétitivité important. Au niveau juridique, les progrès réalisés dans la lutte contre la corruption, l’évasion fiscale ou l’économie souterraine sont très insuffisants, ce qui prive le pays des bases d’une croissance robuste. Après la Roumanie et la Bulgarie, l’entrée de la Croatie risque malheureusement d’entériner l’idée que juguler la corruption n’est pas une condition sine qua non pour entrer dans l’UE. Au regard des crises institutionnelles répétées que vit l’Union européenne depuis 2009 et de l’euroscepticisme ambiant, il est aujourd’hui urgent de se fixer comme tâche prioritaire l’approfondissement plutôt que l’élargissement.

 




Filières ou clusters : quel outil pour la politique industrielle ?

par Jean-Luc Gaffard

La notion de filière est revenue sur le devant de la scène et fait figure d’instrument de la nouvelle politique industrielle. Le document de travail de la Fabrique de l’Industrie, ‘A quoi servent les filières’, (Bidet-Mayer et Toubal, 2013) lui reconnaît la vertu d’avoir permis de recenser et d’étendre l’application de bonnes pratiques dans les relations entre entreprises comme entre entreprises et pouvoirs publics. Pourtant, ce même document conclut en forme d’interrogation sur le bien-fondé d’une notion qui privilégie davantage une approche plus techniciste qu’entrepreneuriale de l’organisation industrielle.

Notre propos ici est d’approfondir cette interrogation et de contester la pertinence de la notion de filière pour lui substituer celle de cluster qui semble mieux correspondre à la nécessité – pour la politique industrielle – de reconnaître le rôle prééminent de l’entreprise dans la définition des choix stratégiques.

La filière : une notion trop simple

La filière, dans son acception ancienne mais rigoureuse, est constituée de tout ou partie des stades successifs de production qui vont de la matière première à un produit final. Cette chaîne de produits, qui va de l’amont à l’aval, est faite de relations techniques, identifiables grâce à des coefficients techniques de production. Il s’agit de sous-ensembles de tableaux d’entrées–sorties (ou inputoutput) caractérisés par l’existence d’effets d’entraînement ou de dominance élevés qui viennent du fait que certains secteurs sont des nœuds de relations plus intenses que d’autres (Mougeot, Auray et Duru, 1977).

Ainsi définie, la filière ne dit évidemment rien sur l’organisation industrielle proprement dite, c’est-à-dire sur la façon dont les entreprises fixent les limites de leur activité. Les entreprises concernées peuvent choisir d’intégrer ces différents stades ou au contraire de rester sur l’un d’entre eux et de nouer de pures relations de marché en amont comme en aval. Elles peuvent aussi décider d’une forme relationnelle qualifiée d’hybride et de nouer avec l’amont et l’aval des relations contractuelles de moyen terme.

Ce choix organisationnel s’entend, alors, dans un contexte technique donné, et procède de la comparaison entre les coûts de passer par le marché, par des contrats ou par des transactions internes (Coase, 1937 ; Williamson, 1975). Les propriétés techniques s’effacent derrière les coûts de transaction et ont une importance toute relative. La spécificité des actifs, qui a une dimension technique, entre en ligne de compte dans la détermination de ce choix, mais avant tout en raison de la possibilité de comportements opportunistes (de prise d’otage) qu’elle autorise.

La désignation d’une filière ainsi définie comme outil de politique industrielle, en reposant sur la stabilité des relations techniques, fait l’impasse sur l’activité d’innovation dont la caractéristique majeure est de bouleverser les relations interindustrielles et donc la structuration des filières. En fait, l’usage de cette notion de filière n’a véritablement d’intérêt que dans une perspective de court terme quand il s’agit de mesurer les effets de transmission des variations conjoncturelles au sein d’une structure productive techniquement stable (Mougeot, Auray et Duru, 1977).

Les mesures de politique industrielle, qui en découlent, sont susceptibles d’affecter la façon dont les entreprises définissent leur périmètre d’action en agissant sur les coûts de transaction. Il en est ainsi des règles qui régissent les relations de donneurs d’ordre à sous-traitants. Mais, elles jouent quelque peu à l’aveugle quant à l’impact attendu sur les capacités d’innovation des entreprises concernées.

La simplicité de la notion de filière, en même temps que ses limites, rendent l’usage qui en est fait (1) dangereux, si le caractère figé de la technique est pris au pied de la lettre (comme cela a pu être le cas dans le passé), (2) ambigu, si l’on entend néanmoins traiter des changements techniques et organisationnels inhérents à une économie de marché. Pour preuve de cette ambiguïté, la liste aujourd’hui établie de ces filières qui se réfère à des objets comme l’automobile, le train ou l’avion, à un groupe d’objets de luxe ayant surtout en commun d’être destinés à une clientèle très riche, à des technologies génériques, en l’occurrence les technologies de l’information et de la communication, à des enjeux sociaux comme la santé ou la transition écologique, pour ne pas parler du fourre-tout que sont les biens de consommation.

Si la notion de filière, c’est-à-dire de groupe d’industries techniquement liées, est quelque peu tombée en désuétude à partir des années 1980, c’est précisément parce que les choix stratégiques des entreprises sont loin d’être dominés par la technique, qui plus est une technique figée. La structuration du tissu industriel évolue en permanence sous l’effet de ces choix et des contraintes qui les déterminent. En d’autres termes, les filières sont davantage le résultat de processus d’innovation que de cadres techniques commandant les choix stratégiques.

Il ne faut pas s’étonner, alors, que la politique industrielle  au sens étroit d’aides directes aux entreprises dans des secteurs déterminés, soit elle-même tombée en désuétude pour faire place aux politiques de concurrence et de régulation entendue comme des tentatives de se rapprocher de l’état de pleine concurrence.

L’entreprise : la référence nécessaire

Ce constat ne signifie pas que les relations intra-et inter-industrielles n’ont pas d’importance et que seules comptent les incitations de marché. Les entreprises ne sont pas des îlots de coordination planifiée dans un océan de relations de marché. Elles nouent des accords techniques, de distribution ou de marketing entre elles, développent des relations de sous-traitance ou créent des filiales communes (Richardson, 1972). Il y a une raison majeure à cela. L’entreprise, pour investir, a un besoin de coordination qui n’est pas solutionné par le seul marché concurrentiel, mais bien grâce à l’émergence de formes de coopération signant l’appartenance à un groupe particulier. Cette même entreprise se caractérise par sa mobilité qui l’amène à introduire de nouveaux produits, voire à changer de secteur d’activité, donc à bouleverser les relations nouées avec d’autres, mais toujours dans une direction commandée par les compétences dont elle dispose.

De manière générale, les entreprises interagissent et doivent résoudre des difficultés de coordination dues au manque d’information. Il ne s’agit pas tant du manque d’information technique que du manque d’information sur les conditions de marché quand on entend par là la configuration de la demande mais aussi celle de l’offre concurrente et complémentaire (Richardson, 1960).

En fait, les entreprises sont confrontées à deux délais : le délai de gestation d’investissements irréversibles, y compris les investissements dans l’immatériel, et le délai d’acquisition de l’information de marché. Pour y faire face et décider d’investir effectivement, les entreprises ont besoin de connaître, avec un certain degré de confiance, le niveau des investissements concurrents et celui des investissements complémentaires. La coordination nécessaire n’est pas assurée par les seuls signaux du marché ou plus exactement par les seuls signaux de prix. Elle requiert que des relations de coopération entre entreprises viennent compléter les relations de concurrence (Richardson, 1960). Ces relations sont constitutives de réseaux d’entreprises pour lesquels la qualification de filière est certainement trop étroite, même si les proximités ou les complémentarités techniques jouent leur rôle. L’appartenance à un groupe, caractérisé par une proximité de compétences ou de qualifications, plus qu’à une industrie ou à une filière relève de ces relations sécurisant les investissements de chaque membre du groupe.

Les entreprises qui cherchent à innover ne sont pas, principalement, confrontées à l’existence de barrières à l’entrée (du fait des comportements de prix ou d’investissement des entreprises installées) ou à des obstacles à la création d’entreprise. Elles doivent surtout faire face à l’existence de barrières à la croissance qui ont trait à leur capacité d’être mobile (Caves et Porter, 1977). Il est forcément difficile pour des entreprises de pénétrer de nouvelles activités ou simplement d’augmenter significativement de taille. Elles franchissent un seuil de taille avec succès dès lors qu’elles peuvent acquérir les nouvelles capacités managériales et s’assurer du contrôle de leur capital. Elles entrent dans une nouvelle activité, éventuellement très différente de leur activité actuelle en termes de marchés servis, à la condition que les compétences techniques et managériales requises dans l’une soient utilisables dans l’autre. Ainsi se constituent des groupes d’entreprises organisés autour de compétences similaires ou complémentaires, qui transcendent les découpages en branches ou en filières. Ces groupes sont les lieux où s’exerce la concurrence. Leur nature même limite, à défaut d’empêcher, le développement de consensus oligopolistiques. En raison de leurs similitudes structurelles, chaque membre d’un groupe répond de la même manière aux perturbations internes et externes et anticipent assez précisément les réactions des autres  (Caves et Porter, 1977). Une forme de coordination et de dépendance mutuelle prend ainsi place au sein de chaque groupe.

De ce double constat d’une exigence de coordination et de mobilité, il résulte que le tissu industriel est complexe et peut difficilement être réduit à des filières dans leur acception originelle. La politique industrielle s’en trouve nécessairement affectée, ne pouvant être réduite ni à des aides directes à des entreprises, des secteurs, voire des technologies, ni d’ailleurs à l’application des règles d’une concurrence réputée parfaite.

Les clusters : une réponse adéquate

La nature du tissu productif requiert de pratiquer une politique industrielle horizontale, qui consiste notamment à subventionner la R&D et la formation professionnelle, mais qui n’a de sens que si ce type d’aide est subordonné à la réalisation de l’objectif de mobilité des entreprises et de coopération verticale comme horizontale entre entreprises.

C’est au regard de cet objectif que la création et le développement de clusters doit être privilégiée, étant entendu que l’on entend par là des regroupements ou réseaux d’entreprises et des structures institutionnelles qui ont, certes, une dimension géographique, mais ne se réduisent pas nécessairement à un territoire strictement délimité. Un cluster est avant tout un outil qui vise à développer une coopération volontaire entre entreprises et qui constitue un réseau de compétences. Sa configuration reste déterminée par les entreprises. La création de compétences née de l’organisation en réseau favorise la capillarité et l’entrée progressive de ses différents membres dans de nouveaux champs d’activité.

En toute logique, l’initiative de ces clusters devrait revenir aux entreprises elles-mêmes, les pouvoirs publics ayant pour rôle d’y inciter, précisément, en subordonnant leurs aides à la réalité des coopérations engagées. S’assurer de cette réalité requiert que le financement public soit conditionné à un abondement en fonds privés. Le mode de gouvernance doit reconnaître aux acteurs de l’industrie une place prééminente. C’est ce qui fait le succès de l’industrie allemande qu’il est, pour le moins hasardeux d’attribuer à des gains de compétitivité autorisés par les réformes du marché du travail (Duval, 2013).

Dès lors, réussites et échecs de la politique de filières n’ont rien qui doive étonner. Quand ces dernières ont la caractéristique de clusters au sens retenu ici, qu’il s’agisse de l’aéronautique, de l’automobile ou du ferroviaire, le dispositif mis en œuvre permet de faire émerger des projets crédibles, porteurs d’accroissement de compétitivité. Quand les filières imaginées sont peu ou pas structurées et ne correspondent en rien à des clusters, les échecs sont patents parce qu’il n’y a pas de projets éligibles dans le cadre des procédures publiques existantes et surtout en raison de la faible implication des petites et moyennes entreprises dans les projets collaboratifs.

Le fait que les filières retenues couvrent la quasi-totalité de l’industrie interdit, d’ailleurs, une véritable discrimination entre les formes d’organisation industrielle. Le risque de gaspillage des fonds publics est, alors, bien réel. Certains groupes, habitués à traiter avec les pouvoirs publics, capteront des aides pour des projets qu’ils auraient de toute façon réalisés, alors que, dans le même temps, des entreprises engagées dans des activités innovantes ne seront pas soutenues, faute d’entrer dans le cadre prédéfini.

Retour sur la question de la taille des entreprises

Il existe une relation fonctionnelle entre l’efficacité organisationnelle et le taux de croissance, la première déclinant quand le second augmente au-delà d’un certain seuil (Richardson, 1964). L’exploitation de nouvelles opportunités d’investissement revient normalement aux entreprises qui disposent de l’expérience de production, des contacts commerciaux et des compétences en marketing les plus appropriées. Ces capacités sont affaire de degré. Le degré de contrainte organisationnelle dépendra, non seulement, du taux d’expansion, mais aussi de la direction dans laquelle cette expansion prend place. Il sera d’autant plus limité que l’entreprise concernée peut acquérir les compétences, notamment managériales, requises pour être mobile sans avoir à subir de coûts excessifs (Richardson, 1964). L’organisation en cluster doit pouvoir y aider.

De fait, le cluster est un lieu d’échanges et de transferts de compétences facilitant l’entrée des entreprises dans de nouveaux champs d’activités ne serait-ce que géographiques, qui permettent aux plus petites d’entre elles d’augmenter de taille. L’organisation en cluster peut, en outre, promouvoir des mécanismes qui facilitent un accès des petites entreprises aux moyens de financement requis par l’investissement, mais surtout leur permettent de conserver le contrôle de leur capital et donc leur identité.

En guise de conclusion

On l’aura compris la politique industrielle ne saurait répondre à une sorte de planification basée sur une approche exclusivement technique de l’organisation industrielle dont la filière peut être l’expression et qui deviendrait l’otage de lobbys locaux ou nationaux. Elle ne saurait davantage être réduite à des politiques de régulation et de concurrence conçue pour un monde virtuel où les entreprises n’auraient entre elles que des relations de marchés. Elle doit être entendue comme le moyen de stimuler la création et le développement de clusters conçus comme des réseaux opérationnels de compétences, dont la gouvernance doit être assurée dans des conditions qui privilégient des choix entrepreneuriaux et non les choix bureaucratiques.

 

Bibliographie

Bidet-Mayer T. et L. Toubal (2013) : A quoi servent les filières ?, Document de travail, La Fabrique de l’Industrie

http://www.la-fabrique.fr/Chantier/a-quoi-servent-les-filieres-document-de-travail

Duval G. (2013) : Made in Germany : le modèle allemand au delà du mythe, Paris : Le Seuil.

Mougeot M., Auray J-P et G. Duru (1977) : La structure productive française, Paris : Economica.

Richardson G.B. (1960) : Information and Investment, Oxford : Clarendon Press (Reed. 1990).

Williamson 0. (1975) : Markets and Hierarchies,  Analysis and Anti-Trust Implications, New-York : Free Press.




Retraites : le mauvais compromis du rapport Moreau

par Henri Sterdyniak

Sous la pression des marchés financiers et des institutions européennes, le gouvernement se croit obligé de présenter en 2013 une nouvelle réforme des retraites. Pourtant, réduire le niveau des retraites ne devrait pas être aujourd’hui la priorité de la politique économique française : retrouver une croissance satisfaisante, réformer la stratégie macroéconomique de la zone euro, donner une nouvelle impulsion à la politique industrielle française dans le cadre de la transition écologique sont des actions autrement plus pressantes. Constituer un comité de hauts fonctionnaires et d’experts est maintenant une pratique courante qui permet de dépolitiser les choix économiques et sociaux pour les écarter du débat démocratique. Ainsi, le rapport Moreau, rendu le 14 juin 2013, apparaît-il comme un mauvais compromis. Certes il ne met pas en cause le système public de retraite, mais il l’affaiblit et ne se donne guère les moyens d’assurer sa fiabilité sociale.

Faut-il redresser les comptes des régimes en situation de dépression ?

Le déficit des régimes de retraites en 2013 provient essentiellement de la profondeur de la récession qui a fait diminuer le niveau d’emploi d’environ 5 %, faisant perdre environ 12 milliards de ressources aux régimes de retraites. L’objectif central de la politique économique en Europe devrait être de récupérer les emplois perdus. Hélas, le rapport Moreau propose de poursuivre la stratégie de spirale vers le bas engagée en Europe et en France : « les régimes de retraites doivent concourir au redressement des comptes publics et à la crédibilité internationale de la France » (page 82). Le rapport oublie que la baisse des pensions de retraite conduit à une baisse de la consommation, donc du PIB, à une baisse des rentrées fiscales et des cotisations sociales, d’autant plus que tous les pays de la zone euro font de même.

Le rapport préconise de réduire à court terme le déficit du système de retraite en augmentant les impôts payés par les retraités. Il reprend sans esprit critique plusieurs projets bien connus. Il faudrait aligner les taux de CSG des retraités sur ceux des actifs. Jadis, contrairement aux actifs,  les retraités ne payaient pas de cotisations maladie. Ils ont souffert de la mise en place puis de la montée en puissance de la CSG. Ils paient déjà une contribution de 1 % supplémentaire sur leurs retraites complémentaires. Ils pâtissent du désengagement de l’assurance-maladie au profit des complémentaires-santé. Augmenter leur taux de CSG de 6,6  à 7,5 % – celui des actifs – rapporterait 1,8 milliard d’euros. Mais, ne faudrait-il pas en contrepartie supprimer la contribution de 1% des retraites complémentaires et rendre déductibles leurs primes de complémentaire-santé (qui ne sont pas payées par les entreprises) ?

Les retraités ont droit, comme les salariés, à un abattement de 10 % pour frais professionnels, mais avec un plafond nettement plus bas. Même pour les salariés, cet abattement est nettement plus élevé que les frais professionnels effectifs ; il compense quelque peu les possibilités d’évasion fiscale des non-salariés. La suppression de l’abattement rapporterait 3,2 milliards de hausse de l’impôt sur le revenu à l’Etat et 1,8 milliard de baisse de certaines prestations, liées au montant du revenu imposable. Les retraités perdraient 2% de pouvoir d’achat. Mais, on voit mal comment ces 5 milliards iraient dans les caisses des régimes de retraites.

L’imposition des avantages familiaux de retraite (qui rapporterait 0,9 milliard) est certes plus justifiée, mais, là encore, on voit mal comment et pourquoi le produit de cette imposition irait aux caisses de retraites, d’autant que les avantages familiaux sont à la charge de la Caisse Nationale des Allocations Familiales.

Par contre, en matière de hausse de cotisation, le rapport est très timide proposant au mieux une hausse de 0,1 point par an pendant 4 ans, soit à terme 1,6 milliard de cotisations-salariés et 1,6 milliard de cotisations-entreprises.

Surtout, le rapport envisage de n’augmenter les retraites les plus élevées (celles qui paient le taux plein de CSG) que de l’inflation, – 1,2 point pendant 3 ans, leur infligeant ainsi une baisse de 3,6 % de pouvoir d’achat. Les retraites soumises au taux réduit de CSG ne perdraient que 1,5 %. Les retraites plus faibles seraient épargnées. Certes, cette disparité dans les efforts peut sembler justifiée, mais la fiabilité du système public des retraites serait fortement diminuée. Comment garantir que la désindexation ne durera que trois ans, qu’elle ne deviendra pas un mode plus ou moins permanent de gestion, ce qui frapperait particulièrement les retraités les plus âgés dont le niveau de vie est déjà plus bas. Comme l’ensemble des pensions perçues par un retraité n’est actuellement pas centralisé, il est difficile de faire varier l’indexation des retraites selon leur niveau. La solution préconisée par le rapport – prendre en compte la situation du retraité vis-à-vis de la CSG – est difficilement gérable ; il n’est pas justifiable que l’évolution de la retraite d’une personne dépende de la situation fiscale de sa  famille. Les pensions de retraite sont un droit social, contrepartie des cotisations versées, elles ne sont pas une variable d’ajustement. Comment justifier une baisse de 3,6 % du pouvoir d’achat d’une partie de la population, alors que le PIB par tête est censé continuer d’augmenter ? Faut-il réduire le pouvoir d’achat des retraités alors que celui-ci n’a pas bénéficié de hausse depuis 1983, même en période de croissance des salaires ? Le respect du contrat social implicite que constitue le système des retraites voudrait que les retraités subissent les mêmes efforts que les salariés, ni plus, ni moins.

Par ailleurs, en période de récession économique, le thème de la nécessité d’efforts répartis équitablement est dangereux. Si chacun fait des efforts en acceptant des baisses de revenu, puis en réduisant ses dépenses, le résultat ne peut être que la chute de la consommation globale, qui sera accompagnée d’une baisse de l’investissement compte tenu des capacités de production inutilisées, donc de la chute du PIB.

Garantir la baisse des retraites

A moyen terme, la grande préoccupation du rapport est de garantir la baisse du niveau relatif des retraites. En effet, du fait de la réforme Balladur, depuis 1993, les salaires portés au compte dans le régime général sont revalorisés en fonction des prix et non du salaire moyen. Le taux de remplacement (le rapport entre la première retraite et le dernier salaire) est d’autant plus faible que le salaire moyen a fortement progressé : jadis le taux de remplacement maximum du régime était de 50 %, il baisse à 41,5 % si le salaire réel progresse de 1,5 % par an, mais seulement à 47 % s’il progresse de 0,5 % par an.  Le mécanisme introduit  permet de faire baisser le niveau moyen des retraites de 31 % si le salaire réel progresse de 1,5 % par an, de 12 % s’il progresse de 0,5 % par an, de 0 s’il stagne. Or, dans la période récente, le salaire ne progresse plus que de 0,5 % par an. Le niveau relatif des retraites risque donc de se rétablir. Il faudrait donc augmenter les salaires pour faire baisser le niveau relatif des retraites.

Le comité d’experts réuni autour de Madame Moreau fait donc deux propositions alternatives :

  • – Soit, les salaires portés au compte ne seraient revalorisés que comme : prix + (salaires réels moins 1,5%), ce qui veut dire que, quelle que soit la hausse des salaires, le taux de remplacement maximum du régime général passerait à 41,5%. La baisse relative des retraites serait ainsi définitivement confortée. Sur le plan technique, la revalorisation des salaires portés au compte deviendrait un instrument d’ajustement, alors qu’elle devrait permettre de calculer le salaire moyen de la carrière, de manière objective ; les salaires les plus anciens seraient fortement dévalorisés. Pourtant, le rapport reconnaît (page 107) que le niveau
    actuel des retraites correspond à la parité des niveaux de vie entre actifs et retraités et que l’évolution proposée aboutirait à terme à un niveau de vie des retraités inférieur de 13 %. Pourtant il juge « acceptable cette évolution ». Est-ce une appréciation qui doit être faite par des experts ou par les citoyens ? Il oublie, de plus, que s’ajouterait à cette perte l’effet des réformes fiscales et de la désindexation, préconisées par ailleurs.
  • – Soit, un comité d’experts proposerait, chaque année, de réduire le niveau des retraites à la liquidation par un facteur démographique, qui assurerait l’équilibre du système. Outre que ce serait porter un nouveau coup à la démocratie (n’est-ce pas aux citoyens d’arbitrer entre niveau des pensions et taux de cotisations ?) et à la démocratie sociale (les partenaires sociaux ne seraient que consultés), les salariés n’auraient aucune garantie sur le niveau futur de leur retraite, d’autant que l’on se souvient du précédent fourni par la nomination d’un groupe d’experts pour le SMIC, farouchement opposé à toute hausse.

Allonger la durée de cotisations

Le rapport Moreau préconise de poursuivre l’allongement de la durée de cotisations requise en suivant les principes de la loi de 2003 (un allongement de 2 ans de la durée de cotisation pour 3 années de hausse d’espérance de vie à 60 ans). La durée requise de cotisation serait alors de 42 ans pour la génération 1962 (en 2024), de 43 ans pour la génération 1975 (en 2037), de 44 ans pour la génération 1989 (en 2051). L’âge moyen  de début d’acquisition des droits étant actuellement de 22 ans, ceci imposerait un âge moyen de départ de 65 ans en 2037, de 66 ans en 2051. Cette annonce a certainement pour but de rassurer la Commission européenne et les marchés financiers, mais elle aboutit surtout à inquiéter les jeunes générations, à conforter leur crainte selon laquelle ils n’auront jamais droit à leur retraite.

Est-il vraiment nécessaire d’annoncer une décision pour les 25 années à venir sans savoir quels seront, en 2037 ou 2051, la situation du marché du travail, les besoins d’emplois, les désirs sociaux, les contraintes écologiques ? A terme, la France, comme tous les pays développés, n’échappera pas à la nécessité de revoir son modèle de croissance. Faudra-t-il tout faire pour augmenter la production et l’emploi marchand, quand les contraintes écologiques devraient nous pousser à la décroissance de la production matérielle ? Maintenir la possibilité d’une période de retraite active, en bonne santé, est une utilisation raisonnable des gains de productivité. Il ne faudrait pas aller au-delà d’un âge de retraite fixé à 62 ans et d’une durée requise de cotisations de 42 années. Ainsi, si le dispositif « carrières longues » est préservé, ceux qui ont commencé à travailler à 18 ans pourront partir à 60 ans ; ceux qui commencent à 23 ans devront rester jusqu’à 65 ans. Mais il faudra repenser dans les entreprises les conditions de travail et le déroulement des carrières pour que tous puissent effectivement être employés jusqu’à ces âges. Ceci suppose aussi que les jeunes à la recherche d’un premier emploi reçoivent une prestation chômage et que les années de « galère » soient validées.

Prendre en compte la pénibilité

La convergence des régimes publics, spéciaux et privés passe par une prise en compte similaire de la pénibilité des emplois, en distinguant les professions difficiles à exercer passé un certain âge, de sorte qu’une reconversion à mi-parcours est nécessaire, et les emplois pénibles, qui peuvent réduire l’espérance de vie, qu’il faut chercher à faire disparaître. Pour ceux qui continuent à devoir exercer ces emplois, les périodes de travaux pénibles devraient donner droit à des bonifications de durée de cotisations et de réduction de l’âge requis. Des critères communs devraient être appliqués dans tous les régimes. Le rapport Moreau ne va pas assez loin, en n’offrant qu’une année de bonification pour 30 années de travaux pénibles. Cela en est presque insultant et ne permet pas d’ouvrir une négociation sur la convergence des régimes.

Que faire ?

Alors que le rapport du COR n’annonçait qu’un déficit limité (1% du PIB en 2040), le rapport Moreau propose d’infliger une triple peine aux futurs retraités : la désindexation, la baisse garantie du taux de remplacement et l’allongement automatique de la durée requise de cotisation. Ce n’est pas de nature à rassurer les jeunes générations, à mettre en évidence les avantages du système social de retraite.

La réforme des retraites n’est pas la priorité de l’année 2013. A court terme, il faut accepter le déséquilibre financier des régimes induit par la crise et se préoccuper essentiellement de sortir de la dépression. Il ne faut pas se lancer dans la stratégie de spirale vers le bas tant économique que sociale qu’induirait la désindexation.

A moyen terme, afin de convaincre les jeunes qu’ils auront bien une retraite satisfaisante, l’objectif doit être de stabiliser le ratio pension/retraite à un niveau proche de son niveau actuel. L’Etat et les syndicats doivent s’engager sur des niveaux cibles de taux de remplacement net pour des carrières normales : 85 % au niveau du SMIC ; 75 % en dessous du plafond de la Sécurité sociale  (3 000 euros par mois) ; 50 % de 1 à 2 plafonds.

Pour garantir les retraites par répartition, le gouvernement et les syndicats doivent annoncer clairement que c’est par la hausse progressive des cotisations que le système sera équilibré, si nécessaire, une fois mise en œuvre, au  niveau des entreprises, une stratégie d’allongement de la durée des carrières, compatible avec la situation du marché du travail et les besoins effectifs en emploi.




Réformer le quotient conjugal

par Guillaume Allègre et Hélène Périvier

Dans le cadre d’un réexamen des dispositifs d’aide aux familles, dont les motivations sont discutables par ailleurs, le gouvernement a annoncé vouloir réduire en 2014 le plafonnement du bénéfice du quotient familial dans le calcul de l’impôt sur le revenu (IR). L’avantage fiscal lié à la présence d’enfants à charge dans le foyer sera réduit de 2 000 à 1 500 euros par demi-part. La réflexion ouverte sur le quotient familial aurait dû être l’occasion de repenser plus globalement la prise en compte de la famille dans le calcul de l’impôt sur le revenu et notamment l’imposition des couples.

Comment les couples sont-ils imposés aujourd’hui ?

En France, l’imposition conjointe est obligatoire pour les couples mariés ou pacsés (et leurs enfants à charge) qui ne forment ainsi qu’un seul et même foyer fiscal. On suppose que les membres d’un même foyer mettent intégralement en commun leurs ressources, peu importe qui apporte ces ressources. En attribuant deux parts fiscales à ces couples, on applique la progressivité du barème à la moyenne des revenus du couple [(R1 +R2) /2]. Lorsque les deux conjoints gagnent des revenus proches, le quotient conjugal ne procure pas d’avantage particulier. En revanche, dès lors que les deux revenus sont inégaux, l’imposition conjointe apporte un avantage fiscal par rapport à l’imposition séparée.

Dans certaines configurations, l’imposition séparée est plus avantageuse que l’imposition conjointe, ceci est dû notamment au fonctionnement particulier de la prime pour l’emploi et de la décote[1], ou encore  au fait que l’imposition séparée permet d’optimiser l’affectation des enfants entre les deux foyers fiscaux, ce que ne permet pas l’imposition conjointe par construction. L’optimisation fiscale est complexe car peu lisible pour le contribuable lambda. Quoiqu’il en soit, dans la grande majorité des cas, le mariage (ou le pacs) procure un avantage fiscal : 60 % des couples mariés ou pacsés payent moins d’impôts que s’ils étaient imposés séparément, avec un gain annuel moyen de 1 840 euros, tandis que 21 % bénéficieraient d’une imposition séparée qui leur ferait gagner 370 euros en moyenne (Eidelman, 2013).

Pourquoi  accorder cet avantage aux seuls  mariés ou pascés ?

Le quotient conjugal repose sur le principe de mise en commun totale des ressources dans le couple. Le contrat privé passé entre deux personnes via le mariage ou encore le pacs constituerait  une « garantie »  de cette mise en commun. En outre, le contrat de mariage est assorti d’une obligation alimentaire entre époux, ce qui les lie au-delà du mariage à mettre en commun une partie de leurs ressources.  Toutefois, le Code civil n’associe pas « mariage » et  « mise en commun intégrale » des ressources entre conjoints. L’article 214 du Code civil prévoit que les époux contribuent aux charges du mariage « à proportion de leurs facultés respectives », ce qui revient à reconnaître que les facultés contributives des époux peuvent être inégales. Depuis 1985, l’article 223 pose le principe de libre jouissance des revenus professionnels, ce qui renforce l’idée que le mariage n’implique pas que les conjoints partagent le même niveau de vie : « chaque époux peut librement exercer une profession, percevoir ses gains et salaires et en disposer après s’être acquitté des charges du mariage ». L’autonomie professionnelle des conjoints et le droit de disposer de ses gains et salaires sont pleinement reconnus dans le Code civil, alors le Code fiscal reste cantonné à une vision globale des ressources et des dépenses du couple.

Par ailleurs, il existe une dissonance dans le traitement social et fiscal des couples. Le montant du RSA versé à un couple est le même qu’il soit marié, pascé ou en union libre. S’agissant du RSA majoré versé aux mères isolées ayant un enfant, l’isolement s’entend comme la vie sans conjoint y compris en union libre. L’union libre est donc reconnue comme une situation de mise en commun des ressources par le système social mais pas par le système fiscal.

Les couples mettent-ils effectivement en commun leurs ressources ?

Les études empiriques montrent que si les couples mariés ont tendance à pratiquer davantage la mise en commun totale des revenus que ceux vivant en union libre, ce n’est pas le cas de tous : en 2010, 74 % des couples mariés déclaraient mettre totalement en commun leurs ressources, mais seulement 30 % des couples pacsés contre 37 % des couples en union libre. La pratique dépend beaucoup de ce qu’il y a à partager : si 72 % des couples du premier quartile de revenu déclarent mettre en commun intégralement leurs ressources, ce n’est le cas que de 58 % des couples du dernier quartile (Ponthieux, 2012). Plus les ressources sont élevées moins les membres du couple mettent en commun leurs ressources. La mise en commun totale n’est donc pas aussi répandue que supposée : les conjoints ne partagent pas nécessairement exactement le même niveau de vie.

Capacité contributive et nombre de parts accordées

Le système fiscal reconnaît une mise en commun des ressources chez les couples mariés ou pascés, et leur attribue deux parts fiscales. L’attribution de ces parts fiscales repose sur le principe de capacité contributive dont on doit tenir compte pour être conforme au principe d’égalité devant l’impôt : autrement dit, on cherche à imposer le niveau de vie plus que le revenu en tant que tel. A revenu identique, une personne vivant seule a un niveau de vie plus élevé qu’un couple, mais du fait des avantages liés à la vie en couple, il n’est pas deux fois plus élevé. Pour comparer les niveaux de vie de ménages de tailles différentes, des échelles d’équivalence ont été estimées (Hourriez et Olier, 1997). L’INSEE attribue 1,5 part (ou unité de consommation) aux couples et 1 part aux célibataires : selon cette échelle, un couple ayant 3 000 euros de revenu disponible a ainsi le même niveau de vie qu’un célibataire dont le revenu s’élève à 2 000 euros. Or le quotient conjugal attribue 2 parts aux couples mariés quand il en donne une seule au célibataire. On sous-estime donc de 33 % le niveau de vie des couples relativement aux personnes vivant seules, et donc on ne les impose pas à hauteur de leur capacité contributive réelle.

En outre, on note encore une fois une incohérence entre le traitement des couples par les politiques sociale et fiscale : les minima sociaux tiennent compte des économies d’échelle liées à la vie en couple conformément aux échelles d’équivalence. Le RSA-socle perçu par un couple (725€) est 1,5 fois plus élevé que celui perçu par un célibataire (483€). Il y a une asymétrie dans le traitement des conjoints selon qu’ils font partie du haut de l’échelle des revenus et sont soumis à l’impôt sur le revenu, ou du bas de l’échelle des revenus et perçoivent des prestations sociales sous conditions de ressources.

Quelle norme familiale portée par le quotient conjugal ?

Le quotient conjugal a été pensé en 1945 en cohérence avec une certaine norme familiale, celle de Monsieur Gagnepain et Madame Aufoyer. Il contribuait aux côtés d’autres dispositifs à encourager cette forme d’organisation familiale, jugée comme celle souhaitable. Jusqu’en 1982, l’imposition reposait sur les seules épaules du chef de famille, à savoir l’homme ; la femme était perçue comme à la charge de l’homme. Or, loin de constituer une charge pour son conjoint, elle produit un service gratuit, via le travail domestique qu’elle fournit. Cette production domestique (garde et éducation des enfants, ménage, cuisine, …) a une valeur économique qui n’est ainsi pas imposée. Ainsi, les couples mono-actifs sont-ils les grands gagnants du système qui leur donne un avantage par rapport aux couples bi-actifs, qui doivent payer pour externaliser une partie des tâches domestiques et familiales.

En résumé, le système d’imposition conjointe actuel conduit à pénaliser les célibataires ou les couples en union libre par rapport aux couples mariés ou pascés, et à pénaliser les couples biactifs par rapport aux couples mono-actifs. Il est dans ses fondements défavorables à l’émancipation économique des femmes.

Que faire ?

La réalité des familles est aujourd’hui multiple (mariage, union libre, …) et mouvante (divorce, remariage, ou remise en couple, recomposition familiale), l’activité des femmes a changé profondément la donne en la matière. Si tous les couples ne mettent pas en commun leur ressources, certains le font, totalement ou partiellement, qu’ils soient en union libre ou mariés. Doit-on en tenir compte ? Si oui, comment en tenir compte face à cette multiplicité des formes d’union et leur mouvance ? Tel est le défi qu’il nous faut relever en réformant les principes et les normes familiales qui sous-tendent l’Etat social. En attendant, des modifications et rééquilibrages pourraient être réalisés.

Aujourd’hui, le bénéfice de l’imposition commune n’est pas plafonné par loi. Il peut s’élever à 19 000 euros par an (pour des revenus supérieurs à 300 000 euros,  niveau de revenus qui atteignent la dernière tranche d’imposition) et même à presque 32 000 euros (pour des revenus supérieurs à 1 000 000 d’euros) si on inclut le bénéfice de l’imposition commune à la contribution exceptionnelle sur les très hauts revenus. A titre de comparaison, on note que le montant maximal de la majoration du RSA pour un couple par rapport à une personne vivant seule est de 2 900 euros par an. Le plafond du quotient familial (QF), qui lui est explicite, est de 1 500 euros par demi-part. Un plafonnement du quotient conjugal à 3 000 euros (soit deux fois le plafonnement du QF) ne toucherait que les 20 % des ménages les plus aisés (à partir de 55 000 euros annuels pour un couple mono-actif avec deux enfants). A ce niveau de revenu il est probable que l’avantage de l’imposition commune soit lié à une inégalité de revenus qui est la conséquence d’une spécialisation (complète ou non) entre les conjoints dans la production marchande et non-marchande ou que les ressources ne sont pas intégralement mises en commun entre les conjoints.

Une autre solution, complémentaire, consisterait à laisser le choix à tous les couples, entre la déclaration conjointe et la déclaration séparée et conformément aux échelles de consommation couramment utilisées, à n’accorder à la déclaration conjointe qu’une part et demie, au lieu de deux aujourd’hui. L’administration fiscale pourrait calculer la solution la plus avantageuse, les ménages ne choisissant pas systématiquement la bonne option pour eux.

Une véritable réforme exige d’ouvrir un débat plus large sur la prise en compte des solidarités familiales dans le système socio-fiscal. En attendant, ces solutions rééquilibrent le système et reviennent sur une norme de couple contraire à l’égalité femmes-hommes. A l’heure où le gouvernement cherche des marges manœuvre budgétaires, pourquoi s’interdire de modifier la fiscalité des couples ?


[1] Une décote est appliquée à l’impôt pour les foyers fiscaux dont le montant de l’impôt brut est peu élevé (moins de 960€). Comme la décote est calculée par foyer fiscal et qu’elle ne dépend pas du nombre de personnes inclues dans le foyer, elle est relativement plus favorable pour les célibataires que pour les couples.  Elle permet d’éviter que les personnes seules rémunérées au SMIC travaillant à temps plein soient imposables. La décote vient ainsi compenser pour les bas revenus le fait que les célibataires sont pénalisés par les parts de quotient conjugal. Aucun mécanisme similaire n’est prévu pour les hauts revenus.