Prélèvement à la source de l’impôt sur le revenu : comment faire ?

par Guillaume Allègre

Le gouvernement a décidé de reporter le prélèvement à la source de l’impôt sur le revenu (IR) à janvier 2019. A partir de cette date, les employeurs prélèveront directement l’impôt sur la fiche de paie à un taux transmis par l’administration fiscale. Ce taux sera calculé sur la base de la déclaration fiscale effectuée au printemps 2018 (sur les revenus 2017). En 2019, l’impôt sera ainsi payé sur les revenus 2019. L’avantage principal de la réforme réside dans cette contemporanéité : si les revenus d’un ménage baissent (chômage, départ à la retraite, …), l’impôt baissera proportionnellement[1]. En cas de changement de situation conduisant à une baisse prévisible significative de l’impôt dû, les ménages pourront demander en cours d’année sur le site impots.gouv.fr une mise à jour de leur taux de prélèvement à la source, de sorte que la baisse de l’impôt payé sera plus que proportionnelle. Le prélèvement à la source évite ainsi les difficultés de trésorerie pour les personnes dont la situation change en cours d’année. Du point de vue de l’Etat, le prélèvement à la source permettrait également une plus grande efficacité des stabilisateurs automatiques (l’IR variera en temps réel avec les revenus).

Dans un Policy brief OFCE récent (« Prélèvement à la source de l’impôt sur le revenu : peu d’avantages et beaucoup d’inconvénients »), Gilles Le Garrec et Vincent Touzé évaluent la réforme et concluent qu’elle présente plus d’inconvénients que d’avantages. Parmi les inconvénients, elle occasionnerait des tâches administratives supplémentaires, elle impliquerait une année blanche « due à la non fiscalisation des revenus 2018 », une hausse fiscale liée à la suppression du délai d’un an pour payer l’IR, et la divulgation à l’employeur d’informations fiscales personnelles. Selon un rapport du Sénat, très critique du projet de loi prévoyant le prélèvement à la source, la réforme constituerait un « choc de complexité ». Il est vrai que ce n’est pas une réforme de simplification : les ménages devront toujours déclarer leurs revenus et il y aura une régularisation de l’impôt en n+1 si l’impôt dû est différent de l’impôt prélevé à la source l’année n ; les entreprises auront un rôle de tiers collecteur qu’elles n’ont pas aujourd’hui.

Il est en fait possible de répondre aux critiques adressées au prélèvement à la source si l’on procède à certains ajustements. Ce faisant, les avantages de la contemporanéité de l’impôt semblent supérieurs aux inconvénients.

Comme souligné par le rapport du Sénat, le taux utilisé pour le prélèvement à la source repose sur l’impôt payé en n-1 mais en excluant les éventuelles réductions et crédits d’impôt. Les ménages ne bénéficieront donc de ces réductions ou crédits qu’en milieu d’année n+1. L’Etat n’a ainsi pas voulu faire d’avance de trésorerie aux ménages. L’Etat pourrait être plus généreux en incluant les réductions et crédits d’impôt dans le calcul du taux de prélèvement à la source, quitte à régulariser en n+1 pour les ménages ayant perdu leurs avantages en année n.

Si la réforme est bien mise en place en janvier 2019, les ménages paieront en 2018 l’impôt sur les revenus qu’ils percevront en 2017 puis ils paieront en 2019 l’impôt sur leurs revenus 2019 (avec une régularisation en 2020). En termes de trésorerie, il n’y a donc pas d’année blanche du point de vue des ménages ou de l’Etat[2]. Les revenus perçus en 2018 ne seront pas imposés mais la loi prévoit déjà que les revenus exceptionnels (indemnités de rupture du contrat de travail, …), ainsi que les plus-values immobilières, les intérêts, les dividendes, les gains sur les stocks options ou les actions gratuites restent imposés selon les modalités habituelles (voir les modalités prévues pour l’année de transition). S’il n’y a pas d’année blanche en termes de trésorerie, la question de l’année d’un décès en cours d’année ne semble pas avoir été prévue par le législateur. En effet, dans la législation actuelle, les héritiers doivent payer l’impôt sur les revenus dû par la personne décédée l’année suivant le décès. Avec le prélèvement à la source, au contraire les héritiers seront remboursés d’un trop-perçu : si un individu meurt au milieu de l’année 2019, il aura payé trop d’impôt car l’impôt est annualisé (et fortement progressif) et l’individu décédé n’a des revenus que pour une partie de l’année[3]. Il y a donc une perte fiscale pour l’Etat[4]. Pour éviter la plus grosse partie de cette perte fiscale (le remboursement d’une grande partie de l’impôt payé l’année du décès), le législateur pourrait décider de proratiser le barème de l’impôt sur le revenu l’année du décès : si l’individu meurt au milieu de l’année, le barème en tranches serait multiplié par 50% de sorte que l’impôt prélevé durant la moitié de l’année serait plus ou moins égal à l’impôt dû à la fin de l’année. Une solution complémentaire ou de substitution serait d’augmenter l’impôt sur les successions de sorte que les héritiers ne soient pas gagnants à la réforme. Pour éviter que les héritiers gagnent avec la réforme, Le Garrec et Touzé suggèrent de conserver la créance fiscale sur l’année de transition mais cette solution semble trop compliquée à mettre en œuvre.

Le Garrec et Touzé soulignent un autre inconvénient du passage au prélèvement à la source : du fait de l’abandon du délai d’un an pour payer l’IR, et comme les revenus augmentent (du fait de la croissance économique positive), l’Etat fait un gain de trésorerie aux dépens des ménages. Le législateur peut neutraliser cet effet en ajustant le barème de l’impôt sur le revenu (par exemple en rehaussant les tranches d’imposition).

Il convient de ne pas surestimer les démarches administratives supplémentaires pour les entreprises. Rappelons que les entreprises prélèvent déjà à la source les cotisations sociales et autres prélèvements sociaux[5]. Les services fiscaux communiqueront un taux de prélèvement au titre de l’IR pour chaque employé. Les entreprises n’auront qu’à appliquer ce taux au salaire net imposable, qui est déjà calculé par les logiciels de paie. Le mois suivant, elles reverseront les prélèvements à la DGFIP (elles gagnent ainsi un mois de trésorerie). La complication administrative est donc à la fois limitée et compensée. Les entreprises connaîtront néanmoins le taux d’imposition de leurs salariés (soumis au secret professionnel). Comme ils connaissent les salaires versés, les employeurs pourront savoir – par exemple pour un célibataire – si leur employé perçoit des revenus fonciers ou mobiliers. Pour préserver la confidentialité, les salariés pourront opter pour l’application d’un taux neutre ne prenant en compte que le salaire imposable (pour un célibataire sans enfant). Mais si l’application du taux neutre conduit à un prélèvement moins important, le salarié devra calculer lui-même et régler la différence directement à la DGFIP « au plus tard le dernier jour du mois suivant celui de la perception du revenu »[6], ce qui constitue une complication[7]. De plus, le taux neutre n’est guère favorable car il ne tient pas compte du quotient familial. Une réforme du taux neutre semble donc souhaitable[8].

Une autre complication concerne l’imposition des couples mariés ou pacsés, l’imposition en France étant conjugalisée (voir Allègre, Périvier, 2013 « Réformer le quotient conjugal »). Par défaut, l’administration fiscale communiquera le même taux pour les deux conjoints, quels que soient leurs revenus respectifs. Ce taux par défaut permettra à l’employeur d’avoir des informations sur le revenu du conjoint. De plus, étant donné que la femme perçoit généralement un salaire plus faible que celui de son conjoint, elle verra son salaire net d’IR fortement imposé, même si cela est neutre au niveau du couple. Les conjoints pourront néanmoins opter pour des taux individualisés. Les études dans le champ de l’économie comportementale ont montré que le choix de l’option par défaut avait une grande influence sur le comportement des individus qui optent souvent pour le taux par défaut (voir Thaler et Sustein, 2010 : Nudge. La méthode douce pour inspirer la bonne solution) – qui ici est défavorable au conjoint ayant les plus faibles revenus. Même si on sait peu de choses sur la façon dont le paiement de l’impôt est réparti aujourd’hui au sein des couples, il serait préférable du point de vue de l’égalité femmes-hommes que l’option de taux individualisés soit l’option par défaut.

La discussion ci-dessus montre que les difficultés liées au passage au prélèvement à la source ne sont pas majeures, même si ce passage nécessite quelques ajustements dont la plupart ont d’ailleurs déjà été anticipés par le gouvernement précédent. Les avantages liés à la contemporanéité de l’impôt – notamment en termes de trésorerie pour les ménages – nous semblent ainsi plus importants que les inconvénients. A terme, le prélèvement à la source permettrait également une fusion de l’impôt sur le revenu, d’une partie de la Prime d’activité et de la CSG, déjà prélevée à la source, ce qui simplifierait grandement le système socio-fiscal et lui donnerait plus de lisibilité. On peut donc espérer que cette réforme soit réellement mise en place en 2019 et non reportée sine die.

 

[1] Mais seulement proportionnellement alors que l’impôt est progressif : il y a un effet « assiette » (l’assiette de l’impôt varie immédiatement) mais pas d’effet « taux » (le taux ne varie pas à moins de demander expressément une modulation de taux en cours d’année en cas de changement de situation).

[2] Il y aura tout de même des possibilités d’optimisation dues au fait que les revenus 2018 ne seront jamais imposés. Le gouvernement prévoit des dispositions particulières pour que les contribuables ne puissent pas majorer artificiellement leurs revenus de l’année 2018.

[3] Prenons l’exemple d’un retraité célibataire, veuf ou divorcé ayant 50 000 euros de revenus annuels. Sur une année son impôt sera de 8 235 euros, soit 16,5% de son revenu. S’il meurt en milieu d’année, il n’aura que 25 000 euros de revenus. Le prélèvement à la source sera de 16,5%*25 000=4 118 euros. Or l’impôt dû pour 25 000 euros de revenus annuels n’est que de 1 625 euros (soit 6,5% du revenu). L’Etat devra donc rembourser 2 493 euros aux héritiers. Sans le prélèvement à la source, les héritiers auraient dû payer 1 625 euros. Avec le prélèvement à la source, on voit donc que l’Etat perd une année d’impôt l’année du décès du contribuable.

[4] Qui est compensée en partie par le fait que les nouveaux contribuables paieront leur impôt avec une année d’avance.

[5] Ce qui est tout de même plus simple du fait qu’ils sont individuels et proportionnels aux revenus.

[6]  LOI n°2016-1917 du 29 décembre 2016 – art. 60 (V)

[7] Il est possible que certains contribuables choisissent le taux neutre pour ne pas divulguer à leur employeur qu’ils bénéficient de crédits ou de réductions d’impôt. Il n’est pas prévu que la DGFIP règle la différence « au fur et à mesure ».

[8] Les contribuables devraient pouvoir tenir compte du quotient familial. Le solde à payer devrait être calculé par l’administration fiscale.




Evolution des taux d’activité en Europe pendant la Grande Récession : le rôle de la démographie et de la polarisation de l’emploi

par Guillaume Allègre et Gregory Verdugo

En Europe comme aux Etats-Unis l’emploi a considérablement reculé pendant la Grande Récession. De plus, au cours des dernières décennies, les forces de l’automatisation et de la mondialisation ont bouleversé les marchés du travail dans les deux régions. Cependant, la réponse des taux d’activités à ces changements a varié d’un pays à l’autre. L’un des événements les plus importants sur le marché du travail aux Etats-Unis au cours de la dernière décennie a été le déclin de la population active. De 2004 à 2013, le taux d’activité des 25 à 54 ans a diminué de 2,6 points de pourcentage (passant de 83,8% à 81,1%) et cette baisse a persisté bien au-delà de la fin de la Grande Récession. A l’inverse, dans l’UE 15, le taux d’activité pour cette catégorie d’âge a augmenté de 2 points au cours de la même période (de 83,7% à 85,6%), malgré la faible croissance et la persistance d’un niveau élevé de chômage.

Qu’est ce qui explique ces différences des deux côtés de l’Atlantique ? Pour répondre à cette question, nous étudions ici les déterminants de l’évolution de la population active au cours des deux dernières décennies dans douze pays européens que nous comparons aux Etats-Unis.

Conformément aux travaux antérieurs sur les Etats-Unis, nous constatons que les changements démographiques récents expliquent une part substantielle des différences entre les pays. La part des baby-boomers à la retraite a augmenté plus rapidement aux Etats-Unis, et y a donc déclenché une baisse plus importante des taux d’activité qu’en Europe. Au cours de la dernière décennie, l’Europe a également été caractérisée par une augmentation du nombre de diplômés du supérieur deux fois plus élevée qu’aux Etats-Unis, et ce notamment en Europe du Sud et en particulier pour les femmes. Les femmes ayant des niveaux d’éducation plus élevés sont plus susceptibles de rejoindre la population active et elles ont ainsi contribué de manière spectaculaire à l’augmentation de la population active en Europe.

Cependant, ces changements n’expliquent pas tout. Pour la population ayant un niveau de diplôme inférieur au baccalauréat, les taux d’activité des hommes ont diminué dans tous les pays. Pour les femmes, ils ont augmenté rapidement, en particulier dans les pays les plus touchés par le chômage. En Espagne, en Grèce et en Italie, les taux d’activité des femmes ayant un niveau de diplôme inférieur au baccalauréat ont augmenté de respectivement 12, 5,5 et 2 points entre 2007 et 2013 alors que ces économies étaient plongées dans une récession profonde.

Pour expliquer ces faits, nous étudions le rôle des changements de demande de travail au cours des dernières décennies et en particulier lors de la Grande Récession. Nous montrons que, comme aux Etats-Unis, la polarisation de l’emploi (qui désigne la réaffectation de l’emploi vers les professions les moins et les plus rémunérées au détriment des professions intermédiaires) s’est accélérée en Europe lors de la Grande Récession (graphique 1). En raison d’une plus grande destruction d’emplois dans les professions intermédiaires, la polarisation récente a été largement plus intense en Europe.

graph 1

Autre différence importante par rapport aux Etats-Unis, la ségrégation professionnelle entre les hommes et les femmes est plus marquée en Europe. Les emplois intermédiaires qui disparaissent rapidement sont ainsi bien plus susceptibles d’employer des travailleurs masculins en Europe alors que l’expansion des professions peu qualifiées bénéficie au contraire de manière disproportionnée aux femmes (graphique 2). En conséquence, en Europe plus qu’aux Etats-Unis, la polarisation de l’emploi et la destruction des emplois intermédiaires ont entraîné un déclin spectaculaire des opportunités sur le marché du travail pour les hommes par rapport aux possibilités offertes aux femmes. Nous trouvons que ces chocs de demande asymétriques entre hommes et femmes expliquent la plus grande part de la hausse des taux d’activité des femmes les moins diplômées durant la Grande Récession.

 

graph 2

Pour en savoir plus : Gregory Verdugo, Guillaume Allègre, « Labour Force Participation and Job Polarization: Evidence from Europe during the Great Recession », Sciences Po OFCE Working Paper, n°16, 2017-05-10




Des inégalités européennes : inégalités sans frontière

par Guillaume Allègre

Dans le préambule du traité instituant la Communauté économique européenne, les chefs d’Etat et de gouvernement se déclarent « décidés à assurer par une action commune le progrès économique et social de leur pays en éliminant les barrières qui divisent l’Europe ». L’article 117 rajoute que « les États membres conviennent de la nécessité de promouvoir l’amélioration des conditions de vie et de travail de la main-d’œuvre permettant leur égalisation dans le progrès ». Soixante ans après le Traité de Rome, qu’en est-il des inégalités économiques et sociales en Europe ? Comment ont-elles évolué durant la crise, entre les pays de l’Union et au sein des pays ?

Selon Eurostat, la grande récession a fait croître, un peu, les inégalités au sein des  Etats-membres de l’UE. Le coefficient de Gini calculé à partir du niveau de vie[1] est passé de 0,306 en 2007 à 0,31 en 2015 en moyenne dans les 28 pays membres de l’UE. Toutefois, une partie de la hausse est due à d’importantes ruptures de série en France et en Espagne en 2008. L’élément saillant est que les inégalités en Europe apparaissent nettement plus faibles que celles qui prévalent aux Etats-Unis : en effet, ce même Gini est estimé à 0,394 aux Etats-Unis en 2014 alors qu’il s’échelonne de 0,25 (République Tchèque) à 0,37 (Bulgarie) dans l’Union Européenne. Les Etats-Unis sont donc plus inégalitaires que n’importe quel pays dans l’UE et nettement plus inégalitaires que la moyenne européenne.

Toutefois, la présentation d’un Gini moyen dans l’Union Européenne peut être trompeuse (cf. Allègre, 2017, dans OFCE, L’économie européenne 2017, Repères, La Découverte). En effet, il ne tient compte que des inégalités à l’intérieur de chaque pays et non des inégalités entre pays. Or, ces dernières sont importantes.  En comptabilité nationale, les revenus des ménages en standard de pouvoir d’achat de consommation par pays de l’UE s’échelonnent en 2013 de 37% de la moyenne européenne (Bulgarie) à 138% (Allemagne), soit un rapport de 1 à 4. Au niveau européen, Eurostat  calcule une moyenne des inégalités nationales, ainsi que les inégalités inter-nationales. Par contre, Eurostat ne calcule pas les inégalités entre citoyens européens : qu’en est-il des inégalités si l’on élimine les barrières nationales et que l’on calcule au niveau européen les inégalités entre citoyens de la même façon qu’on calcule des inégalités au sein de chaque nation ? Il peut paraitre légitime de calculer ces inégalités entre citoyens européens – sans tenir compte des frontières nationales – dans la mesure où l’Union Européenne constitue une communauté politique avec ses propres institutions (Parlement, exécutif…).

La base de données EU-SILC qui fournit le revenu disponible équivalent (en parité de pouvoir d’achat) d’un échantillon représentatif de ménages dans chaque pays européen permet de faire ce calcul. Il en ressort que le niveau des inégalités globales en 2014 dans l’Union Européenne est équivalent à celui qui prévaut aux Etats-Unis (graphique). Quelle conclusion en tirer ? Si l’on voit le verre à moitié vide, on peut souligner que les inégalités européennes sont du même niveau que le pays développé le plus inégalitaire au monde. Si l’on voit le verre à moitié plein, on peut souligner que l’Union Européenne ne constitue pas une nation avec des transferts sociaux et fiscaux, qu’elle s’est élargie récemment à des pays beaucoup plus pauvres et que malgré tout, les inégalités n’y sont pas supérieures qu’aux Etats-Unis.

 

gini

Sur le graphique, on observe également une légère baisse des inégalités globales dans l’Union Européenne entre 2007 et 2014. L’indice de Theil, un autre indicateur d’inégalité, permet de décomposer l’évolution des inégalités européennes entre ce qui provient de l’évolution des inégalités entre pays et ce qui provient de l’évolution au sein des pays. Entre 2007 et 2014, l’indice de Theil passe de 0.228 à 0,214 (-0.014). Les inégalités au sein du pays sont globalement stables (+0.001) tandis que les inégalités entre pays baissent (-0.015). Ces évolutions se rapprochent de celles observées par Lakner et Milanovic au niveau mondial (« Global Income Distribution: From the Fall of the Berlin Wall to the Great Recession ») : augmentation des inégalités au plan national et baisse des inégalités entre pays (notamment du fait du rattrapage de la Chine et de l’Inde).

Jusqu’ici, l’Union Européenne a fait de l’ouverture des frontières son principal instrument pour réduire les inégalités en Europe. Mais si l’ouverture des frontières peut aider au rattrapage des pays les moins aisés de l’Union (notamment la Bulgarie et la Pologne), elle peut aussi peser sur les inégalités au sein des pays (notamment en Espagne et au Danemark). Or, il n’existe jusqu’ici pas de politique sociale européenne. Ce domaine relève avant tout de la compétence des Etats. Malheureusement, l’ouverture des frontières exacerbe la concurrence sociale et fiscale plutôt qu’elle ne favorise l’harmonisation. Ainsi les taux marginaux supérieurs d’IRPP et d’IS ont largement chuté depuis le milieu des années 1990 tandis que le taux de TVA a augmenté (A. Bénassy-Quéré et al. : « Renforcer l’harmonisation fiscale en Europe »).

En France, le gouvernement s’est engagé à porter le taux d’IS de 33,3 à 28% d’ici 2020. Ceci fait suite à un mouvement de baisse de la fiscalité des entreprises et de hausse de celle des ménages. L’impact sur les inégalités a été jusqu’ici compensé par le fait que la hausse de la fiscalité s’est concentrée sur les ménages les plus aisés. Toutefois, deux candidats à l’élection présidentielle, MM. Fillon et Macron, prônent une baisse substantielle de l’imposition des revenus des capitaux (prélèvement libératoire, réduction de l’ISF au capital immobilier pour M. Macron, suppression de l’ISF pour M.  Fillon) au nom de la compétitivité. Les dangers que la concurrence fiscale et sociale fait peser sur les inégalités pourraient alors prochainement commencer à se ressentir.

[1]  Le coefficient de Gini est un indicateur d’inégalité variant de 0 à 1, 0 signifie l’égalité parfaite et 1 signifie une inégalité parfaite. Il est ici calculé à partir du niveau de vie, ou revenu disponible équivalent, c’est-à-dire d’un revenu ajusté tenant compte de la taille des ménages.

 

Pour en savoir plus : “The Elusive Revovery”, IAGS 2017




Nouvelle économie régionale et réforme territoriale

Par Guillaume Allègre, Gérard Cornilleau, Éloi Laurent et Xavier Timbeau

A l’heure des élections régionales et de la création de nouvelles régions et de métropoles, un numéro de la Revue de l’OFCE (n° 143, novembre 2015) aborde les questions déterminantes pour les politiques publiques territoriales.

L’économie régionale met en jeu non pas un mais deux espaces : les régions et le cœur de celles-ci, les métropoles. L’attention à ces deux espaces, dont on peut dire qu’ils ont été les impensés du deuxième « acte » de la décentralisation en France, a largement déterminé les trois lois de la réforme régionale de 2014-2015. La loi MAPTAM du 27 janvier 2014 affirme l’importance des métropoles dès son intitulé : « loi de modernisation de l’action publique territoriale et d’affirmation des métropoles ». Elle crée la métropole du Grand Paris qui regroupera les communes de Paris et de la petite couronne à compter du 1er janvier 2016, la métropole de Lyon et celle d’Aix-Marseille-Provence, ainsi que neuf autres métropoles régionales dites de droit commun (Toulouse, Lille, Bordeaux, Nantes, Nice, Strasbourg, Rennes, Rouen, Grenoble).  La loi  du 16 janvier 2015 relative à la délimitation des régions fait quant à elle passer de 22 à 13 le nombre de régions également à compter du 1er janvier 2016. La loi du 7 août 2015 portant Nouvelle organisation territoriale de la République (NOTRe) parachève l’édifice en confiant de nouvelles compétences à ces nouvelles régions.

Si on voit bien l’influence de l’économie géographique et son souci d’efficience spatiale sur la réforme territoriale, on perçoit nettement moins dans les réformes envisagées les limites de celles-ci et la question pourtant centrale de l’égalité des territoires. C’est donc à l’aune de la double question de l’efficience et de l’équité qu’il convient d’interroger la nouvelle économie régionale française que dessine la réforme territoriale. Quelle relation entre la taille des zones d’emploi et leur performance économique et sociale ? Avec quels indicateurs doit-on mesurer le développement économique, social et environnemental des territoires ? Certaines organisations territoriales sont-elles plus efficaces que d’autres ? Les mesures favorisant l’égalité entre les territoires sont-elles un frein ou un accélérateur du développement économique ? Existe-t-il une taille optimale des régions ?  Peut-on envisager une tension entre régions légales et régions réelles et/ou vécues ?

Quelle relation entre la taille des zones d’emploi et leur performance économique et sociale ? 

Dans sa contribution, Jean-Claude Prager nous rappelle que la concentration spatiale des activités et la croissance économique sont deux phénomènes historiques difficiles à séparer. Il l’attribue à l’importance des effets d’agglomération. Cependant, la taille des villes s’accompagne également de coûts environnementaux et de congestion de plus en plus grands. Il n’y a donc pas de réponse générale à la taille optimale des villes dans la mesure où la qualité de la gouvernance joue un rôle déterminant dans l’équilibre entre les bénéfices et les coûts associés. Pour Laurent Davezies, la taille de la région et la qualité du fonctionnement des marchés sont des facteurs majeurs de croissance. La taille et la densité offrent en effet un meilleur appariement des offres et des demandes sur les différents marchés, notamment sur le marché du travail. L’efficacité des marchés urbains est tout de même conditionnée aux politiques publiques d’urbanisation et notamment à l’efficacité des systèmes de transports. A l’inverse, pour Olivier Bouba-Olga et Michel Grossetti, si les effets d’agglomération sont statistiquement significatifs, l’ampleur de ces effets est faible et les données présentent des limites. Pour les auteurs, il est hasardeux de justifier sur une base aussi fragile une politique de concentration de l’activité économique dans quelques métropoles.

Avec quels indicateurs doit-on mesurer le développement économique, social et environnemental des territoires ? 

Olivier Bouba-Olga et Michel Grossetti critiquent l’utilisation du PIB régional par habitant, qui serait un très mauvais indicateur de performance des régions.  Premièrement, c’est le PIB par emploi et non par habitant qui permet de mesurer la productivité apparente du travail. Deuxièmement, les auteurs soulignent que les différences de productivité apparente sont liées à des effets de composition et d’interdépendance. Par exemple, si l’Île-de-France est plus productive c’est parce qu’elle abrite les  sièges sociaux et une part importante des très hautes rémunérations. Mais toutes les régions ne peuvent pas imiter cette stratégie. Laurent Davezies reconnaît que le concept de PIB territorialisé pose de nombreux problèmes conceptuels et statistiques mal résolus. Pourtant, il considère que celui calculé par l’INSEE est très proche de l’idée raisonnable que l’on peut se faire de la contribution de la région à la création de richesse nationale. Pour l’auteur, la surproductivité de l’Île-de-France n’est pas qu’un artefact statistique. Il souligne ainsi que la part de la région dans les rémunérations versées (32,9%) et dans le PIB marchand (37%) est même supérieure à la part dans le PIB national (30,5%).

Dans un article retraçant les mutations économiques du Nord-Pas-de-Calais, Grégory Marlier, Thomas Dallery et Nathalie Chusseau  proposent de compléter le PIB régional par des indicateurs alternatifs d’inégalités territoriales et de développement humain (IDH2). Ce dernier indicateur qui reprend la santé, l’éducation et le niveau de vie comme dimensions, place le Nord-Pas-de-Calais en dernière position des régions françaises. La déclinaison communale de l’indicateur de développement humain (IDH4) met en évidence des contrastes importants à l’échelle infrarégionale.

Dans une contribution sur les stratégies de développement régional dans l’OCDE, Joaquim Oliveira Martins et Karen Maguire  présentent un ensemble d’indicateurs proposés par l’OCDE en 2014 pour mesurer le bien-être régional. Ces indicateurs capturent neuf dimensions du bien-être : revenu, emploi, logement, santé, éducation et compétences, qualité de l’environnement, sécurité personnelle, engagement civique et accès aux services.

Certaines organisations territoriales sont-elles plus efficaces que d’autres ?

Selon Joaquim Oliveira Martins et Karen Maguire, les études récentes de l’OCDE ont montré qu’une fragmentation des gouvernements municipaux peut avoir des effets négatifs sur la productivité des régions, notamment dans les zones métropolitaines. Les auteurs soulignent que l’on compte environ 1 400 collectivités locales dans l’agglomération de Paris. Or, un doublement des gouvernements locaux peut réduire de presque autant l’avantage en termes d’économies d’agglomération du doublement de la taille d’une ville. Laurent Davezies critique lui aussi la fragmentation communale et appelle à plus de politiques urbaines intégrées. Il souligne que la dernière loi sur l’organisation territoriale de la République va dans ce sens.

Pour Jean-Claude Prager, la qualité de la gouvernance des régions et des métropoles est importante pour leur prospérité mais elle ne peut cependant pas se réduire à des seuls critères formels. Elle dépend de la personnalité des dirigeants et de leurs capacités à mettre en œuvre des stratégies de différenciation économique des territoires.

Jacques Lévy critique pour sa part le faible poids des budgets régionaux (en moyenne, un peu plus de 1% du PIB), qui ne donne pas aux régions les moyens de gérer leur développement.

Les mesures favorisant l’égalité entre les territoires sont-elles un frein ou un accélérateur du développement économique ? 

Selon Jean-Claude Prager, le bilan des politiques de rééquilibrage régional est controversé, notamment parce qu’elles ne font pas la différence entre les individus concernés et les territoires administratifs. Selon l’auteur, le soutien financier aux régions moins riches peut avoir pour effet principal de faire bénéficier d’effets d’aubaine les personnes les mieux dotées de ces régions, celles dont la capacité de captation des subventions publiques est forte, sans nécessairement profiter principalement aux plus démunis de leur région. L’auteur conclut que l’efficacité et l’égalité des chances sont mieux assurées avec le développement du capital humain.

Cette stratégie peut être rendue difficile car, comme le soulignent Arnaud Degorre, Pierre Girard et Roger Rabier, les espaces métropolitains ont tendance à capter les ressources rares et notamment les travailleurs qualifiés qui sont également les plus mobiles. Au jeu des migrations résidentielles, la vaste majorité des territoires enregistrent des départs des plus qualifiés, au profit en premier lieu de l’agglomération parisienne, mais aussi des métropoles en région, dont Toulouse, Grenoble, Lyon et, dans une moindre mesure, Montpellier et Lille.

Existe-t-il une taille optimale des régions ? Peut-on envisager une tension entre régions légales et régions réelles et/ou vécues ? 

Jacques Lévy revient sur les quatre erreurs de la réforme régionale. C’est une action top-down technocratique qui ignore les habitants. Elle découpe le grand (la région) avant le petit (le local). Elle définit des frontières avant de définir des compétences. Enfin, elle évite de supprimer le Conseil de département. L’auteur avance une proposition alternative de carte régionale rapprochant les régions vécues des régions administratives. Il privilégie une démarche bottom-up et définit en premier lieu 771 pays de taille très variable (de 3 000 à 12 millions d’habitants) puis propose une nouvelle carte des régions en analysant les interconnexions entre pays. Les régions n’ont pas toutes la même taille car elles sont le produit d’équilibres différenciés entre ressources objectives (démographie, formation, système productif, niveau d’urbanisation) et ressources subjectives (identification, mémoire, projet). C’est ainsi que pour l’auteur la Corse (300 000 habitants) et l’ensemble du Bassin parisien (22,2 millions d’habitants) sont tous deux légitimes comme région.




VTC contre taxis : la victoire du lobby contre l’innovation ?

par Guillaume Allègre *

NDLR: Ce texte a été publié une première fois le 21 octobre 2013 sur le blog de l’OFCE lorsque la question des services de voiture avec chauffeur faisait l’objet du débat. Etant donné l’actualité récente autour de ce sujet, il nous a semblé pertinent de republier le texte de Guillaume Allègre .

L’affaire est entendue : en imposant aux voitures de tourismes avec chauffeur (VTC) un délai de 15 minutes entre la réservation et la prise en charge du client, le lobby des taxis aurait gagné une bataille contre l’innovation[1], réussissant ainsi à préserver une rente. C’est peut-être Nicolas Colin, inspecteur des finances et co-rédacteur d’un rapport sur la fiscalité de l’économie numérique, qui présente l’argument de la victoire du lobbying contre l’innovation de la façon la plus convaincante et divertissante (Les fossoyeurs de l’innovation).

Pour rappel, depuis quelques années, des start-up (Voitures jaunes, Uber, SnapCar, LeCab…) proposent des services de voitures avec chauffeur, réservables sur smartphone après téléchargement d’une application. Le service rendu semble apprécié par les clients de VTC : le prix est connu à l’avance, la voiture attend sans surcharge, on peut suivre la voiture commandée sur son écran, la course est prépayée. Face à ces nouveaux entrants, les taxis dénoncent une concurrence déloyale. En effet, non seulement la profession est très réglementée[2] mais ils doivent aussi payer une licence (230 000 euros à Paris, 400 000 euros à Nice en 2012) pour avoir le droit de stationner dans la rue et prendre des clients à la volée, seuls avantages qu’ils ont par rapport aux VTC depuis la déréglementation des VTC en 2009[3]. Or, à l’heure où la plupart des clients potentiels de services de taxis sont équipés de smartphone qui permettent la géolocalisation, on peut redouter que la valeur de ce droit supplémentaire (prendre les clients dans la rue qui lèvent le bras, plutôt que de se géolocaliser) s’effondre. Selon les sociétés de taxis, les VTC contournent ainsi l’esprit de la loi en pratiquant la réservation immédiate.

Il n’est pas inutile de rappeler à ce stade que le débat sur la réglementation des taxis ne date ni d’hier ni du rapport Attali pour la libération de la croissance. A Paris, les historiens font remonter les premiers services de « voitures de louage avec cocher » à 1612 (sur cette partie historique, voir « Régulation des taxis, a tale of two cities »). La première régulation date de 1657 lorsque Louis XIV accorde un monopole au Sieur de Givry. A Londres, la première réglementation date de 1635 et répond à la demande des bateliers qui dénonçaient une concurrence déloyale alors qu’ils avaient jusque-là un monopole de fait sur le transport de passagers entre la City et Westminster : le roi impose alors aux carrosses des courses de plus de trois miles (la distance entre la City et Westminster est de 2,3 miles). Depuis le milieu du XVIIème siècle, l’histoire des taxis à Paris et à Londres oscille entre réglementation et dérégulation, monopoles accordés et inventions de nouveaux services pour contourner ces monopoles : en 1664, Piquet de Sautour reçoit le monopole des calèches à un cheval ; en 1665, le Marquis de Crenan celui des « Chaises à la Crenan », véhicules légers à deux roues (Margairaz, cité par Darbéra). Disons qu’Uber et SnapCar ressemblent étrangement à ces chaises à la Crenan et autres calèches à un cheval.

Le meilleur rapport qualité/prix des VTC est-il dû à des gains de productivité liés à l’innovation ou au fait qu’ils n’ont pas à payer des licences de 230 000 euros (à Paris) ? Evidemment, on a toutes les raisons de penser qu’économiser 230 000 euros procure un net avantage économique. En revanche, les arguments en faveur de l’innovation sont assez faibles : les nouvelles technologies permettent la localisation des taxis, mais c’est également le cas des centrales radios, créées à Paris en 1964 par G7 et les compagnies de taxis n’ont pas attendu la concurrence des VTC pour utiliser les techniques de localisation en temps réel (La CNIL a été saisie de la question de la géolocalisation des employés par les sociétés de taxis dès 2004). Certaines compagnies de taxis proposent d’ailleurs le même service de commande d’un taxi en temps réel à l’aide d’une application pour smartphone. Enfin à Paris, les « innovations » dans les services de transports de passager incluent le retour de la propulsion humaine, ce qui relativise également leur caractère réellement innovant. Si les gains de productivité étaient réellement dus à l’innovation, les nouveaux entrants pourraient acheter les licences et remplacer les anciennes sociétés de taxis. Ils ne le feront pas parce que ni eux ni les centrales-radio ne veulent prendre le risque que les licences ne perdent leur valeur. Ils préfèrent que les artisans portent ce risque : il n’y a aujourd’hui que 37% de locataires ou salariés parmi les chauffeurs de taxis parisiens et on peut penser qu’une grande partie des détenteurs de ces licences les ont reçues gratuitement. D’un point de vue politique, cette structure est rationnelle : un gouvernement spoliera moins facilement un artisan-taxi qu’un actionnaire d’une société de taxi, à la fois pour des raisons de justice sociale et de pouvoir de nuisance.

Le discours sur l’innovation et la croissance sert ici de leurre pour masquer un classique conflit entre producteurs, qui veulent défendre leurs revenus, et consommateurs, qui veulent un service de  taxi peu coûteux et disponible rapidement, y compris en heures de pointe. Ce conflit se double d’un non moins classique conflit entre détenteurs d’une licence ayant une valeur de rareté et nouveaux entrants, défenseurs de l’ouverture du marché. Dans ce paysage, l’alliance entre nouveaux entrants et consommateurs, qui ont aussi intérêt à l’ouverture du marché, paraît naturelle. Pour les détenteurs de licence, l’enjeu de ce conflit est d’autant plus important que le prix auquel la licence s’échange est élevé.

Ceci dit, la régulation actuelle pose problème. La limitation du nombre de licences de taxis a pour objectif de soutenir le revenu des taxis indépendants et d’éviter qu’ils travaillent trop d’heures par jour pour atteindre un revenu décent[4]. La régulation peut également se justifier  pour des motifs de qualité minimale et de sécurité. C’est le Front Populaire, suite à la crise économique et à l’afflux de chômeurs dans le secteur, qui a réintroduit le contingentement de licences (le secteur était ouvert depuis 1865). Dans ces conditions, il est particulièrement absurde d’avoir permis que ces licences soient cessibles[5] et d’avoir laissé leur prix augmenter en ne délivrant pas de licences supplémentaires entre 1990 et 2002 (alors que, par exemple, dans le même temps, le nombre de passagers dans les aéroports de Paris a augmenté de 49%[6]). Permettre la cession des licences, c’est transférer l’avantage lié au contingentement des licences de taxis des chauffeurs de taxis aux propriétaires des licences, au détriment des nouveaux acquéreurs. En effet, pour le nouvel entrant dans la profession, l’avantage du contingentement est nul puisqu’il doit payer cet avantage au prix du marché. La régulation actuelle est d’autant plus aberrante que les nouvelles licences sont cédées gratuitement (sur liste d’attente) : si le préfet attribue gratuitement 1 000 nouvelles licences, c’est 230 millions d’euros au prix du marché qui seront transférés aux heureux gagnants.

Si la régulation actuelle est absurde, il serait injuste de spolier ceux qui viennent de dépenser une fortune pour acquérir une licence, par exemple en augmentant massivement le nombre de licences.

Une première solution consiste à racheter en une fois les licences cessibles au prix du marché et à attribuer de nouvelles licences non cessibles. Le coût d’une telle mesure serait colossal : il y a environ 17 500 licences à Paris, ce qui représenterait un coût total de 4 milliards d’euros.

Une autre proposition, avancée notamment par Trannoy, est censée augmenter le nombre de licences sans ruiner les acquéreurs récents. La préfecture attribuerait une licence à chaque détenteur actuel de licence, ce qui doublerait le nombre de licences en circulation ; la valeur des licences serait divisée par deux mais sans léser les propriétaires de licences qui conserveraient une et vendrait la deuxième. En première approximation, le patrimoine des chauffeurs de taxi resterait inchangé. Trannoy envisage même que les détenteurs de licence soient gagnants car le chiffre d’affaires global devrait augmenter. Cette solution a également l’avantage de ne rien coûter aux pouvoirs publics. Bref, elle ne ferait que des heureux et l’intérêt des taxis ne s’opposerait pas à celui des consommateurs. Il y a en fait une erreur de raisonnement dans la proposition de Trannoy : il suppose que la valeur de la licence est proportionnelle au chiffre d’affaires des taxis. A chiffre d’affaires global inchangé, un doublement des licences signifierait une division par deux du prix des licences. Ceci est faux : si on multiplie par dix le nombre de licences, elles ne vaudront plus rien et pas dix fois moins. La valeur de la licence est en fait proportionnelle au profit (qui provient du contingentement des taxis), ce qui fait une grande différence dans un secteur où le coût fixe est élevé et le coût marginal faible (rouler à vide ne coûte pas moins cher que rouler à plein)[7]. Bacache-Beauvallet et al. (2008) estiment par exemple à 35 000 euros le coût fixe de l’activité de taxi (salaire compris) et à 42%, l’augmentation du nombre de licences à Paris qui annulerait la valeur des licences[8]. Cette évaluation n’est pas aberrante : la valeur des licences en 1995, pendant la période de gel des attributions était beaucoup plus faible (60 000 euros[9]).

Que faire ?

Le problème ne se limite pas à la question du nombre de licences : au cours de la journée, il y a inadéquation entre offre et demande du fait d’une demande beaucoup plus importante en heures de pointe qui se conjugue, à Paris, avec un engorgement important, qui réduit la vitesse des taxis ou les bloque aux aéroports. La régulation doit également se préoccuper d’une meilleure adéquation entre offre et demande au cours de la semaine, en modulant encore plus la tarification selon l’heure et en incitant au développement du doublage de licence comme l’explique par exemple ce rapport (pdf).

Concernant les licences, la très forte augmentation de leur valeur traduit probablement une offre trop faible par rapport à la demande. L’objectif serait alors d’augmenter l’offre sans spolier les nouveaux acquéreurs. De plus, il serait préférable de sortir d’un système où l’on doit se préoccuper continuellement de la valeur patrimoniale des licences attribuées gratuitement. Une solution consiste à  racheter les licences actuelles au fil de l’eau, non à leur valeur de marché mais à leur valeur d’acquisition majorée d’intérêts[10]. De nouvelles licences non cessibles seraient attribuées gratuitement. Leur nombre permettrait de maintenir le revenu net des nouveaux acquéreurs[11], en tenant compte d’un prélèvement sur le chiffre d’affaires (taxis plus VTC) qui financerait un fond de rachat des anciennes licences[12]. Ce système permet d’indemniser les acquéreurs récents, sans contribuer à l’enrichissement de ceux qui ont obtenu antérieurement une licence gratuitement ou à un prix très faible. Il permet la transition d’un système de licences cessibles à un système de licences non cessibles dans lequel le nombre de licences en circulation et la répartition du marché entre VTC et taxis dépend de la demande de services et non du pouvoir de nuisance des uns et des autres. Il est complexe mais il permet de détricoter les erreurs du passé de façon la plus équitable.

Il est toutefois peu probable qu’une telle solution soit mise en place. Par rapport au statu quo, elle fait de gros perdants dans l’immédiat : les détenteurs de licence qui espèrent réaliser une plus-value importante, notamment les chauffeurs les plus proches de la retraite. Les nouveaux acquéreurs de licence seraient probablement solidaires en espérant pour eux-mêmes une telle solidarité qui permettrait de maintenir le système actuel. Le risque pour eux est que le nombre de licences augmente au fil de l’eau et/ou que les VTC capturent une part croissante du marché malgré les contraintes qui leur sont imposées. Dans ce cas, la valeur réelle de leur licence pourrait diminuer petit à petit : les acquéreurs récents seraient perdants mais la perte ne serait actée que lorsqu’ils prendront leur retraite, dans 20 ou 30 ans. On peut toutefois penser que cette évolution ne se passera pas sans heurts.  
———–

* L’auteur n’a reçu aucun financement, ni des compagnies de taxis, ni des compagnies de VTC.

[1] L’argument de l’innovation est abondamment repris par les VTC sur le mode « chandelles et ampoules électriques » : voir par exemple « #PourNePasFaireDeConcurrence ».

[2] Le chauffeur de taxi doit notamment être titulaire d’une carte professionnelle, le taximètre est obligatoire et  les tarifs maximaux sont fixés par arrêté préfectoral.

[3] Avant 2009, l’activité de « grande remise », dont la spécialité est la mise à disposition de voitures haut de gamme avec chauffeur, uniquement sur commande et pour une destination définie, était soumise à une licence spéciale délivrée par le préfet, le représentant de l’entreprise devant également être titulaire d’un certificat d’aptitude à la profession d’entrepreneur de remise et de tourisme. La loi du 22 juillet 2009 a supprimé l’obligation de posséder une licence, ce qui a permis le développement des VTC.

[4] Du fait de coûts marginaux faibles et de coûts fixes élevés, le profit est négatif à l’équilibre concurrentiel en l’absence de régulation (« Valeur de licence et régulation du marché des taxis »). En pratique, cela signifie qu’en l’absence de régulation la rémunération des chauffeurs de taxi indépendants risque d’être inférieure au SMIC.

[5] Les licences peuvent officiellement être revendues depuis 1973.

[6] « Propositions de réforme de la profession de taxi » (Page 16)

[7] Prenons l’exemple extrême d’une activité où le coût marginal est nul et le coût fixe représente 2/3 du chiffre d’affaires : disons que le coût fixe est égal à 100 000 euros, le chiffre d’affaires de 150 000 euros, le profit est donc de 50 000 euros. Pour le propriétaire, la valeur de cette activité correspond aux profits futurs actualisés : elle est proportionnelle au profit. Si le chiffre d’affaires est réduit d’un tiers à 100 000 euros, le profit est annulé de même que la valeur de la propriété.

[8] Les auteurs utilisent un modèle théorique calibré. En réalité, le prix réel de la licence ne tomberait pas à zéro, notamment parce que les acteurs sur le marché pourraient anticiper la construction d’une nouvelle rente de rareté.

[9] Darbéra. A Dublin, la valeur de la licence de taxis est passée de 3 500 IEP en 1980 à 90 000 IEP en 2000, période de restriction de l’accès au marché (OCDE).

[10] Cette solution nécessite d’interdire la cession de ces licences sur le marché, ce qui était déjà le cas avant 1973.

[11] Généralement, les locataires et salariés.

[12] La valeur des licences a fortement augmenté dans les années 90 puis entre 2003 et aujourd’hui. Elle valait 60 000 € en 1995 (Darbéra), 90 000 € en 1999, 105 000 € en 2003 et 180 000 € en 2007 (voir annexe 9). Le prix de rachat des licences peut être estimé à 3 milliards d’euros (en tenant compte de l’évolution du prix de la licence de taxi entre 1993 et 2013, d’un taux d’intérêt nominal de 4% et d’un taux de rotation de 5%) : sur une période de 20 ans, il faudrait pouvoir dégager l’équivalent de 150 millions annuels (en euros 2013).




Du débat en économie

par Guillaume Allègre, @g_allegre

A Bernard Maris, qui a alimenté avec son talent et sa tolérance le débat économique.

Vous avez des raisons de ne pas aimer les économistes. C’est ce que nous expliquent Marion Fourcade, Etienne Ollion et Yann Algan dans une excellente étude, The Superiority of Economists, dont les conclusions principales sont reprises dans un billet : « Vous n’aimez pas les économistes ? Vous n’êtes pas les seuls ! ». L’étude concerne surtout les Etats-Unis mais peut aussi s’appliquer à l’Europe. Elle fait un portrait peu flatteur des économistes, notamment de son élite : ils sont dotés d’un fort sentiment de supériorité, isolés des autres sciences sociales, confortés par leur position dominante dans leur impérialisme économique. L’étude montre aussi que la discipline est très hiérarchisée (il existe des départements d’économie « prestigieux » et d’autres moins) et que le contrôle interne est très fort (notamment parce que la vision de ce qui constitue une recherche de qualité est beaucoup plus homogène que dans d’autres disciplines). Cela se répercute sur les publications et le recrutement des économistes : seuls ceux ayant souhaité et/ou ayant été capables de se conforter à ce modèle « élitiste » publieront dans les revues les mieux classées (les fameuses Top field), ce qui les conduira à être recrutés par les départements « prestigieux ».

Ceci ne serait pas très grave si les économistes n’avaient pas vocation à faire des recommandations de politique publique. D’ailleurs la « supériorité » de l’économie s’appuie en grande partie sur le fait que la discipline a développé des outils permettant l’évaluation quantitative des politiques publiques. L’économie est ainsi, en partie, une science de gouvernement, tandis que les autres sciences sociales ont adopté des postures plus critiques des catégories, structures et pouvoirs établis. La conséquence de la hiérarchisation du champ, du contrôle interne et du peu d’appétence pour les postures critiques, est que le débat est désormais pratiquement interdit dans le monde académique en économie (une autre raison pour ne pas aimer les économistes ?). Le graphique ci-dessous montre ainsi que le nombre d’articles en réponse à un autre article publié a très fortement chuté depuis les années 1970 : alors qu’ils représentaient 20% des articles publiés dans les cinq grandes revues académiques, ils n’en représentent plus que 2% aujourd’hui. Le débat et la critique, sans parler des paradigmes hétérodoxes, sont donc quasiment absents des plus grandes revues. Ils sont relégués dans des revues supposées de moindre importance qui ne permettent pas d’être recruté dans les départements les plus prestigieux. Or, il existe également à l’intérieur de la discipline une injonction forte de porter le débat et la critique à ce niveau académique, niveau auquel les critiques font l’objet de référés par les pairs (avec des effets de sélection, de réputation, …). Il faut être fou et demander une autorisation pour publier une critique, or aucun fou ne demande d’autorisation, donc aucune critique n’est publiée. Les anglo-saxons utilisent l’expression Catch-22[1] pour décrire ce type de situation.

G1_Post0801

Si le débat n’a plus lieu dans les revues universitaires, a-t-il lieu autre part ? En France, Le Capital au XXIe siècle de Thomas Piketty semble être l’arbre qui cache la forêt. Le succès planétaire du livre a obligé un certain nombre de personnes à se positionner, mais peut-on parler de véritable débat en France et en Europe ?[2] Avant ce succès, Michel Husson (« Le capital au XXIe siècle. Richesse des données, pauvreté de la théorie ») et Robert Boyer (« Le capital au XXIe siècle. Note de lecture ») ont proposé des critiques intéressantes d’inspiration respectivement marxiste et régulationniste. Toutefois, malgré la qualité de ces critiques, on voit que le débat aujourd’hui ne se situe pas là : si l’impôt mondial ou européen sur le capital proposé par Piketty n’est pas mis en place, ce n’est pas parce que les arguments marxistes et/ou régulationnistes l’auront emporté. C’est plutôt l’argument d’incitation fiscale à la croissance et l’innovation qui est aujourd’hui susceptible de convaincre les pouvoirs publics. Cet argument est entre autre porté par Philippe Aghion. En ce qui concerne la fiscalité de l’épargne et du patrimoine, et malgré la proximité partisane de ces deux économistes français (ils ont tous les deux signés des appels en faveur de Ségolène Royal en 2007 puis de François Hollande en 2012), Aghion et Piketty ainsi que leurs co-auteurs ne sont d’accord sur rien (ce que montre André Masson dans un article de la Revue de l’OFCE à paraître). Piketty propose un impôt fortement progressif sur le patrimoine et un nouvel impôt fusionnant CSG et impôt sur le revenu (IR) qui taxerait les revenus financiers, y compris les plus-values, au même titre que les revenus du travail. Aghion propose exactement l’inverse : il faudrait se reposer davantage sur la TVA, éviter la fusion IR-CSG, « fausse bonne idée », et mettre en place un « système dual capital/travail » avec un « impôt progressif sur les revenus du travail et un impôt forfaitaire sur les revenus du capital productif ». Beau sujet de débat, il n’a pourtant lieu ni dans les revues scientifiques, ni autre part.

En fait, Piketty et Aghion abordent la question de la fiscalité du patrimoine sous des angles opposés : Aghion l’aborde sous l’angle de la croissance tandis que Piketty l’aborde sous l’angle des inégalités. On comprend pourquoi leurs modèles diffèrent : ils n’essayent pas d’expliquer le même phénomène. Piketty essaye d’expliquer l’évolution des inégalités tandis qu’Aghion essaye d’expliquer l’évolution de la croissance. Bien qu’ils travaillent essentiellement sur les mêmes phénomènes, il n’y a pas de confrontation entre des approches qui sont moins opposées qu’orthogonales. Pourtant, du point de vue des décideurs publics, cette confrontation est essentielle : comment choisir autrement entre les préconisations de Piketty et celles d’Aghion ?

_____

Une partie de ce billet a été publiée sur le blog de Libération, L’économe : http://leconome.blogs.liberation.fr/leconome/2014/12/de-la-sup%C3%A9riorit%C3%A9-des-%C3%A9conomistes-dans-le-d%C3%A9bat-public.html

 


[1] L’expression est tirée du roman du même nom de Joseph Heller. Le roman se passe en temps de guerre et pour être exempté de missions, il faut être déclaré fou. Mais pour être déclaré fou, il faut en faire la demande. Or, selon l’article 22 du règlement, ceux qui en font la demande prouvent par là-même qu’ils ne sont pas fous.

[2] Aux Etats-Unis, en revanche, le débat autour du livre a eu lieu. Par exemple, Greg Mankiw (pdf), Auerbach et Hassett (pdf) et David Weil (pdf) ont récemment proposé leur critique.




Le capital-logement ne contribue-t-il vraiment pas aux inégalités ?

par Guillaume Allègre et Xavier Timbeau

Dans une réponse au Capital au XXIe siècle, Odran Bonnet, Pierre-Henri Bono, Guillaume Chapelle et Etienne Wasmer (2014) tentent de montrer que la conclusion du livre en termes d’explosion des inégalités de patrimoine « n’est pas plausible ». Les auteurs pointent une incohérence dans la thèse de Thomas Piketty : le modèle d’accumulation du capital serait implicitement un modèle d’accumulation du capital productif, ce qui serait incohérent avec le choix d’inclure le capital immobilier à sa valeur de marché dans la mesure du capital. Correctement évalué, le ratio capital sur revenu serait resté stable en France, en Grande-Bretagne, aux Etats-Unis et au Canada, ce qui contredirait la thèse de l’ouvrage de Thomas Piketty.

Nous répondons, dans la Note de l’OFCE n°42, 25 juin 2014 (« Welcome to Nouillorc : Le capital-logement ne contribue-t-il vraiment pas aux inégalités? »), que les auteurs minimisent la contribution du logement aux inégalités. En particulier, nous ne pensons pas que l’évolution des prix de l’immobilier ait des « effets de second ordre (effets redistributifs réels) et atténués ». Comme souvent, le désaccord s’explique en partie par une absence de consensus sur ce qui compte vraiment en matière d’inégalités : les inégalités de patrimoine ? De revenus ? De consommation ? Ou encore la dynamique potentiellement divergente de ces inégalités ? Le désaccord s’explique aussi par le type de modèle utilisé. Les auteurs utilisent un modèle dynastique dans lequel les biens immobiliers sont transmis de parents à enfants puis aux petits-enfants. Dans ce modèle, les variations de prix de l’immobilier n’ont pas d’effet réel. Ce modèle n’est pas pertinent pour rendre compte des inégalités engendrées par l’immobilier dans une société où les personnes sont mobiles et ont des projets de vie différents de ceux de leurs parents.

La bulle immobilière risque d’entretenir une dynamique inégalitaire. La propriété dans les métropoles devient en effet de plus en plus un club fermé pour aisés, ce qui partitionne les jeunes entre ceux dotés en capital social, éducatif ou financier, et qui peuvent accéder à la propriété et ceux qui ne peuvent que louer, ou déménager vers des territoires moins dynamiques, avec la conséquence de réduire encore plus leur accès aux différents types de capital. Ne vaudrait-il pas mieux construire suffisamment pour que chacun trouve à se loger à un prix en lien avec les aménités offertes ? Comment penser que la seconde situation n’est pas plus égalitaire que la première ?

Pour en savoir plus : Allègre, G. et X. Timbeau, 2014 : « Welcome to Nouillorc : Le capital-logement ne contribue-t-il vraiment pas aux inégalités ? », Note de l’OFCE, n°42 du 25 juin 2014.




Elections and the (first) derivative of unemployment: the turnaround strategy

By Guillaume Allègre, g_allegre

A ministerial adviser recently explained to me what he thinks is the strategy of the French President on macroeconomic management and unemployment, which could be called a turnaround strategy: “In relation to the presidential elections, the goal is to reduce unemployment in 2016-2017. The way people vote is based on the way unemployment has been changing just in the last year or even the last 6 months. Like for Jospin in 2002.” The belief that for unemployment and the economy in general what counts is the derivative, i.e. the recent evolution and not the actual level, has deep roots in the technocratic-political milieu: “it’s the derivative, stupid!” is the new “it’s the economy, stupid!“ (the maxim of Bill Clinton’s election strategist in 1992).

This belief stems in part from an intuition confirmed by a well-known psychological experiment. Participants in the study were subjected to two painful experiences during which one of their hands is immersed in ice water. One version lasts 60 seconds and the other 90 seconds. In the second experiment, the first 60 seconds are the same as in the first, while the 30 added seconds are a bit less painful (the experimenter pours some warm water into the container). Later, the participants must choose which of the two experiments to repeat: 80% chose the longer one. This seems irrational, because in the longer experiment the total amount of pain is greater. To an objective observer, this is what should count (“the area under the curve, or the integral”). But the participants have a selective memory: they are more strongly influenced by the representative moments of the experience and in particular here by the improvement at the end of the test. Daniel Kahneman, the 2002 Nobel Prize-winner in economics for his work on biases in judgment, which is popularized in a book that can be found here, distinguishes two representative moments during an unpleasant episode: the peak of suffering and the end [1].

Economists, especially in America, have developed econometric models of electoral forecasts to estimate the links between election results and the economy. The popularity of these models varies with their predictive power for the election: in 1992, half of the models predicted an easy re-election for George Bush; in 1996, the re-election of Clinton was reliably predicted; but in 2000, virtually all the models forecast a landslide victory for Al Gore … And the model that had the closest forecast in that election (0.6%) was off by 5 points in the next one. Of course, thanks to the proliferation of predictions, it is always possible to find a model with a good record for the time-being, such as Paul the Octopus (see Wiki).

Despite this motley record, these politico-econometric models have been imported into France. In their generic form, they attempt to explain the percentage of the vote going to a candidate or a party based on economic variables (GDP, unemployment, or levels or changes in income) and political variables (popularity of the President and the Prime Minister). The vast majority of models adopt as an economic variable changes in unemployment over a relatively short horizon, on average one year. The conclusion drawn from these empirical estimates is that French voters seem to have limited memories (Dubois, 2007).

But these studies are faced with a major problem: the low number of observations (nine presidential elections and thirteen legislative elections between 1958 and 2011). “We don’t vote often enough to suit the econometricians,” says Lafay (1995) [2]. In other words, the law of large numbers cannot be applied in this type of configuration. This is compounded by the fact that the number of variables that change in the context of these elections is almost as high as the number of elections (the existence of a government of multiple party “cohabitation”; legislative elections on their own or coupled to the presidential elections; the presence or absence of an incumbent in the presidential election; parliamentary elections held before the deadline; the presence or absence of a leftist candidate in the second round of the presidential elections; the importance of tactical voting when there are three candidates in the second round of legislative elections [triangulaires]; etc.).

There are other technical problems confronting the econometricians. In a comprehensive review of the literature analyzing 71 political-economic studies on voting in France between 1976 and 2006, Dubois describes the way these problems are handled – “if at all” – as “relatively frustrating”. Just as in the United States, the predictions meet with “varied success”. There is also the problem of what econometricians call “endogeneity”: the politico-economic models attempt to explain or predict the outcome of elections using economic variables (unemployment) and the popularity of the executive. However, there is little doubt that the popularity of the executive depends in part on unemployment levels and trends: given this, the lack of significance of changes in the longer-term economic variables may be explained by the fact that their impact is already included in the popularity of the executive. In short, these empirical studies are not sufficient to conclude that in economic terms, voters have short memories.

In the words of Kahneman, a machine for jumping to conclusions is at work: an intuition (the memory of voters is selective) that relies on psychological studies (whose object is distant) and is confirmed by econometric studies (not robust and therefore merely reproducing the researchers’ a priori assumptions). The story told is consistent, and it seems to be supported by facts … Upon reflection, it may seem scary that this kind of rhetorical cocktail is influencing the actions of politicians. This is even more frightening since, from an outside observer’s viewpoint and from the perspective of social welfare and hence the goals of public policy, what matters is obviously the level of unemployment over several years (its integral) and not the way it has changed in the last year (its first derivative)!

Many rules have been implemented at the European level, and now the national level too, to prevent the politicians heading up government from trying to win elections by pursuing policies that, while they may reduce short-term unemployment, also build up long-term deficits. From the Maastricht criteria (government deficit of less than 3% of GDP) to the recent European multiannual financial framework, these rules are justified by the belief that politicians are encouraged to pursue a lax fiscal policy since it does not take into account future generations, who, by construction, don’t vote. But if governments begin to believe that it is short-term economic developments that count, then the incentives are reversed, especially if it is easier to reduce unemployment after having first increased it, which would lead to a trajectory of weak growth and of excessively high unemployment. [3] In this case, the solution cannot come from governance through new binding rules, which in any case have so far proved to be ineffective. It is necessary to rely on the fact that this kind of turnaround strategy can work in electoral terms only if the citizens fail to understand that they are being manipulated. Exposing the manipulation is then more efficient than implementing rules. Duly noted.


[1] Consequently, those who follow this theory today should also deal with unemployment at its peak, and not merely with the way it is changing at the end of their mandate.

[2] Lafay J.-D. 1995, “Note sur l’élection présidentielle de 1995 et les apports de l’analyse économétrique des comportements électoraux”, mimeograph, LAEP, University of Paris 1. Cited by Dubois.

[3] This post – link – emphasizes that it was possible to achieve the same ratio of debt to GDP in 2032 by taking a path that would have reduced unemployment in the euro zone by 3 points in 2013.




Election et dérivée du chômage : la stratégie du retournement

par Guillaume Allègre, g_allegre

Un conseiller ministériel m’a récemment expliqué ce qu’il pense être la stratégie du Président de la République concernant la gestion macroéconomique et le chômage, qu’on pourrait appeler stratégie du retournement : « Par rapport à la présidentielle, l’objectif est de faire baisser le chômage en 2016-2017. Les électeurs ne votent qu’en fonction de l’évolution du chômage dans la dernière année, voire les 6 derniers mois. Comme pour Jospin en 2002 ». La croyance qu’en ce qui concerne le chômage et l’économie en général, c’est la dérivée qui compte, l’évolution récente et non le niveau, est assez ancrée dans le milieu technocratico-politique : « it’s the derivative, stupid ! » est le nouveau « it’s the economy, stupid !» (maxime du stratégiste de campagne de Bill Clinton en 1992).

Cette croyance découle en partie d’une intuition confirmée par une célèbre expérimentation psychologique. Dans cette étude, les participants sont soumis à deux expériences douloureuses durant lesquelles une de leur main est plongée dans de l’eau glacée. L’une dure 60 secondes et l’autre 90 secondes. Dans la deuxième, les premières 60 secondes sont les mêmes tandis que les 30 secondes additionnelles sont un peu moins douloureuses (l’expérimentateur fait couler de l’eau un peu plus chaude dans le récipient). Plus tard, les participants doivent choisir de répéter une de ces deux expériences et 80% choisissent la plus longue. Ceci ne paraît pas rationnel car dans l’expérience la plus longue, la somme des douleurs est plus importante. Pour un observateur objectif c’est bien cette somme qui devrait compter (« l’aire sous la courbe ou l’intégrale »). Mais les participants ont une mémoire sélective : ils sont plus fortement influencés par les moments représentatifs de l’expérience et notamment, ici, par l’amélioration à la fin de l’épisode. Daniel Kahneman, « Prix Nobel » d’économie en 2002 pour ses travaux sur les biais de jugement, dont on trouvera un ouvrage vulgarisé ici, distingue deux moments représentatifs durant un épisode déplaisant : le pic de souffrance et la fin[1].

Des économistes, surtout américains, ont développé des modèles politico-économétriques de prévisions électorales afin d’estimer les liens entre économie et résultats électoraux. La popularité de ces modèles varie au gré des élections, selon leur pouvoir de prédiction : en 1992, la moitié des modèles avait prédit une réélection facile pour George Bush père ; en 1996 la réélection de Clinton était bien prévue ; par contre en 2000 pratiquement tous les modèles prévoyaient une large victoire d’Al Gore… Et le modèle avec la prévision la plus proche à cette élection (0,6 %) s’est trompé de 5 points à l’élection suivante. Evidemment, grâce à la multiplication des prévisions, il est toujours possible de trouver un modèle, tel Paul le Poulpe (voir wiki), ayant une bonne série en cours.

Ce succès très relatif n’a pas empêché l’importation en France des modèles politico-économétriques. La forme générique de ces modèles tente d’expliquer le pourcentage de vote pour un candidat ou parti par des variables économiques (PIB, chômage, revenu en niveau ou en variation) et politiques (popularité du président et du premier ministre). La très grande majorité des modèles utilise comme variable économique le chômage en variation, avec un horizon relativement court, en moyenne d’un an. La conclusion tirée de ces estimations empirique est que la mémoire de l’électeur français apparaît limitée (Dubois, 2007).

Mais ces études sont confrontées à un problème important : le faible nombre d’observations (neuf élections présidentielles et treize élections législatives entre 1958 et 2011). « Pour l’économètre, on ne vote pas assez souvent », observe Lafay (1995)[2]. Autrement dit, la loi des grands nombres ne peut pas s’appliquer dans ce type de configuration. Ceci est aggravé par le fait que le contexte de ces élections change par un nombre de variables pratiquement aussi élevé que le nombre d’élections (présence de cohabitation, élections législatives isolées ou couplées à des présidentielles, présence d’un sortant ou non lors d’une élection présidentielle, élections législatives anticipées, présence ou non d’un candidat de gauche au deuxième tour pour les présidentielles, importance des triangulaires pour les législatives…). D’autres problèmes techniques se posent aux économètres. Dans une revue de littérature fouillée analysant l’ensemble des soixante et onze études politico-économiques concernant le vote en France entre 1976 et 2006, Dubois qualifie le traitement de ces problèmes, « s’il existe », de « relativement frustre ». Tout comme aux Etats-Unis, les modèles connaissent des « fortunes diverses » en termes de prévision. Enfin, notons un problème que les économètres appellent endogénéité : les modèles politico-économiques tentent de prévoir ou expliquer le résultat des élections avec des variables économiques (chômage) et la popularité de l’exécutif. Or, il fait peu de doutes que la popularité de l’exécutif est en partie fonction des variations et du niveau du chômage : dans ce cas, la non-significativité des variations de plus long-terme des variables économiques peut-être expliquée par le fait que leur impact est déjà inclus dans la popularité de l’exécutif. Bref, ces études empiriques ne sont donc pas du tout suffisantes pour conclure qu’en termes économiques, la mémoire de l’électeur est limitée.

Pour reprendre les termes de Kahneman, la machine à tirer des conclusions hâtives est en marche : une intuition (la mémoire des électeurs est sélective) s’appuyant sur des études psychologiques (dont l’objet est très éloigné) et confirmée par des études économétriques (non robustes et qui ne font donc que reproduire les a priori des chercheurs). L’histoire racontée est cohérente et il semble qu’elle soit corroborée par les faits… A y réfléchir, il peut paraître effrayant que des responsables politiques puissent agir sous l’influence de ce cocktail rhétorique. Ceci est d’autant plus effrayant que pour un observateur extérieur, du point de vue du bien-être collectif et donc des objectifs de politiques publiques, c’est évidemment le niveau du chômage sur plusieurs années (son intégrale) et non son évolution au cours de la dernière année (sa dérivée) qui compte !

Au niveau européen, et maintenant national, de nombreuses règles ont été mises en place pour éviter que les hommes politiques à la tête des gouvernements essaient de gagner les élections en menant des politiques qui, certes, réduisent le chômage à court terme mais qui creusent les déficits à long terme. Des critères de Maastricht (déficit public inférieur à 3% du PIB) au récent cadre financier pluriannuel européen, les règles se justifient par la croyance que le personnel politique est par construction incité à mener une politique budgétaire trop laxiste car ne prenant pas en compte les générations futures, qui, par construction, ne votent pas. Or, si les gouvernants commencent à croire que ce sont les évolutions économiques à court-terme qui comptent, alors les incitations sont inversées, surtout s’il est plus facile de réduire le chômage après l’avoir fait augmenter, ce qui mènerait à un sentier de croissance trop faible et un sentier de chômage trop élevé[3]. Dans ce cas, la solution ne pourrait venir d’une gouvernance par de nouvelles règles contraignantes, qui ont de toute façon jusqu’ici prouvé leur inefficacité. Il faut s’appuyer sur le fait que la stratégie du retournement ne peut fonctionner en termes électoraux que si les citoyens ne comprennent pas qu’on essaye de les manipuler. Dévoiler la manipulation est alors plus efficace que la mise en place de règles. Dont acte.

 


[1] Par conséquent, ceux qui suivent cette théorie aujourd’hui devraient également s’occuper du pic de chômage et non seulement de son évolution en fin de mandat.

[2] Lafay J.-D. 1995, « Note sur l’élection présidentielle de 1995 et les apports de l’analyse économétrique des comportements électoraux », miméo, LAEP, Université de Paris 1. Cité par Dubois.

[3] Ce billet –lien– souligne qu’il était possible d’arriver au même ratio de dette sur PIB en 2032 en passant par un chemin qui aurait réduit le chômage en zone euro de 3 points en 2013.




La critique du capital au XXIe siècle : à la recherche des fondements macroéconomiques des inégalités

par Guillaume Allègre et Xavier Timbeau

Dans son ouvrage Le capital au XXIe siècle, Thomas Piketty propose une analyse critique de la dynamique de l’accumulation du capital. Le livre est au niveau, très élevé, de son ambition : il traite d’un sujet essentiel, il s’appuie sur un très gros travail statistique qui apporte un éclairage nouveau sur la dynamique de la répartition, et avance des propositions de politiques publiques. Thomas Piketty combine ainsi l’approche des grands auteurs classiques (Smith, Ricardo, Marx, Walras) avec un travail empirique impressionnant qui n’était pas accessible à ses prédécesseurs illustres.

Thomas Piketty montre les mécanismes poussant à la convergence ou à la divergence dans la répartition des richesses et insiste sur une force de divergence qui est généralement sous-estimée : si le rendement du capital (r) est plus élevé que la croissance économique (g), ce qui a pratiquement toujours été le cas dans l’histoire, alors il est presque inévitable que les patrimoines hérités dominent les patrimoines constitués et que la concentration du capital atteigne des niveaux extrêmement élevés : « L’entrepreneur tend inévitablement à se transformer en rentier, et à dominer de plus en plus fortement ceux qui ne possèdent que leur travail. Une fois constitué, le capital se reproduit tout seul, plus vite que ne s’accroît la production. Le passé dévore l’avenir ».

Le livre cherche ainsi des fondements macroéconomiques (r>g) aux inégalités alors que les explications habituelles sont d’ordre micro-économique. Dans un Document de travail de l’OFCE n°2014-06, nous soulignons que cette macro-fondation des inégalités n’est pas convaincante et que l’on peut interpréter les faits décrits selon une causalité différente où les inégalités découlent du fonctionnement (imparfait) des marchés, des rentes de rareté et de l’établissement des droits de propriété. Ce n’est pas r>g  qui a transformé les entrepreneurs en rentiers, mais la mise en place de mécanismes permettant l’extraction d’une rente perpétuelle qui explique la constance historique r>g.

Cette interprétation différente des mêmes phénomènes a des conséquences en termes de politique publique. L’imposition ex post du capital, si nécessaire, ne peut être qu’un choix de second rang : il faut d’abord lever les contraintes de rareté et se préoccuper de la définition des droits de propriété ainsi que des droits des propriétaires et des non-propriétaires. Les propriétaires immobiliers sont-ils libres de fixer un loyer à leur convenance ? Peuvent-ils limiter la construction autour de leur propriété ? Dans quelle mesure les travailleurs sont-ils protégés par le droit du travail ? Dans quelle mesure peuvent-ils peser sur les décisions managériales à l’intérieur des entreprises ? Ce sont, il nous semble, les réponses apportées à ces questions qui déterminent le rapport entre croissance économique et rendement du capital, ainsi que le poids du capital dans l’économie. L’objectif est d’éviter que les détenteurs de capitaux exploitent un rapport de force en leur faveur. En cela, bien qu’il ait changé de support, le capital au XXIe siècle pourrait ressembler à celui de la fin du XIXe siècle. Contre cela il faudra plus qu’un impôt sur le capital.

Pour en savoir plus : « La critique du capital au XXIe siècle : à la recherche des fondements macroéconomiques des inégalités », Document de travail de l’OFCE, n°2014-06.