C’est quoi une économie de gauche ? (Ou pourquoi les économistes sont en désaccord)

Par Guillaume Allègre

C’est quoi une économie de gauche ? Dans une tribune publiée dans Libération le 9 Juin 2015 (« la concurrence peut servir la gauche », Jean Tirole et Etienne Wasmer répondent qu’être progressiste c’est « partager un socle de valeurs et d’objectifs redistributifs ». Or, comme le soulignent très justement Brigitte Dormont, Marc Fleurbaey et Alain Trannoy (« Non, le marché n’est pas l’ennemi de la gauche », Libération du 11 Juin 2015), réduire le progressisme à la redistribution des revenus est un peu court. Une politique économique de gauche doit aussi se préoccuper de cohésion sociale, de participation à la vie en société, d’égalisation de tous les pouvoirs, objectifs auxquels on peut ajouter la défense de l’environnement et, plus généralement, le juste héritage légué aux générations à venir. Paradoxalement, si la gauche ne doit pas a priori rejeter des solutions de marché (notamment la mise en place d’un marché carbone), la dé-marchandisation des relations fait également partie du socle des valeurs de gauche. Les auteurs de ces deux tribunes insistent sur le fait que ce sont les fins qui comptent et non les moyens : le marché et la concurrence peuvent servir des objectifs progressistes. Ceci n’est pas une idée neuve. Les marchands du XVIIIe siècle avaient déjà compris que la détention d’un monopole privé pouvait leur permettre d’amasser des grandes fortunes. Tirole et Wasmer utilisent des débats plus récents, et notamment la question des taxis, du logement, du Smic, de la régulation du marché du travail et des frais d’inscription à l’université. Leur conclusion, un brin pro domo est premièrement qu’il faut davantage d’évaluations indépendantes et deuxièmement qu’il faut former les élus et les hauts fonctionnaires à l’économie.

La gauche se définit-elle par les valeurs ? Pour accepter une telle proposition, il faut que l’on puisse bien distinguer les faits des valeurs. La science économique se préoccuperait des faits au sens large et déléguerait la question des valeurs au politique. Les désaccords sur les faits seraient exagérés. La différence entre politiques de gauche et politiques de droite ne serait qu’une question de curseur, de valeurs ou de préférences, qui seraient indépendantes des faits. Selon une telle vision, les instruments doivent être conçus par des techniciens bien formés tandis que les politiques se contenteraient de choisir les paramètres. La gauche et la droite seraient alors définies par les paramètres, les progressistes mettant plus de poids dans la réduction des inégalités, tandis que les conservateurs s’occupent relativement plus de la taille du gâteau. Dans un tel schéma, les désaccords entre économistes portent essentiellement sur les valeurs. Paradoxalement, les exemples utilisés par Tirole et Wasmer font l’objet de controverses importantes, ne portant pas seulement sur les valeurs : les économistes sont très divisés sur la libéralisation des taxis, le niveau du Smic, et l’éventuelle mise en place de frais d’inscriptions à l’université. Le désaccord est important, même parmi les économistes progressistes.

Pourquoi ces désaccords ? Les désaccords sur les faits au sens strict sont de moins en moins nombreux. L’appareil statistique a fait des progrès considérables. Il reste toutefois des poches de résistance. Par exemple, concernant les taxis, il est difficile de savoir qui détient les licences et à quel prix elles ont été acquises. Or cette question est très importante. Si la grande majorité des licences sont détenues par des personnes les ayant reçues gratuitement, l’augmentation de l’offre, via les VTC ne pose pas de problème d’équité. Par contre, si la majorité des licences ont été acquises sur le marché secondaire à des prix exorbitants (pouvant atteindre 240 000 euros à Paris), alors la question de l’indemnisation se pose. Racheter 17 000 licences à 200 000 euros coûterait 3,5 milliards d’euros à l’Etat, rien que pour les licences parisiennes. On ne peut balayer ce problème d’un simple « Certes souvent chèrement acquise » (voir : « Taxis vs VTC : la victoire du lobby  contre l’innovation »).

Si les désaccords sur les faits sont rares, le désaccord porte souvent sur ce qui compte. Doit-on plutôt mettre l’accent sur les inégalités de résultats ou sur l’inégalité des chances ? Doit-on comptabiliser les plus-values immobilières lorsque l’on examine les inégalités de capital ? Doit-on se préoccuper de pauvreté relative ou de pauvreté absolue ? Doit-on se préoccuper d’inégalités entre foyers ou entre individus ? On voit par-là que le désaccord n’est pas qu’une question de curseur mais de hiérarchisation des objectifs, qui sont parfois complémentaires et parfois contradictoires. La construction même de l’appareil statistique ne sert pas à produire un fait pur mais résulte bien d’une logique selon laquelle ce qu’on mesure est la représentation d’une norme.  Mais cette norme est de fait réductrice (elle en exclut d’autres) si bien que la mesure n’a de sens qu’à partir du moment où l’on est d’accord sur la valeur de la norme : la mesure n’est jamais neutre vis-à-vis des valeurs.

La vision d’une science économique pouvant distinguer faits et valeurs est donc trop réductrice et il est souvent difficile de distinguer faits et valeurs. Par exemple, selon que l’on mesure l’impact d’une politique fiscale sur les individus ou sur les foyers, elle pourra être qualifiée de redistributive ou d’anti-redistributive. Il n’y a souvent pas de solution aisée pour résoudre ce problème car il est difficile pour le statisticien de savoir comment les revenus sont réellement partagés au sein des ménages. La solution actuelle pour mesurer le niveau de vie et la pauvreté est de faire l’hypothèse d’un partage intégral des ressources au sein du foyer, quelle que soit l’origine des revenus (revenus du travail de l’un ou l’autre des membres, aides sociales, fiscalité, …). Or de nombreuses études montrent que cette hypothèse est fausse pour une grande partie des foyers : les études empiriques montrent ainsi que les dépenses dépendent de qui apporte les ressources, les femmes dépensant une plus grande partie de leurs revenus pour les enfants.

La gratuité du système d’enseignement supérieur est-elle anti-redistributive ? Pour l’opinion commune, c’est une évidence : les étudiants viennent de familles plus aisées et recevront des salaires plus importants que ceux qui n’ont pas fait d’études ; alors que tout le monde paie de l’impôt, notamment la TVA et la CSG. Cette démonstration est vraie si l’on raisonne à un instant t. Par contre, sur le cycle de vie, la question est plus compliquée : de nombreux étudiants n’obtiennent pas d’emplois très rémunérateurs. Les professeurs des écoles, les artistes, les journalistes ont souvent fait de longues études mais perçoivent des rémunérations inférieures à la moyenne. Pour eux, l’imposition sur le revenu est bien plus favorable que de devoir rembourser des frais d’inscription.  A l’inverse, de nombreuses  personnes, qui ont fait peu d’études, reçoivent des rémunérations élevées. Sur le cycle de vie, faire payer l’enseignement supérieur par l’impôt sur le revenu est donc redistributif (voir « Dépenses publiques d’éducation et inégalités. Une perspective de cycle de vie »).

Doit-on mesurer les revenus au niveau du foyer ou des individus ? Sur le cycle de vie ou à un instant donné ? Ces exemples montrent que ce qui est mesuré par les économistes dépend le plus souvent d’une norme. Toutefois, cela ne veut pas dire que la mesure est totalement arbitraire ou idéologique. En fait, la mesure en sciences sociales n’est ni entièrement normative, ni simplement descriptive : faits et normes sont entremêlés.

Les économistes ne raisonnent pas que sur des faits bruts. Ils construisent et estiment des modèles comportementaux. Par-là, ils cherchent à répondre à la question « Et si… ? » : Et si on augmentait le Smic, quel serait l’impact sur l’emploi et les salaires du bas de l’échelle ? On peut ranger la réponse à ces questions dans les faits. Mais contrairement aux faits au sens strict, ils ne sont pas directement observables. Ils sont le plus souvent estimés dans des modèles. Or, les désaccords sur ces « faits » (les paramètres estimés des modèles) sont très importants. Pire, les économistes ont tendance à grandement sous-estimer l’absence de consensus.

Les paramètres estimés par les économistes n’ont de sens qu’au sein d’un modèle donné. Or, le désaccord entre économistes ne porte pas seulement sur les paramètres estimés mais sur les modèles eux-mêmes, c’est-à-dire sur le choix d’hypothèses simplificatrices. De même qu’une carte est une simplification du territoire qu’elle représente, les modèles sont une simplification des règles comportementales que suivent les individus. Choisir ce que l’on simplifie n’est pas sans implication normative La meilleure carte dépend du degré d’exactitude mais aussi du type de voyage que l’on veut effectuer : encore une fois, faits et valeurs sont mêlés. Les différences entre offres politiques ne sont pas seulement paramétriques, elles découlent de représentations différentes de la société.

Ainsi, contrairement à la conclusion de Tirole et Wasmer, l’évaluation en économie ne peut pas être la simple affaire d’experts objectifs. A cet égard, les économistes ressemblent moins à des médecins qu’aux autres chercheurs en sciences sociales : en effet, l’accord sur ce qui constitue une bonne santé est plus facile que sur ce qui constitue une bonne société. Les évaluations économiques doivent ainsi être pluralistes, de façon à refléter du mieux possible la diversité des points de vue dans la société. Ce qui nous sépare de la mise en place des réformes nécessaires, ce n’est pas un déficit de pédagogie de la part des experts et du personnel politique. Ce n’est pas non plus seulement un problème de formation des élites. Il n’y a manifestement pas d’accord entre les experts sur les réformes à mener. Or, les réformes économiques sont souvent trop techniques pour les soumettre à référendum et trop normatives pour les laisser aux « experts ». Pour résoudre ce problème, les conférences de consensus ou jurys citoyens semblent pertinents lorsque le sujet est suffisamment normatif pour que l’on se soucie de la représentativité des participants, et suffisamment technique pour que l’on cherche un avis éclairé. En économie, la question de l’individualisation de l’impôt sur le revenu, ou celle de la compensation d’une taxe carbone pourraient faire l’objet d’une telle conférence. En somme, les économistes sont plus utiles lorsqu’ils explicitent les arbitrages que lorsqu’ils cherchent un consensus de façade.




VTC contre taxis : la victoire du lobby contre l’innovation ?

par Guillaume Allègre *

NDLR: Ce texte a été publié une première fois le 21 octobre 2013 sur le blog de l’OFCE lorsque la question des services de voiture avec chauffeur faisait l’objet du débat. Etant donné l’actualité récente autour de ce sujet, il nous a semblé pertinent de republier le texte de Guillaume Allègre .

L’affaire est entendue : en imposant aux voitures de tourismes avec chauffeur (VTC) un délai de 15 minutes entre la réservation et la prise en charge du client, le lobby des taxis aurait gagné une bataille contre l’innovation[1], réussissant ainsi à préserver une rente. C’est peut-être Nicolas Colin, inspecteur des finances et co-rédacteur d’un rapport sur la fiscalité de l’économie numérique, qui présente l’argument de la victoire du lobbying contre l’innovation de la façon la plus convaincante et divertissante (Les fossoyeurs de l’innovation).

Pour rappel, depuis quelques années, des start-up (Voitures jaunes, Uber, SnapCar, LeCab…) proposent des services de voitures avec chauffeur, réservables sur smartphone après téléchargement d’une application. Le service rendu semble apprécié par les clients de VTC : le prix est connu à l’avance, la voiture attend sans surcharge, on peut suivre la voiture commandée sur son écran, la course est prépayée. Face à ces nouveaux entrants, les taxis dénoncent une concurrence déloyale. En effet, non seulement la profession est très réglementée[2] mais ils doivent aussi payer une licence (230 000 euros à Paris, 400 000 euros à Nice en 2012) pour avoir le droit de stationner dans la rue et prendre des clients à la volée, seuls avantages qu’ils ont par rapport aux VTC depuis la déréglementation des VTC en 2009[3]. Or, à l’heure où la plupart des clients potentiels de services de taxis sont équipés de smartphone qui permettent la géolocalisation, on peut redouter que la valeur de ce droit supplémentaire (prendre les clients dans la rue qui lèvent le bras, plutôt que de se géolocaliser) s’effondre. Selon les sociétés de taxis, les VTC contournent ainsi l’esprit de la loi en pratiquant la réservation immédiate.

Il n’est pas inutile de rappeler à ce stade que le débat sur la réglementation des taxis ne date ni d’hier ni du rapport Attali pour la libération de la croissance. A Paris, les historiens font remonter les premiers services de « voitures de louage avec cocher » à 1612 (sur cette partie historique, voir « Régulation des taxis, a tale of two cities »). La première régulation date de 1657 lorsque Louis XIV accorde un monopole au Sieur de Givry. A Londres, la première réglementation date de 1635 et répond à la demande des bateliers qui dénonçaient une concurrence déloyale alors qu’ils avaient jusque-là un monopole de fait sur le transport de passagers entre la City et Westminster : le roi impose alors aux carrosses des courses de plus de trois miles (la distance entre la City et Westminster est de 2,3 miles). Depuis le milieu du XVIIème siècle, l’histoire des taxis à Paris et à Londres oscille entre réglementation et dérégulation, monopoles accordés et inventions de nouveaux services pour contourner ces monopoles : en 1664, Piquet de Sautour reçoit le monopole des calèches à un cheval ; en 1665, le Marquis de Crenan celui des « Chaises à la Crenan », véhicules légers à deux roues (Margairaz, cité par Darbéra). Disons qu’Uber et SnapCar ressemblent étrangement à ces chaises à la Crenan et autres calèches à un cheval.

Le meilleur rapport qualité/prix des VTC est-il dû à des gains de productivité liés à l’innovation ou au fait qu’ils n’ont pas à payer des licences de 230 000 euros (à Paris) ? Evidemment, on a toutes les raisons de penser qu’économiser 230 000 euros procure un net avantage économique. En revanche, les arguments en faveur de l’innovation sont assez faibles : les nouvelles technologies permettent la localisation des taxis, mais c’est également le cas des centrales radios, créées à Paris en 1964 par G7 et les compagnies de taxis n’ont pas attendu la concurrence des VTC pour utiliser les techniques de localisation en temps réel (La CNIL a été saisie de la question de la géolocalisation des employés par les sociétés de taxis dès 2004). Certaines compagnies de taxis proposent d’ailleurs le même service de commande d’un taxi en temps réel à l’aide d’une application pour smartphone. Enfin à Paris, les « innovations » dans les services de transports de passager incluent le retour de la propulsion humaine, ce qui relativise également leur caractère réellement innovant. Si les gains de productivité étaient réellement dus à l’innovation, les nouveaux entrants pourraient acheter les licences et remplacer les anciennes sociétés de taxis. Ils ne le feront pas parce que ni eux ni les centrales-radio ne veulent prendre le risque que les licences ne perdent leur valeur. Ils préfèrent que les artisans portent ce risque : il n’y a aujourd’hui que 37% de locataires ou salariés parmi les chauffeurs de taxis parisiens et on peut penser qu’une grande partie des détenteurs de ces licences les ont reçues gratuitement. D’un point de vue politique, cette structure est rationnelle : un gouvernement spoliera moins facilement un artisan-taxi qu’un actionnaire d’une société de taxi, à la fois pour des raisons de justice sociale et de pouvoir de nuisance.

Le discours sur l’innovation et la croissance sert ici de leurre pour masquer un classique conflit entre producteurs, qui veulent défendre leurs revenus, et consommateurs, qui veulent un service de  taxi peu coûteux et disponible rapidement, y compris en heures de pointe. Ce conflit se double d’un non moins classique conflit entre détenteurs d’une licence ayant une valeur de rareté et nouveaux entrants, défenseurs de l’ouverture du marché. Dans ce paysage, l’alliance entre nouveaux entrants et consommateurs, qui ont aussi intérêt à l’ouverture du marché, paraît naturelle. Pour les détenteurs de licence, l’enjeu de ce conflit est d’autant plus important que le prix auquel la licence s’échange est élevé.

Ceci dit, la régulation actuelle pose problème. La limitation du nombre de licences de taxis a pour objectif de soutenir le revenu des taxis indépendants et d’éviter qu’ils travaillent trop d’heures par jour pour atteindre un revenu décent[4]. La régulation peut également se justifier  pour des motifs de qualité minimale et de sécurité. C’est le Front Populaire, suite à la crise économique et à l’afflux de chômeurs dans le secteur, qui a réintroduit le contingentement de licences (le secteur était ouvert depuis 1865). Dans ces conditions, il est particulièrement absurde d’avoir permis que ces licences soient cessibles[5] et d’avoir laissé leur prix augmenter en ne délivrant pas de licences supplémentaires entre 1990 et 2002 (alors que, par exemple, dans le même temps, le nombre de passagers dans les aéroports de Paris a augmenté de 49%[6]). Permettre la cession des licences, c’est transférer l’avantage lié au contingentement des licences de taxis des chauffeurs de taxis aux propriétaires des licences, au détriment des nouveaux acquéreurs. En effet, pour le nouvel entrant dans la profession, l’avantage du contingentement est nul puisqu’il doit payer cet avantage au prix du marché. La régulation actuelle est d’autant plus aberrante que les nouvelles licences sont cédées gratuitement (sur liste d’attente) : si le préfet attribue gratuitement 1 000 nouvelles licences, c’est 230 millions d’euros au prix du marché qui seront transférés aux heureux gagnants.

Si la régulation actuelle est absurde, il serait injuste de spolier ceux qui viennent de dépenser une fortune pour acquérir une licence, par exemple en augmentant massivement le nombre de licences.

Une première solution consiste à racheter en une fois les licences cessibles au prix du marché et à attribuer de nouvelles licences non cessibles. Le coût d’une telle mesure serait colossal : il y a environ 17 500 licences à Paris, ce qui représenterait un coût total de 4 milliards d’euros.

Une autre proposition, avancée notamment par Trannoy, est censée augmenter le nombre de licences sans ruiner les acquéreurs récents. La préfecture attribuerait une licence à chaque détenteur actuel de licence, ce qui doublerait le nombre de licences en circulation ; la valeur des licences serait divisée par deux mais sans léser les propriétaires de licences qui conserveraient une et vendrait la deuxième. En première approximation, le patrimoine des chauffeurs de taxi resterait inchangé. Trannoy envisage même que les détenteurs de licence soient gagnants car le chiffre d’affaires global devrait augmenter. Cette solution a également l’avantage de ne rien coûter aux pouvoirs publics. Bref, elle ne ferait que des heureux et l’intérêt des taxis ne s’opposerait pas à celui des consommateurs. Il y a en fait une erreur de raisonnement dans la proposition de Trannoy : il suppose que la valeur de la licence est proportionnelle au chiffre d’affaires des taxis. A chiffre d’affaires global inchangé, un doublement des licences signifierait une division par deux du prix des licences. Ceci est faux : si on multiplie par dix le nombre de licences, elles ne vaudront plus rien et pas dix fois moins. La valeur de la licence est en fait proportionnelle au profit (qui provient du contingentement des taxis), ce qui fait une grande différence dans un secteur où le coût fixe est élevé et le coût marginal faible (rouler à vide ne coûte pas moins cher que rouler à plein)[7]. Bacache-Beauvallet et al. (2008) estiment par exemple à 35 000 euros le coût fixe de l’activité de taxi (salaire compris) et à 42%, l’augmentation du nombre de licences à Paris qui annulerait la valeur des licences[8]. Cette évaluation n’est pas aberrante : la valeur des licences en 1995, pendant la période de gel des attributions était beaucoup plus faible (60 000 euros[9]).

Que faire ?

Le problème ne se limite pas à la question du nombre de licences : au cours de la journée, il y a inadéquation entre offre et demande du fait d’une demande beaucoup plus importante en heures de pointe qui se conjugue, à Paris, avec un engorgement important, qui réduit la vitesse des taxis ou les bloque aux aéroports. La régulation doit également se préoccuper d’une meilleure adéquation entre offre et demande au cours de la semaine, en modulant encore plus la tarification selon l’heure et en incitant au développement du doublage de licence comme l’explique par exemple ce rapport (pdf).

Concernant les licences, la très forte augmentation de leur valeur traduit probablement une offre trop faible par rapport à la demande. L’objectif serait alors d’augmenter l’offre sans spolier les nouveaux acquéreurs. De plus, il serait préférable de sortir d’un système où l’on doit se préoccuper continuellement de la valeur patrimoniale des licences attribuées gratuitement. Une solution consiste à  racheter les licences actuelles au fil de l’eau, non à leur valeur de marché mais à leur valeur d’acquisition majorée d’intérêts[10]. De nouvelles licences non cessibles seraient attribuées gratuitement. Leur nombre permettrait de maintenir le revenu net des nouveaux acquéreurs[11], en tenant compte d’un prélèvement sur le chiffre d’affaires (taxis plus VTC) qui financerait un fond de rachat des anciennes licences[12]. Ce système permet d’indemniser les acquéreurs récents, sans contribuer à l’enrichissement de ceux qui ont obtenu antérieurement une licence gratuitement ou à un prix très faible. Il permet la transition d’un système de licences cessibles à un système de licences non cessibles dans lequel le nombre de licences en circulation et la répartition du marché entre VTC et taxis dépend de la demande de services et non du pouvoir de nuisance des uns et des autres. Il est complexe mais il permet de détricoter les erreurs du passé de façon la plus équitable.

Il est toutefois peu probable qu’une telle solution soit mise en place. Par rapport au statu quo, elle fait de gros perdants dans l’immédiat : les détenteurs de licence qui espèrent réaliser une plus-value importante, notamment les chauffeurs les plus proches de la retraite. Les nouveaux acquéreurs de licence seraient probablement solidaires en espérant pour eux-mêmes une telle solidarité qui permettrait de maintenir le système actuel. Le risque pour eux est que le nombre de licences augmente au fil de l’eau et/ou que les VTC capturent une part croissante du marché malgré les contraintes qui leur sont imposées. Dans ce cas, la valeur réelle de leur licence pourrait diminuer petit à petit : les acquéreurs récents seraient perdants mais la perte ne serait actée que lorsqu’ils prendront leur retraite, dans 20 ou 30 ans. On peut toutefois penser que cette évolution ne se passera pas sans heurts.  
———–

* L’auteur n’a reçu aucun financement, ni des compagnies de taxis, ni des compagnies de VTC.

[1] L’argument de l’innovation est abondamment repris par les VTC sur le mode « chandelles et ampoules électriques » : voir par exemple « #PourNePasFaireDeConcurrence ».

[2] Le chauffeur de taxi doit notamment être titulaire d’une carte professionnelle, le taximètre est obligatoire et  les tarifs maximaux sont fixés par arrêté préfectoral.

[3] Avant 2009, l’activité de « grande remise », dont la spécialité est la mise à disposition de voitures haut de gamme avec chauffeur, uniquement sur commande et pour une destination définie, était soumise à une licence spéciale délivrée par le préfet, le représentant de l’entreprise devant également être titulaire d’un certificat d’aptitude à la profession d’entrepreneur de remise et de tourisme. La loi du 22 juillet 2009 a supprimé l’obligation de posséder une licence, ce qui a permis le développement des VTC.

[4] Du fait de coûts marginaux faibles et de coûts fixes élevés, le profit est négatif à l’équilibre concurrentiel en l’absence de régulation (« Valeur de licence et régulation du marché des taxis »). En pratique, cela signifie qu’en l’absence de régulation la rémunération des chauffeurs de taxi indépendants risque d’être inférieure au SMIC.

[5] Les licences peuvent officiellement être revendues depuis 1973.

[6] « Propositions de réforme de la profession de taxi » (Page 16)

[7] Prenons l’exemple extrême d’une activité où le coût marginal est nul et le coût fixe représente 2/3 du chiffre d’affaires : disons que le coût fixe est égal à 100 000 euros, le chiffre d’affaires de 150 000 euros, le profit est donc de 50 000 euros. Pour le propriétaire, la valeur de cette activité correspond aux profits futurs actualisés : elle est proportionnelle au profit. Si le chiffre d’affaires est réduit d’un tiers à 100 000 euros, le profit est annulé de même que la valeur de la propriété.

[8] Les auteurs utilisent un modèle théorique calibré. En réalité, le prix réel de la licence ne tomberait pas à zéro, notamment parce que les acteurs sur le marché pourraient anticiper la construction d’une nouvelle rente de rareté.

[9] Darbéra. A Dublin, la valeur de la licence de taxis est passée de 3 500 IEP en 1980 à 90 000 IEP en 2000, période de restriction de l’accès au marché (OCDE).

[10] Cette solution nécessite d’interdire la cession de ces licences sur le marché, ce qui était déjà le cas avant 1973.

[11] Généralement, les locataires et salariés.

[12] La valeur des licences a fortement augmenté dans les années 90 puis entre 2003 et aujourd’hui. Elle valait 60 000 € en 1995 (Darbéra), 90 000 € en 1999, 105 000 € en 2003 et 180 000 € en 2007 (voir annexe 9). Le prix de rachat des licences peut être estimé à 3 milliards d’euros (en tenant compte de l’évolution du prix de la licence de taxi entre 1993 et 2013, d’un taux d’intérêt nominal de 4% et d’un taux de rotation de 5%) : sur une période de 20 ans, il faudrait pouvoir dégager l’équivalent de 150 millions annuels (en euros 2013).




Pas encore de « cessation » de la hausse du chômage

Département Analyse et Prévisions (DAP)

Les chiffres du chômage du mois de mai 2015 font à nouveau apparaître une hausse de 16 200 personnes inscrites en catégorie A, hausse certes moindre qu’en avril (+26 200), mais qui ne laisse toujours pas entrevoir à l’horizon l’inversion de la courbe du chômage. Cette hausse ininterrompue du chômage, dans un contexte de reprise naissante, ne surprend guère. Le regain de croissance du PIB au premier trimestre (+0,6  % selon les comptes détaillés publiés par l’INSEE ce matin)  n’a pas encore produit ses effets sur l’emploi qui, lui, a stagné. Pour l’heure, les entreprises profitent du surcroît d’activité pour résorber les sureffectifs hérités de la crise. Ce n’est qu’une fois la reprise inscrite dans la durée que l’augmentation de l’emploi pourra se traduire en baisse du chômage. Les délais d’ajustement de l’emploi à l’activité, de l’ordre de trois trimestres, n’augurent pas de retournement du marché du travail à brève échéance.

Le dernier épisode de croissance en France avait d’ailleurs été trop bref pour imprimer un repli du nombre de demandeurs d’emploi après la récession de 2008-2009. Avec une croissance moyenne de 0,7 % par trimestre entre le quatrième trimestre 2009 et le premier trimestre 2011, le nombre de chômeurs s’était tout au plus stabilisé (graphique 1).

Depuis le deuxième trimestre 2011, la croissance est retombée à un niveau très faible (+0,1 % en moyenne par trimestre) et le chômage est reparti à la hausse. Une inflexion est toutefois apparue au début de 2013, avec une progression mensuelle divisée par deux en moyenne grâce à la reprise du traitement social du chômage, par le biais de la création d’environ 100 000 emplois aidés dans les secteurs non-marchands, et par l’enrichissement de la croissance en emploi dû à la montée en charge du CICE et du Pacte de responsabilité.

Graphe1_post24-06-copie

Avec l’accélération progressive de la croissance et la montée en charge des différentes mesures en faveur de l’emploi, une (lente) amélioration est à entrevoir au cours du second semestre 2015.

La spectaculaire baisse des sorties de Pôle Emploi

L’augmentation de +69 600 des inscrits à Pôle Emploi en catégorie A, B et C sur le seul mois de mai, soit le plus mauvais chiffre enregistré depuis le mois d’avril 2009 au plus fort de la récession, a de quoi surprendre. Le nombre de ces chômeurs au sens large, comprenant les personnes sans emploi mais aussi celles en activité réduite, a été perturbé par des variations inhabituelles de sorties de Pôle Emploi. Ainsi environ 43 % des sorties de Pôle Emploi sont dues à des « cessations d’inscriptions » en raison du non renouvellement mensuel de la demande d’emploi pour des raisons non précisées mais qui peuvent être liées par exemple à une reprise d’activité, à un effet de découragement, à une indisponibilité temporaire ou même à un oubli. En moyenne, sur les cinq dernières années, ces « cessations d’inscriptions pour défaut d’actualisation » s’élevaient à près de 200 000 par mois. Certains mois, le motif de sortie peut connaître de fortes variations, perturbant temporairement les statistiques du chômage. Par exemple, en août 2013, le bug SFR (graphique 2), lié à une panne informatique chez l’opérateur, a empêché de nombreux demandeurs d’emploi d’actualiser leur situation, ce qui a entraîné une forte hausse de ces « cessations d’inscriptions » (+260 100). Mécaniquement, sous l’effet du flux très élevé de sorties de Pôle Emploi, le nombre de demandeurs d’emploi en catégories A, B et C a baissé de 43 800 en août 2013. Le mois suivant, avec un nombre de « cessations d’inscriptions » revenant à un niveau proche de sa moyenne de long terme, les chiffres du chômage avaient logiquement fortement augmenté (+56 400 en septembre 2013), corrigeant l’effet de la baisse artificielle du mois précédent.

Pour les chiffres du mois de mai 2015, le phénomène a été l’inverse de celui observé lors du bug SFR d’août 2013. En effet, constatant que le nombre de demandeurs d’emploi ayant actualisé leur situation à la suite de la relance habituelle était sensiblement plus faible que d’ordinaire, Pôle Emploi a procédé à deux relances supplémentaires, ce qui a conduit à un niveau inhabituellement bas des cessations d’inscription (+160 600) par rapport à la tendance historique (201 300). Cela a augmenté mécaniquement les effectifs des catégories A, B et C, effet que Pôle Emploi chiffre entre 28 000 et 38 000. Or, si le mois prochain, le nombre de « cessations d’inscriptions » revenait à un niveau proche de sa moyenne de long terme, cela se répercuterait à la baisse sur le nombre de chômeurs en catégorie A, B et C, sans pour autant que ce dégonflement ne soit le fruit d’un changement sur le marché du travail. On ne saurait donc insister suffisamment sur la nécessaire prudence quant à l’interprétation des statistiques du chômage mois par mois.

G2_Post2506

 

 




Prélèvement à la source : une réforme compliquée, un gain très limité

par Henri Sterdyniak

Le prélèvement à la source est le serpent de mer de la fiscalité française, souvent annoncé, souvent étudié[1], jamais réalisé. Ainsi, en 2006, le ministre de l’Economie Thierry Breton annonçait la réforme pour 2008 : « Les revenus de 2007 ne seront pas imposés ». Dix ans après, Christian Eckert fait une déclaration similaire : « Les revenus salariaux de 2017 ne seront pas imposés ». Jusqu’à présent, les difficultés à mettre en place un dispositif satisfaisant, ne surchargeant pas les entreprises de nouvelles tâches administratives, préservant la confidentialité de la situation des salariés vis-à-vis de leur entreprise, tenant compte des complexités de la fiscalité française ainsi que les problèmes que pose l’année transitoire ont empêché la réforme d’aboutir. En sera-t-il de même aujourd’hui ? Certes, les progrès de l’informatique rendent le projet plus crédible, mais les réformes fiscales récentes ainsi que l’instabilité de l’emploi ont sans doute rendu la réforme plus délicate à mettre en place.

Le Conseil des ministres du 17 juin 2015 a tranché. Le prélèvement à la source (PAS) sera mis en œuvre le 1er janvier 2018. Il se fera à système fiscal constant. Mais les modalités précises seront discutées à partir de la rentrée 2015 pour être votées à la rentrée 2016. Quel est l’intérêt du projet ? Remplace-t-il la grande réforme fiscale ? Selon quelles modalités sera organisé le prélèvement ? Comment gérer la transition ?

La situation actuelle

Les ménages reçoivent un revenu tout au long de l’année n. L’impôt sur ce revenu (IR) est voté au Parlement le quatrième trimestre de l’année. Les contribuables reçoivent une déclaration pré-remplie en avril de l’année n+1, qu’ils renvoient en mai. Ils connaissent en août le montant de l’impôt dû. Soit ils ont déjà payé deux tiers provisionnels, égaux chacun à un tiers de l’impôt payé l’année n, (et donc calculés sur les revenus de l’année n-1), ils paient alors le solde en septembre. Soit ils ont choisi la mensualisation, ils paient tout au long de l’année des mensualités égales au dixième de l’impôt de l’année précédente et le solde en novembre-décembre.

Ce système a quatre défauts. Une réforme de l’impôt décidée à la fin de l’année n a un effet rétroactif sur les revenus de l’année n. Mais elle ne s’applique en fait qu’un an plus tard, en septembre ou novembre-décembre de l’année n+1. Une hausse ou une baisse généralisée des revenus ne joue sur l’IR que l’année suivante, ce qui nuit aux propriétés stabilisatrices de cet impôt. Un ménage qui subit une forte baisse des revenus en n+1 doit payer des impôts sur les revenus plus importants qu’il avait touchés l’année n. Théoriquement, chaque ménage devrait épargner sur les revenus de l’année n les impôts qu’il devra payer l’année suivante, mais peu le font explicitement et certains peuvent se retrouver en difficulté en cas de chômage ou de départ à la retraite. L’impôt sur le revenu est fortement progressif : les 10 % de ménages ayant les plus hauts revenus paient 70% de l’IR ; la moitié des ménages en est exonérée, de sorte que les difficultés de paiement liées au délai sont limitées. En sens inverse, les jeunes actifs n’ont pas à payer d’impôt la première année où ils travaillent : l’Etat fait un crédit aux jeunes salariés qu’ils remboursent en partant à la retraite.

Dans un système de PAS, l’impôt est voté à la fin de l’année n-1. Les entreprises et les banques qui versent des revenus au ménage prélèvent un certain montant d’impôt tout au long de l’année n. Au début de l’année n+1, le ménage reçoit un récapitulatif annuel qu’il complète et le fisc lui réclame (ou lui rembourse) la différence entre ce qu’il doit payer et ce qu’il a déjà payé. Ainsi, les réformes de l’IR et les fluctuations de revenus jouent plus rapidement sur l’impôt, le système est plus réactif et les ménages ont  moins besoin d’anticiper leur impôt.

Questions de fond

Jusqu’à présent, l’IR n’est pas prélevé à la source. Ceci a entraîné une évolution spécifique du système fiscal français avec un poids très important des cotisations employeurs maladie et famille, de la CSG, des prélèvements sociaux sur les revenus du capital qui sont eux prélevés à la source. Tous ces prélèvements sont proportionnels. Cela a été compensé pour les ménages à faibles salaires, qui ne paient pas d’IR, par les exonérations de cotisations sociales employeurs, les allocations-logement, le RSA-activité (devenu Prime d’Activité) et pour les hauts revenus par le fait que l’IR est très progressif. Ainsi, malgré le faible poids de l’IR (3% du PIB), le système français est très redistributif.

Le Président François Hollande s’était engagé à faire une grande réforme fiscale et le Premier ministre Jean-Marc Ayrault avait repris cet engagement en novembre 2013. Certains leur reprochent de ne pas l’avoir fait. Selon nous, ils ont tort. La réforme a été faite : les revenus du capital sont maintenant soumis à une taxation équivalente à celle du travail ; les cotisations sociales employeurs ont été de nouveau abaissées pour les bas salaires ; la Prime d’Activité soutient les revenus des salariés à bas salaires. On peut certes discuter des modalités de ces réformes, mais il sera difficile d’aller plus loin en termes d’aide aux bas salaires et de prélèvement sur les plus riches.

Beaucoup auraient voulu utiliser le passage au PAS pour mettre en place une nouvelle réforme fiscale. Certains auraient voulu que le PAS permette une fusion de la CSG et de l’IR (ou même des cotisations sociales) dans un impôt plus redistributif. Mais c’est oublier que le système est déjà très redistributif ; que les chômeurs et les retraités les plus modestes ne paient déjà pas de CSG ; qu’elle est plus que compensée par la PA pour les salariés à bas salaires. C’est oublier que la Sécurité sociale a besoin d’une ressource bien définie, qui ne soit pas remise en cause chaque année. C’est oublier que supprimer la CSG sur les bas salaires obligerait à l’augmenter sur le revenu des classes moyennes.

Pour les libéraux, la nécessité de passer au PAS est un argument supplémentaire pour simplifier la fiscalité française en passant à un impôt individuel (et non plus familial ; il faudrait ne plus faire la somme des revenus du travail et des revenus du capital mais imposer ces derniers à un taux uniforme libératoire ; il faudrait supprimer les dépenses fiscales et donc réduire le rôle incitatif de l’impôt). Certes, après une telle réforme, le passage au PAS serait beaucoup plus simple. En contrepartie, la fiscalité française serait moins redistributive ; les bénéficiaires d’importants revenus financiers paieraient moins d’impôts ; les familles des classes moyennes en paieraient davantage.

La réforme est surtout portée par Bercy qui voudrait simplifier la collecte de l’impôt, ne plus avoir à gérer les déclarations de 35 millions (et les paiements de 18 millions) de contribuables, s’adresser uniquement  aux entreprises et aux banques pour recevoir l’impôt. Mais, sauf réforme radicale de l’impôt, les ménages devront toujours compléter une déclaration récapitulative au début de l’année suivante[2], de sorte que les gains administratifs seront limités.

Le gouvernement a sagement décidé que le PAS ne s’accompagnerait d’aucune modification de l’IR. L’intérêt de la réforme est donc quasiment nul du point de vue purement économique. Les propriétés redistributives ou incitatives de l’impôt ne sont pas modifiées. Mais un impôt aussi compliqué que l’impôt français, qui porte sur les revenus de l’ensemble du ménage, qui est progressif (sur une base annuelle), qui fait la somme des revenus du travail et du capital, peut-il être prélevé simplement à la source ?

Le diable est dans les détails

Les deux points délicats sont : Comment calculer les prélèvements mensuels ? Qui les paye ? Le principe du PAS est que ces prélèvements sont payés par les employeurs et les banques du ménage contribuable. Mais ceux-ci ne peuvent pas faire le total des revenus du ménage ; ils ne peuvent pas faire varier les prélèvements en fonction des fluctuations du revenu du ménage. Ce serait possible dans le cas simple du célibataire à employeur unique qui n’aurait que des revenus salariaux. Mais que faire dans le cas d’un couple avec enfants, qui a des revenus du capital, dont la femme a certes un revenu stable, mais dont le mari a des revenus fluctuant fortement au cours de l’année avec plusieurs employeurs successifs ? Comment échanger les informations et harmoniser les paiements entre les employeurs, l’Unedic, les banques des deux conjoints ?

Certains ont proposé que les employeurs et les banques prélèvent l’impôt sur le revenu courant selon une formule simple, ne tenant pas compte des situations familiales, la régularisation se faisant en début d’année suivante. On aboutirait à un système peu acceptable où les familles avec enfants ou les couples à revenus très différents feraient crédit à l’Etat tandis que certains ménages à revenus élevés mais de sources différentes auraient un avantage de trésorerie.

La solution la plus simple est que le fisc communique aux employeurs et aux banques du ménage un taux moyen d’imposition, découlant des revenus de l’année n-1 et du barème décidé à la fin de l’année n-1. Ceux-ci l’appliqueront à tous les revenus du ménage, durant l’année n, avec une régularisation au début de l’année n+1.

Cependant, le système conserve de nombreux défauts. Le revenu de l’année n-1, et donc le taux d’imposition moyen à appliquer à l’année n, n’est pas connu tout au début de l’année n. Le PAS devra donc commencer avec le taux de l’année n-1 pour être rectifié en cours d’année. Il faut que les conjoints soient d’accord pour se voir appliquer le même taux d’imposition, ce qui est contestable si leurs revenus sont très différents. Sinon, il faudra qu’ils se mettent d’accord sur un partage de l’imposition qu’ils devront faire agréer par le fisc. Comme le taux moyen n’est pas le taux marginal, les fluctuations de l’impôt dues aux fluctuations du revenu resteront  trop faibles. Que se passera-t-il si l’entreprise a prélevé l’IR sur le salaire de son salarié mais ne l’a pas retransmis au fisc (en cas de faillite, par exemple) ? Imaginons une famille taxée à un taux de 15% ; l’un des conjoints, devenu chômeur, subit une forte perte de revenu en cours d’année. L’autre conjoint pourra-t-il demander à son entreprise de baisser le taux à 10% ? Qui aura la responsabilité de cette baisse ? En sens inverse, que faire pour une personne qui commence à travailler ? Qui aura la responsabilité d’évaluer son impôt (compte tenu du salaire de son conjoint) ?

Le problème est que l’entreprise aura une nouvelle tâche : celle de faire l’interface entre ses salariés et le fisc en matière d’IR, ce qui est autrement plus compliqué que de verser des cotisations sociales. Une fiche de paie comporte déjà 28 lignes. Faut-il en rajouter d’autres ? D’une part, les entreprises pourront dire que ce n’est pas leur rôle, qu’elles ne veulent pas s’engager dans de nouvelles tâches administratives, que les revenus du conjoint de leurs salariés, leurs déductions fiscales, leurs revenus du capital ne les concernent pas. De l’autre, chaque citoyen peut refuser que l’entreprise interfère dans ses relations avec le fisc.

Dans tous les cas, une régularisation serait nécessaire l’année suivante. Il n’est pas certain qu’elle pourra être plus rapide que dans la situation actuelle.

Comment gérer l’année transitoire ?

En tout état de cause, il y aura une année transitoire : 2017 dont les revenus ne seront pas imposés en principe. En 2017, les contribuables paieront leurs impôts sur les revenus de l’année 2016. En 2018, le PAS sera effectif et les contribuables paieront leurs impôts sur les revenus de l’année 2018. Globalement, et au premier ordre, cela ne changera rien pour l’Etat et les contribuables. Mais, les jeunes qui commenceront à travailler en 2018 paieront immédiatement l’IR pour 2018 ; les personnes qui prendront leur retraite en 2017 seront gagnantes puisqu’en 2018, elles paieront l’impôt sur leur pension de retraite de 2018 (et non sur leurs salaires de 2017 a priori plus élevés). Seront aussi gagnants les héritiers des personnes qui décéderont en 2017.

Malheureusement, la réforme a déjà été annoncée. Elle devrait être votée en 2016. Aussi, les contribuables pourront-ils avoir la tentation de concentrer leurs revenus exceptionnels en 2017 pour qu’ils ne soient pas imposés. Au niveau des salariés, l’effet sera sans doute limité ; certains pourraient vouloir travailler davantage, faire plus d’heures supplémentaires ; d’autres demanderont à leur entreprise de payer en 2017 leurs primes de 2016 ou de 2018 ; mais les entreprises seront sans doute réticentes. Il faudra cependant mettre en garde les entreprises contre la distribution de primes exceptionnelles aux salariés en 2017, mettre en place un dispositif de contrôle. Par contre, l’effet pourrait être extrêmement fort pour les dividendes et les plus-values (mobilières ou immobilières). Ainsi, chacun pourra-t-il purger ses plus-values mobilières en 2017 en vendant et en rachetant immédiatement ses titres. Il faudrait donc que la non-imposition des revenus de 2017 ne s’applique pas aux dividendes et plus-values. Mais le Conseil constitutionnel acceptera-t-il un traitement spécifique ?

En sens inverse, les ménages qui auront des droits à crédit d’impôt en 2017 devront pouvoir les faire valoir en 2018. D’une part, il serait sans doute inconstitutionnel de les en priver. D’autre part, cela aurait des conséquences fâcheuses si en 2017 les contribuables renoncent, pour des raisons fiscales, à verser aux œuvres et aux partis politiques, à payer leurs cotisations syndicales, à employer (et déclarer) du personnel pour les services à domicile, à effectuer des travaux d’économies d’énergie, à prendre soin des monuments historiques, etc… Et que faire des déductions pour pension alimentaire, des versements au PERP, des réductions d’impôt pour enfant scolarisé, des déductions pour frais de garde ?

Il faudra donc faire un inventaire minutieux de tous les types de revenus (pour éviter l’optimisation fiscale) et de toutes les dépenses fiscales (pour maintenir celles dont l’effet incitatif ne peut être suspendu en 2017). Ainsi, la déclaration récapitulative de 2018 devra obligatoirement intégrer les revenus de 2017 et 2018, avec un traitement différencié de chaque ligne, traitement qui devra être accepté par la Conseil constitutionnel.

Un projet saugrenu

Dans une note récente de Terra Nova, « Retenue à la source : le choc de simplification à l’épreuve du conservatisme administratif », Romain Perez et Marc Wolf s’appuient sur les progrès de l’informatisation et la prochaine mise en place de la Déclaration sociale nominative pour imaginer un logiciel centralisé à Bercy qui serait capable d’indiquer en temps réel à chaque entreprise, mois après mois, combien il doit prélever à chaque salarié pour aboutir en fin d’année au bon niveau d’IR.

Le  système imposerait un partage, plus ou moins arbitraire, des impôts entre les revenus salariaux et les revenus du capital de chaque conjoint. Le calcul automatique serait problématique en cas de variation des revenus d’un des conjoints. Madame C a un salaire fixe de 2 000 euros  par mois ; son mari reçoit un revenu mensuel de 5 000 euros en janvier et février. L’impôt que devra verser l’entreprise de Madame C dépend des revenus de Monsieur C, de leur caractère permanent ou temporaire. Qui va en décider ? Surtout, l’entreprise devrait prélever chaque mois un montant d’imposition variable à chacun de ses salariés, montant qu’elle serait incapable de justifier, montant qui dépendra des informations que le logiciel aura, ou non, intégré sur les différents revenus du ménage. Que se passera-t-il en cas de contestation ? Qui gèrera les conflits entre les conjoints : leurs employeurs, le fisc ? Par ailleurs, il faudra toujours une déclaration de régularisation en début de l’année n +1.  Il nous semble difficile de prétendre que le PAS est un « choc de simplification ».

D’autre part, les exemples du logiciel Louvois ou du dossier médical personnel montrent que ce genre de logiciel ne fonctionne pas. Les auteurs le disent clairement : leur solution s’appuie « sur la capacité prochaine d’un ordinateur central alimenté de mois en mois par toutes les données de revenus transmises à l’administration, d’anticiper au fil de l’eau ce que sera l’imposition future du foyer et sa déclinaison optimale entre les membres qui le composent ». Peut-on baser un prélèvement effectif sur une anticipation informatisée ? Quel ministre ferait confiance à une telle usine à gaz ?

Pour réduire le problème posé par l’année transitoire, les auteurs proposent un passage progressif en quatre ans, années durant lesquelless les deux systèmes cohabiteront, les ménages devant payer en l’année n une partie des impôts de l’année n-1 et les entreprises une partie des impôts de l’année n, partie qui monterait en puissance. Durant cette période, les entreprises devraient modifier chaque année leur logiciel de paie. Le patronat s’étranglerait, à juste titre, devant une telle complication. Le projet est d’ailleurs si complexe, prévoyant un traitement spécifique des avantages familiaux, traitement variant au cours des quatre années, qu’il serait sans aucun doute censuré par la Cour constitutionnelle.

Une alternative

Contrairement à ce que peuvent laisser croire des analyses sommaires, il n’existe pas de solution parfaite. L’impôt devant porter sur l’ensemble des revenus du ménage, être progressif et familial, il ne peut s’ajuster immédiatement aux revenus mensuels des conjoints ; il peut difficilement être payé par chaque employeur et chaque banque.

Une solution intermédiaire serait de maintenir le principe de la responsabilité de chaque contribuable sur le paiement de ses impôts tout en passant au prélèvement contemporain au revenu. L’impôt serait obligatoirement mensualisé. L’impôt payé pour l’année n correspondrait bien au revenu de l’année n. La question de l’année transitoire donc reste entière. Chacun devrait payer, chaque mois, un douzième de l’impôt de l’année n-1 ou un douzième de l’impôt prévisible pour l’année n, qu’il pourrait calculer sur le site « impôts.gouv.fr » du ministère des Finances en évaluant ses revenus de l’année. Chaque contribuable pourrait gérer son dossier sur le site, en y inscrivant les opérations donnant droit à abattement de revenu, crédit ou réduction d’impôt. Ceci suppose cependant que chaque contribuable ait un accès Internet au site et que des agents des impôts consacrent leur temps à la tenue des comptes des personnes qui n’ont pas la maîtrise d’Internet. Au début de l’année n+1, un bilan des sommes versées et des sommes dues serait fait automatiquement.

Quelle que soit la réforme envisagée, le gain sera faible pour la grande masse des contribuables. La réforme du mode de collecte ne rendra le système fiscal ni plus ni moins redistributif.. Une déclaration annuelle récapitulative sera toujours nécessaire. Le risque est qu’une partie de la tâche du fisc passe à la charge des entreprises. Le risque est que l’année transitoire donne lieu à des tentatives d’optimisation fiscale. Les avancées récentes (généralisation du prélèvement mensuel, déclaration des revenus pré-remplie) font que le passage au PAS apporte peu d’avantages. Dans une France toujours en dépression, toujours en chômage de masse, avec un secteur industriel en difficulté, il est permis de penser que cette réforme nécessitera beaucoup d’énergie pour un piètre résultat.

 

 

 

 


[1] Voir dans la période récente les rapports du Conseil des prélèvements obligatoires:  Prélèvements à la source et impôt sur le revenu (février 2012), Impôt sur le revenu, CSG quelles réformes ? (février 2015) et le rapport de François Auvigne et Dominique Lefebvre : Rapport sur la fiscalité des ménages, avril 2014.

[2] C’est, par exemple, le cas en Allemagne.




Grèce : un accord, encore et encore

par Céline Antonin, Raul Sampognaro, Xavier Timbeau, Sébastien Villemot

… La même nuit que la nuit d’avant
Les mêmes endroits deux fois trop grands
T’avances comme dans des couloirs
Tu t’arranges pour éviter les miroirs
Mais ça continue encore et encore …

Francis Cabrel, Encore et encore, 1985.

À quelques heures d’un sommet européen exceptionnel sur la Grèce, un accord pourrait être signé et permettrait de clore le second plan d’aide à la Grèce, débloquant la dernière tranche de 7,2 milliards d’euros. La Grèce pourrait alors faire face aux échéances de la fin juin auprès du FMI (1,6 Mds d’euros), puis de celles de juillet et août auprès de la BCE (6,6 Mds d’euros) et à nouveau auprès du FMI (0,45 Mds d’euros). A la fin du mois d’août, la dette de la Grèce auprès du FMI pourrait augmenter de presque 1,5 Mds d’euros, puisque le FMI contribue à hauteur de 3,5 Mds d’euros à la tranche de 7,2 Mds d’euros.

Jusqu’au mois de septembre, la Grèce doit rembourser un total de 8,6 Mds d’euros et, jusqu’à la fin de l’année, presque 12 Mds d’euros, soit des besoins qui excèdent les 7,2 Mds d’euros sur lesquels porte la négociation avec le Groupe de Bruxelles (i.e. l’ex troïka). À cet effet, le fonds hellénique de stabilité financière (HFSF) pourrait être mobilisé, à hauteur d’environ 10 Mds d’euros, mais il ne serait plus disponible pour recapitaliser les banques.

Si un accord est signé, il risque fort d’être difficile à tenir. En premier lieu, la Grèce va devoir faire face à la panique bancaire (bank run) en cours (le calme apparent devant les agences bancaires n’a pas empêché que plus de 6 Mds d’euros soient retirés la semaine dernière d’après le Financial Times). Or, même si un accord peut écarter pour un temps le scénario de la sortie de la Grèce de la zone euro, la perspective de taxes exceptionnelles ou d’une réforme fiscale peut dissuader le retour des fonds vers les établissements grecs. Par ailleurs, l’accord devrait inclure un excédent primaire de 1 % du PIB d’ici à la fin de l’année 2015. Or les informations sur l’exécution budgétaire jusqu’au mois de mai 2015 (publiées le 18 juin 2015) montrent que les recettes continuent d’être inférieures à la projection initiale (− 1 Mds d’euros), traduisant une situation conjoncturelle très dégradée depuis le début de l’année 2015. Certes, ces moindres rentrées fiscales sont plus que compensées par la baisse des dépenses (presque 2 Mds). Mais il s’agit-là d’une comptabilité de caisse. Le bulletin mensuel d’avril 2015, publié le 8 juin 2015, fait apparaître des arriérés de paiement du gouvernement central en hausse de 1,1 Mds d’euros depuis le début de l’année 2015. Il paraît presque impossible qu’en six mois, même avec une excellente saison touristique, le gouvernement grec rattrape ce retard et affiche, en comptabilité de droits constatés, un surplus primaire de 1,8 Mds d’euros. Un nouveau resserrement budgétaire pénaliserait une activité déjà en berne et pourrait être d’autant plus inefficace que les acteurs seraient fortement incités à sous-déclarer leurs impôts dans un contexte où l’accès à la liquidité sera particulièrement difficile. Le gouvernement grec pourra jouer sur la collecte de l’impôt, mais introduire un nouveau plan d’austérité serait politiquement et économiquement suicidaire. La discussion d’un troisième plan d’aide devra certainement être lancée, en incluant en particulier une négociation sur l’allègement de la dette grecque et des contreparties à cet allègement.

L’accord qui pourrait être trouvé dans les prochains jours risque d’être très fragile. Retrouver un peu de croissance en Grèce suppose d’abord de faire à nouveau fonctionner le financement de l’économie et de retrouver un peu de confiance. Cela supposerait aussi de traiter les questions de la Grèce en profondeur et de trouver un accord pérenne, sur plusieurs années, dont les étapes à court terme doivent absolument être adaptées à la situation présente de la Grèce. Nous avions, dans notre étude spéciale « La Grèce sur la corde raide », analysé les conditions macroéconomiques de la soutenabilité de la dette grecque. Plus que jamais la Grèce est sur la corde raide. Et la zone euro avec elle.




Digital jungles, where foul-play is easy to mask

By Zakaria Babutsidze (@babutsidze)

Modern digital businesses have created immense welfare for the consumers. Alas, they have also given significant headache to regulators.

Regulatory bodies in countries around the world are on the lookout for the infringements on fair competition. If competition in any of the industries under their jurisdiction is unfair (according to their judgment), they have the power to mandate restoring fair practices with several strong means (including hefty fines and company breakups).

The current wave of digital transformation has created a new reality. The competitive advantage in today’s business is based on the mastery of a small (and diminishing) set of practices (e.g. social, mobile, data, cloud, IoT and few others). Injection of these practices in standard industries gives birth to new leaders.

Being a leader in any of those practices gives sizable advantage to a given company over competitors in large number of industries. As a consequence, few big companies have entered and come to dominate large spectrum of industries. In multiple cases this trend has gone further than anyone could imagine just few years ago. As an example, consider that Apple now competes with Swiss luxury watchmakers.

This practice has resulted into GAFA (the leaders in the field: Google, Apple, Facebook, Amazon) and few other companies having large product ecosystems of (not necessarily inter-related) products. The take off of complex, integrated, connected products (like smartphones and smartwatches) has accelerated this trend.

This has given regulators a substantial work. Multiple business lines within a company give the opportunity of cross-subsidization. This is the practice where a company uses its dominant position on one market to gain the competitive advantage in another market. This is an unfair practice. Famous cases brought against Microsoft in the US and in Europe are such examples from the realm of digital business.

This practice is particularly hard to detect and prosecute when companies operate large ecosystems. Ecosystem operators have opportunities to bundle products and services together. However, if those bundled products are from different markets, the practice might be illegal. When bundled products command comparable market shares on respective markets, the practice cannot be called cross-subsidization. However, when the leader on one market is bundled with the laggard in another market, and the power of the market leader is used to promote the laggard – the practice becomes illegal.

Google, the champion of digital businesses, has experimented with similar behavior. It has attempted to popularize its troubled social network business (Google+) with the help of the popularity of its video business (YouTube) – it has obliged customers to merge their corresponding accounts. As a result, if one wants to comment on a YouTube video, she has to create a Google+ account even if she is happy with just Facebook.

This practice has gone unnoticed by competition authorities. However, after long preparations, and heated discussions in separate EU states, on April 15, EU has announced that it has sent an official statement of objections to Google referring to unfair practices in several lines of business.

Google, of course, maintains that it has not violated any anti-trust laws in EU (or elsewhere). In their two statements in response to the European commission (statement 1, statement 2), Google argues that their practices have created large benefits to consumers and points to the “Thriving competition online”.

However, given the company’s business model, it has incentives and (ample) opportunities to engage into borderline or anti-trust violating actions. This is why competition authorities have to continue closely monitoring digital ecosystem operators.

Let’s discuss incentives first. The matter is quite simple here – any company has an incentive to increase its profits. The only thing preventing them from violating the laws is business ethics (besides the fear of sanctions, of course).

In this respect Google says it is an ethical company. It just wants to catalog the world data, and not to be evil. However, Marissa Mayer, then VP of the company, stated openly in 2007 that “[Google] has monetary incentive drive people to pages with adds on them”. In other words – to rig their search algorithm. This was when Google’s business had only one leg – advertising. Now that the company has grown many more legs, other businesses might be using the same tactics undetected. Even though Mayer left Google (and leads Yahoo now), there are no signs that something has fundamentally changed in Google in this respect.

In order to comprehend the opportunities that Google has for anti-trust violations look at the role it plays in today’s economy. Google runs the universal information aggregation tool. As a result it provides information on which companies the economy trusts. Coming up at the top of search result list is supposed to mean that the company is the best (i.e. the most popular).

However, instead it rather means that the company will be the best. Much depends on the actual algorithm used by Google in rankings. This is a unique, and very large power.

Google’s rankings are based on the PageRank algorithm, which lies in the public knowledge domain. However, the actually algorithm used contains a “secret sauce” which constitutes Google’s business secret.

This is where people (and authorities) have problems with Google. Without knowing the algorithm it is impossible to detect whether Google ranks pages fairly (what it’s supposed to do) or gives an unfair advantage to its own products (e.g. maps, YouTube, and a number of other services that it provides by now).

European officials have demanded Google make the actual algorithm public. Not surprisingly, Google does not want to do this. It maintains competition is fair and giving out the “secret sauce” will give its competitors an unfair advantage (getting hands on “secret sauce” without sharing the development costs). Google claims that its consumers will switch to alternative services, as competitors will be able to deliver the same quality.

But if the competitor had the same quality service, why would anybody switch away from Google?

Establishing itself as the leader in ethical practices will help the company not only to keep current consumer base, but also to increase the chances to attracting new generations of consumers. It’s hard to beat the combination of quality, network effects and ethical behavior.

Ultimately, it might be more beneficial to position as an ethical company instead of spending resources on further masking already questionable actions. After all, regulators’ and competition authorities’ toolbox will (with some lag) adjust to the new, digital reality.




L’éternel débat sur le « modèle » allemand

par Christophe Blot, Odile Chagny et Sabine Le Bayon

Le modèle économique et social allemand suscite bien souvent les passions dans le débat économique français. Les regards portés sur notre voisin oscillent entre une vision panégyrique et la critique d’un modèle supposé mercantiliste qui conduirait l’Europe à l’abîme. Mais qu’est-ce qu’un modèle économique et social ? Il s’agit d’une notion complexe qui ne peut se réduire à quelques chiffres ou quelques décisions de politiques économiques. Un modèle est la résultante d’institutions, d’une histoire économique et sociale. Dans un ouvrage paru récemment, nous proposons une analyse des évolutions récentes et des transformations qu’a connues l’Allemagne au cours des dernières décennies. Comprendre la situation présente et les positions allemandes dans le débat de politique économique nécessite un examen de l’histoire économique et sociale récente, des contraintes auxquelles le pays a fait face et des défis qui émergent pour demain. Notre objectif est d’améliorer notre compréhension du modèle allemand en insistant notamment sur les similitudes et les différences de ce modèle avec celui de la France. Et puisque notre voisin tient une place importante dans le débat public, il nous semble nécessaire non pas de réfléchir à la transposition de telle ou telle réforme, de reproduire telle ou telle caractéristique, mais d’expliciter l’inhérente complexité d’un pays. C’est la condition indispensable pour éclairer le débat politique, économique et social.

Notre analyse rappelle que la position de l’Allemagne au sein de l’Europe n’a pas toujours été favorable. L’économie allemande fut en effet fragilisée par trois changements majeurs – les politiques de désinflation compétitive menées en Europe à partir des années 1980, la réunification et la mondialisation – qui se sont traduits par une détérioration relative de la position de l’Allemagne, qui fut alors qualifiée d’homme malade de l’Europe à la fin des années 1990. C’est dans ce contexte très particulier que fut adopté l’Agenda 2010. Mais si la vague de réformes qui l’ont accompagné témoigne bien d’une rupture, celle-ci est probablement plus politique qu’économique. Bien que le retour de la croissance et la réduction du taux de chômage coïncident avec l’adoption des réformes, l’amélioration des performances économiques est avant tout liée à la mutation opérée au sein du modèle avant la mise en œuvre de ces réformes. Il en a résulté une modération salariale de long terme facilitée par l’autonomie des partenaires sociaux en matière de conditions de travail. En outre, cette mutation est intervenue dans un contexte marqué par une demande accrue de la part des pays émergents dont les entreprises allemandes ont sans doute mieux tiré profit que leurs homologues européennes. Enfin, les ressorts de l’industrie et de la compétitivité de l’Allemagne s’appuient également sur une forte dimension microéconomique liée à un tissu productif dont la gouvernance est orientée vers le long terme et qui contribue à faire de l’Allemagne une hyperpuissance économique. Ce mouvement s’est toutefois accompagné, voire a bénéficié, d’une montée des inégalités sans précédent dans le pays. Dix ans après les réformes Hartz du marché du travail, le débat porte sur la nécessité de renforcer l’État social, comme l’illustre l’adoption, en juillet 2014, de la loi sur le salaire minimum qui constitue une autre forme de rupture dans un pays profondément attaché à l’autonomie des partenaires sociaux en matière de détermination des conditions de travail. Au-delà, le débat sur l’Etat social doit permettre de créer ou recréer des espaces de solidarité entre les gagnants et les perdants de l’hyper puissance industrielle et exportatrice allemande, héritée des transformations de ces deux dernières décennies.




Les comportements d’investissement dans la crise : une analyse comparée des principales économies avancées

Par Bruno Ducoudré, Mathieu Plane et Sébastien Villemot

Ce texte renvoie à l’étude spéciale « Équations d’investissement : une comparaison internationale dans la crise » qui accompagne les Perspectives 2015-2016 pour la zone euro et le reste du monde.

L’effondrement de la croissance consécutif à la crise des subprime fin 2008 s’est traduit par une chute de l’investissement des entreprises, la plus importante depuis la Seconde Guerre mondiale dans les économies avancées. Les plans de relance et les politiques monétaires accommodantes mises en œuvre en 2009-2010 ont toutefois permis de stopper l’effondrement de la demande ; et l’investissement des entreprises s’est redressé de façon significative dans tous les pays jusqu’à la fin 2011. Mais depuis 2011, l’investissement a été marqué par des dynamiques très différenciées selon les pays, en témoignent les écarts entre d’un côté les Etats-Unis et le Royaume-Uni et de l’autre les pays de la zone  euro, en particulier l’Italie et l’Espagne. Fin 2014, l’investissement des entreprises se situait encore 27 % en-dessous de son pic d’avant-crise en Italie, 23 % en Espagne, 7 % en France et 3 % en Allemagne. Aux États-Unis et au Royaume-Uni, l’investissement des entreprises était respectivement 7 % et 5 % au-dessus de son pic d’avant-crise (cf. graphique).

En estimant des équations d’investissement pour six grands pays (Allemagne, France, Italie, Espagne, Royaume-Uni et Etats-Unis), notre étude vise à expliquer les mouvements de l’investissement sur longue période, en portant une attention toute particulière à la crise.  Les résultats montrent que les déterminants traditionnels de l’investissement des entreprises – le coût du capital, le taux de profit, le taux d’utilisation des capacités de production et l’activité attendue par les entreprises – permettent de capter les principales évolutions de l’investissement pour chacun des pays au cours des dernières décennies, y compris depuis 2008.

Ainsi, depuis le début de la crise, les différences en matière de choix fiscaux, la mise en place de politiques budgétaires plus ou moins restrictives et la pratique de politiques monétaires plus ou moins expansives ont conduit à des dynamiques d’activité, de coût réel du capital ou de taux de profit différentes selon les pays qui expliquent aujourd’hui les disparités observées sur l’investissement des entreprises.

Graphe-post17-06_invest




Enquête « Logement 2013 » : quels premiers enseignements ?

Par Pierre Madec et Morgane Richard

Il y a quelques semaines, l’INSEE publiait les premiers résultats de la nouvelle Enquête Nationale Logement (ENL). A la fin de l’année 2013, la France métropolitaine comptait 28 millions de résidences principales, soit 1,7 millions de plus qu’en 2006 (date de la précédente ENL). Ces premiers résultats, encore préliminaires du fait de l’absence des données financières, semblent confirmer les évolutions déjà mises en exergue en 2006 : l’augmentation du nombre de propriétaires, notamment sans remboursement d’emprunt, l’érosion du parc locatif privé et la dégradation de la situation des ménages locataires.

La structure du parc de logements en transformation…

Depuis 2001, la part des propriétaires occupants, accédants[1] ou non, a augmenté de 2 points pour atteindre 58% du parc des résidences principales en 2013 (graphique 1). Cette hausse est expliquée à la fois par une nette diminution de la proportion de ménages locataires (-1,2 points entre 2001 et 2013) mais également par la baisse du nombre de ménages logés à titre gratuit dont la part dans la population totale a baissé de 2 points au cours des 12 dernières années. Plus précisément, au sein des propriétaires occupants, on observe un accroissement important du nombre de propriétaires non-accédants entre 2001 et 2006, accroissement qui ne s’est pas démenti par la suite. En 2013, les propriétaires non-accédants représentaient ainsi 38,4 % des ménages, soit 0,6 points de plus qu’en 2006 et 3,4 points de plus qu’en 2001.

G1_Post1106

A l’opposé, l’ensemble des autres statuts d’occupation a vu sa part décroître. Les accédants à la propriété, soit 19,5 % des ménages, ont vu leur part diminuer depuis 2001 (-1,5 pts), mais aussi leur nombre fortement se réduire notamment du côté des primo-accédants. Entre 2001 et 2013, ce sont ainsi 140 000 ménages primo-accédants qui ont quitté le marché de la propriété occupante, alors même que le nombre (et la part) des bénéficiaires de prêts aidés parmi les primo-accédants s’est plutôt bien maintenu aux alentours de 80 000 en 2013 (graphique 2). Plusieurs facteurs peuvent expliquer cette évolution : les modifications du dispositif d’incitation à la primo-accession dans le neuf du type PTZ (Madec, 2013), une génération de trentenaires (souvent primo-accédants) moins nombreuse en 2013 qu’en 2000 ou encore un prix de l’immobilier élevé à l’acquisition.

G2_Post1106

Concernant le secteur de la location, la part des locataires du secteur privé comme celle du secteur social a continué à s’éroder. L’érosion du parc locatif privé est d’un point de pourcentage entre 2001 et 2013, pour s’établir à un niveau légèrement inférieur à 20% en 2013. La part du parc social (HLM ou non) s’élevait, quant à elle, à 16,8% en 2013, soit une baisse de 0,5 point depuis 2001.

Malgré tout, des différences notables existent selon la taille des unités urbaines considérée. Les propriétaires, accédants ou non, sont ainsi largement surreprésentés en zones peu denses où ils représentaient, en 2013, plus de 73 % du parc de résidences principales dans les zones urbaines de moins de 20 000 habitants contre 46% dans l’agglomération parisienne. De même, si l’augmentation des propriétaires accédants semble comparable en zones peu denses et à Paris, les parcs locatifs montrent des évolutions différenciées. L’érosion du parc locatif privé, si elle est observée sur la France entière, est cependant d’une ampleur plus importante dans l’unité urbaine de Paris[2] où le parc locatif privé a diminué de près de 3 points entre 2001 et 2013 (graphique 3). Le parc social, dont la part dans le parc de logements est de 5 points supérieure dans l’agglomération parisienne, n’évolue quant à elle quasiment pas (+0,1 point entre 2001 et 2006 et -0,5 points entre 2006 et 2013).

G3_Post1106

Ces modifications dans la structure du parc de logements s’accompagnent d’importantes évolutions dans les profils des ménages qui les occupent ; évolutions qui confirment les divergences socio-économiques observées depuis plusieurs années entre les propriétaires et les locataires.

Des inégalités qui se creusent …

Bien que l’exploitation des données financières sera à même de nous fournir des informations plus complètes, les premiers résultats de l’ENL permettent de mettre en lumière une augmentation des inégalités entre les statuts d’occupation.

Les propriétaires affichaient, en 2013, un taux de chômage inférieur à 5 %, contrastant nettement avec les taux de chômage de 12,5% des locataires du secteur privé et de 17,5 % des locataires du secteur social la même année.

Si ces disparités étaient déjà observées avant 2006, elles se sont fortement creusées depuis lors. Ainsi, depuis 2006, le taux de chômage des propriétaires a stagné alors que celui des locataires du secteur social augmentait de 4 points, soit une hausse 10 fois plus importante que celle observée pour le taux de chômage de l’ensemble de la population active qui, en 2013, s’établissait à 8,8% (en hausse de 0,4 point).

Evidemment, ces divergences sont en partie expliquées par la relative sur-représentation des classes d’âges les plus jeunes et des catégories socio-professionnelles les plus exposées au chômage (ouvriers, employés, …) chez les locataires, notamment sociaux, mais cela n’enlève rien au caractère préoccupant de ce constat.

G4_Post1106

Les mêmes différences selon le statut d’occupation se retrouvent aussi en termes de conditions de logement. Les propriétaires non-accédants sont ainsi très peu exposés aux situations de mal logement, entendues ici comme la sur-occupation et la précarité énergétique ; et leur situation, comme celle des accédants, n’a que peu évolué depuis le début des années 2000[3]. A contrario en 2013, parmi les locataires du secteur privé, plus d’un ménage sur cinq était en situation de sur-occupation et plus d’un ménage sur trois était concerné par la précarité énergétique, soit une augmentation de 16 points par rapport à 2001. En 2013, près d’un locataire du secteur social sur six rapportait une situation de sur-occupation, et un ménage locataire du secteur social sur 5 déclarait avoir des difficultés à se chauffer, soit 6 points de plus qu’en 2001. Il y a donc, au sein même du parc locatif, des conditions de logement très différentes.

Ces données soulignent la précarisation massive des locataires des parcs privés et sociaux, déjà mise en exergue dans de nombreux articles de recherche[4]. Par ailleurs, un autre élément fourni par l’ENL nous renseigne sur la dégradation des conditions de logement des ménages. En 2013, 1,4 million de ménages avait effectué au cours de l’année une demande de logement HLM. Cette demande a augmenté de 17 % par rapport à 2006 et de 37 % par rapport à 2001. Rapporté au parc social, le nombre de demandes a cru de 5 points depuis 2001 passant ainsi de 25 à 30 %. Pour la seule unité urbaine de Paris, ce sont plus de 400 000 demandes qui ont été déclarées pour la seule année 2013.

Ces premiers résultats laissent donc entrevoir une dégradation des conditions de logement des ménages les plus modestes. L’érosion relative des parcs locatifs et l’accentuation de la divergence des profils, tant socio-économiques que vis-à-vis des conditions de logement, entre ménages locataires et propriétaires, sont autant de signes laissant penser que les disparités de vont pas s’améliorer à court terme.

 


[1] Un ménage accédant à la propriété est un ménage propriétaire ayant encore des emprunts à rembourser au titre de l’achat de sa résidence principale.

[2] L’unité urbaine de Paris définit l’aire urbaine communément nommée « agglomération parisienne ». Elle regroupe Paris, l’ensemble des communes de la petite couronne et une partie des communes de la grande couronne parisienne.

[3] Moins de 5% des propriétaires étaient exposés au surpeuplement en 2013 et moins de 10% déclaraient avoir des difficultés à se chauffer.

[4] Voir notamment Le Bayon, Madec et Rifflart, Revue de l’OFCE n°128, Ville et Logement, 2013.




Sauver la Grèce par la démocratie

par Maxime Parodi, @MaximeParodi, Thomas Piketty (Directeur d’études à l’EHESS et professeur à l’Ecole d’économie de Paris) et Xavier Timbeau @XTimbeau

Cette tribune a été publiée dans Le Monde daté du mercredi 10 juin 2015.

Le feuilleton grec emplit les journaux depuis l’élection au pouvoir de Syriza, le 25 janvier 2015. Pris dans le nœud coulant de ses créances, le gouvernement grec défend sa position avec comme menace la sortie de la Grèce de la zone euro. Tout est bloqué aujourd’hui, comme si rien n’avait avancé, sauf que la gestion et la trésorerie publiques grecques sont disloquées et que l’économie grecque s’est effondrée. Fuite des dépôts bancaires, incertitude quant à l’avenir monétaire et aux mesures qui seront prises expliquent que plus personne ne puisse vraiment se projeter dans le futur.

Quant aux autres Européens, ils s’interrogent sur ce qui a conduit à cette situation. L’incomplétude institutionnelle de la zone euro a été diagnostiquée et on propose (comme prochainement le rapport des 5 présidents au sommet européen du 25 juin) de renforcer la construction de la zone euro. Mais ce qui se profile à ce stade n’est guère satisfaisant. Mais ce qui se profile n’est pas à la hauteur de l’enjeu européen. Continuer de proposer plus de technocratie avec un vernis démocratique ne ferait que répéter les recettes qui ont fabriqué ce désastre.

Prenons donc le problème dans l’autre sens en donnant à la démocratie européenne une chance d’émerger. Confions à un organe représentatif des parlements nationaux de la zone euro, c’est-à-dire un embryon d’une véritable chambre parlementaire de la zone euro, la résolution de la question de la dette grecque. L’assemblée arbitrerait le conflit entre les créanciers et le gouvernement grec, en déplaçant le débat et les décisions vers les questions importantes : quelle est la responsabilité des jeunes générations quant à la dette de leurs aînés ? Quid du droit des créanciers ? Comment ont été réduites les autres dettes publiques importantes dans l’histoire, et quelles leçons peut-on en tirer pour l’avenir ? Que vaut la sauvegarde de l’euro dans cette affaire ? Comment empêcher que demain de nouvelles accumulations de dettes insoutenables ne se produisent ?

En étant légitimé par une assemblée solennelle et qui en sera la gardienne, l’accord qui serait trouvé ne risquerait pas, une nouvelle fois, d’être dénoncé demain. Puisqu’il s’agit de résoudre une question de dette, et également pour éviter qu’un accord soit obtenu par la force il faudra, d’une part, suspendre les créances de la Grèce le temps qu’il faudra (disons une année au vu du chantier qui s’annonce). Cette procédure de bon sens est appliquée dans tous les cas de résolution de dette privée dans presque tous les pays du monde. Cela demandera d’isoler le FMI de la discussion en laissant la Grèce rembourser cette institution. D’autre part, il faudra évacuer la possibilité de la sortie de la Grèce de la zone euro. En acceptant le principe de la négociation, la Grèce et les autres pays européens s’interdiraient cette option et s’engageraient à accepter les termes de l’accord trouvé. L’embryon d’assemblée aurait la possibilité d’en réexaminer les conditions périodiquement pour suivre les contingences de l’économie grecque. C’est en pratique ce qui est fait aujourd’hui, mais ce serait là explicité et légitimé.

Les institutions techniques (la Commission, la BCE) continueraient d’instruire et d’appuyer les réformes envisagées. Elles informeraient l’assemblée et répondraient devant elle. L’assemblée serait un organe identifié pour, le cas échéant, arbitrer des conflits. Rien n’empêche non plus d’introduire dans le jeu le Conseil européen ou le Parlement. Mais en clarifiant la légitimité, on ouvrirait la porte à une solution à la fois plus constructive envers la Grèce et les autres pays lourdement endettés et plus juste envers les contribuables de la zone euro. On expérimenterait un schéma de résolution des défauts souverains à l’intérieur de la zone euro en bâtissant une union politique. En se rappelant une chose : l’Europe s’est reconstruite à partir des années 1950 en investissant dans l’avenir et en oubliant les dettes du passé, notamment celles de l’Allemagne.

Au-delà, cette assemblée serait compétente pour établir un fonds commun des dettes de la zone euro, engager une restructuration d’ensemble et fixer des règles démocratiques encadrant à l’avenir le choix du niveau commun de déficit et d’investissement public, dans l’esprit des propositions faites dans le Manifeste pour une union politique de l’euro, par exemple. De quoi sortir du bricolage qui secoue notre zone euro aujourd’hui.