Haro sur les investisseurs chinois !

Par Sarah Guillou

Dans son discours de vœux du 15 Janvier 2017, le ministre de l’Economie et des finances, Bruno Le Maire, parle « d’investissements de pillage » suspectant les investisseurs chinois de vouloir « piller » les technologies françaises. Ces déclarations inscrivent le ministre de l’Economie français dans la filiation du patriotisme économique de Colbert à Montebourg, mais cette fois, elles se situent dans un mouvement plus large de méfiance et de résistance aux investissements en provenance de Chine qui parcourt tous les pays occidentaux. Et si le gouvernement français projette d’élargir le champ du décret qui permet de contrôler les investissements étrangers, de nombreux pays en font de même.

La France n’est pas le seul pays à vouloir modifier sa législation pour renforcer les motifs de contrôle des investisseurs étrangers. L’entrée de capitaux étrangers était avant tout perçue comme un apport de moyens financiers et le signe de l’attractivité du territoire. La France a toujours été bien située dans les classements internationaux en termes de terre d’accueil. En 2015, la France se classait au onzième rang mondial au titre des entrées d’investissements directs de l’étranger pour un montant de 43 milliards de dollars en provenance principalement des pays développés (contre 31 milliards pour l’Allemagne et 20 milliards de dollars pour l’Italie). Et comme les investisseurs résidents français ont, eux, investis 38 milliards de dollars à l’étranger (l’Allemagne et l’Italie, 94 et 25 milliards de dollars respectivement), la balance est en faveur des entrées de capitaux productifs qui dépassent les sorties de capitaux.

Cependant, la France s’est toujours distinguée par une méfiance politique plus marquée à l’égard des prises de participation étrangères, surtout lorsqu’il s’agit de ses « fleurons » industriels. Mais voilà que cette méfiance rencontre un écho dans les pays occidentaux à l’égard des investisseurs chinois, et pas seulement outre-Atlantique où l’ensemble des acteurs politiques ont dû se mettre au diapason du patriotisme économique de l’administration Trump. Les investisseurs chinois sont aussi perçus comme des prédateurs par les Allemands, les Anglais, les Australiens, les Italiens pour ne citer qu’eux.

Il faut dire que la stratégie industrielle de la Chine est très volontariste et les stratégies de croissance externe des entreprises chinoises sont soutenues par une politique de montée en gamme et d’acquisition de technologies par tous les moyens. De plus la présence de l’Etat derrière les investisseurs – c’est le propre de la Chine d’avoir une imbrication forte des intérêts privés et publics et une forte présence de l’État dans l’économie en raison de son passé communiste – crée de potentiels conflits de souveraineté. Enfin, la Chine menace de plus en plus des secteurs dans lesquels les pays occidentaux croyaient détenir des avantages technologiques, ce qui inquiète les gouvernements (voir le Policy Brief de l’OFCE de S. Guillou (n° 31, 2018), « Faut-il s’inquiéter de la stratégie industrielle de la Chine ? »). Enfin, la Chine n’est de son côté pas exemplaire en matière de réception des investissements étrangers érigeant des barrières et des contraintes souvent associées à des transferts de technologie.

Les pays occidentaux réagissent donc en augmentant le champ du contrôle : aux questions de sécurité nationale et d’ordre public sont ajoutées les technologies stratégiques et la propriété des bases de données concernant les citoyens. En France, le ministre de l’Economie, Bruno Le Maire, a annoncé vouloir l’étendre au stockage de données numériques et à l’intelligence artificielle. En Allemagne, l’acquisition de Kuka, fabricant de robots industriels par le chinois Midea a conduit à renforcer le contrôle allemand et notamment au refus du rachat du fabricant de semi-conducteurs Aixtron.

Aux Etats-Unis, c’est bien au motif de l’acquisition de données bancaires que le rachat de MoneyGram par Ant Financial – une émanation d’Alibaba – a conduit le CFIUS (Committee on Foreign Investment of the United States) à émettre un avis négatif très récemment. Le projet européen de la création d’une commission identique au CFIUS n’a pas encore abouti et il ne suscite pas l’adhésion de tous les membres de l’UE tant certains accueillent avec bienveillance les investisseurs chinois.

Cette politique est, sinon coordonnée, au moins commune parmi les principaux récipiendaires des investissements chinois. La France n’est pas la seule à tenir cette position. Une telle unanimité du clan occidental est rare mais elle comporte aussi des risques.

Le premier est celui de l’isolationnisme : trop de barrières conduisent à renoncer à des opportunités de partenariats, en certains domaines, de plus en plus incontournables, et à des opportunités de renforcement des entreprises occidentales. Le second est le risque de contournement des interdictions de prises de participation par les investisseurs chinois. Les acquisitions ne sont pas toujours hostiles et les entreprises en voie d’acquisition sont souvent prêtes à des partenariats qui prendront d’autres formes. Ainsi l’échec du rapprochement d’Alibaba avec l’américain MoneyGram est contrebalancé par de nombreux accords que l’entreprise a scellé avec des partenaires européens ou américains pour faciliter les paiements des touristes chinois et notamment pour permettre d’utiliser la plateforme de paiement Alipay. Elle scellera certainement un partenariat de ce type avec MoneyGram. Ces partenariats conduisent à des transferts de technologie et des partages de compétences, voire de données, sans la contrepartie des apports de capitaux. Le troisième est le déversement des capitaux chinois en Asie et/ou en Afrique par exemple permettant la capture de marchés et de ressources qui handicaperont les acteurs occidentaux. Il faudra bien que le capital chinois disponible s’investisse. L’absence d’acteurs occidentaux partenaires impliquera une perte de contrôle et un isolement qui pourraient s’avérer préjudiciables.

Il faut donc revenir à un contrôle retenu bien qu’exigeant mais absent d’un raisonnement dichotomique qui a prévalu aux déclarations, sinon aux intentions du ministre. Tant que les technologies françaises seront attractives, il faudra s’en réjouir et mesurer les avantages et les inconvénients des alliances. Peu d’années s’écouleront avant que les technologies chinoises deviennent aussi attractives que les françaises. Et les Chinois ne manqueront pas de venir rappeler à Monsieur Le Maire sa position.




L’indicateur avancé : la reprise sur de bons rails

par Hervé Péléraux

La publication ce jour des indicateurs de confiance dans les différentes branches confirme l’optimisme des chefs d’entreprise interrogés par l’INSEE en janvier. Quoiqu’en léger repli ce mois, le climat général des affaires reste proche de son sommet de fin 2007, au-dessus de son pic de rebond de début 2011.

graph 1

À partir de cette information qualitative, l’indicateur avancé anticipe une croissance de +0,6 % successivement au quatrième trimestre 2017 et au premier trimestre 2018. Si ces prévisions se réalisaient, l’économie française aurait alors aligné 6 trimestres consécutifs de croissance supérieure à +0,5 % depuis la fin 2016. Selon l’indicateur, la croissance sur l’ensemble de l’année 2017 atteindrait +1,9 % et l’année 2018 démarrerait avec un acquis de croissance de +1,5 %. Notons cependant qu’une inconnue subsiste au premier trimestre 2018 avec un alourdissement transitoire des prélèvements liés à la bascule cotisations sociales / CSG et à la hausse de la fiscalité écologique et du tabac, alors que les mesures de soutien au pouvoir d’achat joueront plutôt dans la seconde moitié de l’année. Ces facteurs, auxquels on peut ajouter les conditions climatiques exceptionnelles de l’hiver 2017/2018 avec des températures clémentes qui limitent les dépenses en chauffage, pourraient donner à l’activité un profil trimestriel un peu plus heurté que celui déduit des enquêtes de conjoncture qui décrivent plutôt une trajectoire sous-jacente comme ce fut le cas ces dernières années.

graph 2tab




Trading à haute fréquence et régulation économique, un arbitrage inéluctable entre stabilité et résilience des marchés financiers

par Sandrine Jacob Leal et Mauro Napoletano

Au cours des dernières décennies, le trading à haute fréquence (THF) a fortement augmenté sur les marchés américains et européens. Le THF représente un défi majeur pour les autorités de régulation du fait, d’une part, de la grande variété de stratégies de trading qu’il englobe (AFM, 2010 ; SEC, 2010) et d’autre part des incertitudes qui planent toujours autour des avantages nets de cette innovation financière pour les marchés financiers (Lattemann et al., 2012 ; ESMA, 2014 ; Aguilar, 2015). Par ailleurs, bien que le THF ait été identifié comme l’une des causes probables des krachs éclairs (Jacob Leal et al., 2016), aucun consensus n’a encore réellement émergé sur les causes fondamentales de ces phénomènes extrêmes. Certains pays ont déjà décidé de réguler le THF[*]. Cependant, les approches adoptées jusqu’à présent varient en fonction des régions.

Les problèmes mentionnés ci-dessus renvoient directement au débat sur la régulation économique et son efficacité face aux effets néfastes du THF et des krachs éclairs. Nous contribuons à ce débat dans un nouvel article publié dans la revue Journal of Economic Behavior and Organization, dans lequel nous étudions l’effet d’un ensemble de mesures de régulation au travers d’un modèle multi-agents dans lequel les krachs éclairs émergent de façon endogène (Jacob Leal et Napoletano, 2017). Contrairement à notre précédant modèle (Jacob Leal et al., 2016), nous endogénéisons cette fois l’annulation des ordres caractéristique du THF. Ce modèle est ensuite utilisé comme un laboratoire afin d’étudier l’effet sur les marchés d’un certain nombre de mesures de régulation économique visant le THF. Notre modèle est particulièrement adapté et pertinent dans ce cas car, contrairement aux travaux existants (par exemple, Brewer et al., 2013), il est capable de générer de façon endogène les krachs éclairs, résultat des interactions entre les traders basse fréquence et les traders haute fréquence. Par ailleurs, nous examinons dans ce travail un plus grand nombre de mesures que les travaux existants. Notre objectif étant d’étudier l’effet des mesures de régulation proposées et mises en œuvre en Europe et aux États-Unis face à la montée du THF. La liste comprend des mesures relatives à la microstructure des marchés (comme les « circuit breakers »), des mesures de type « command-and-control » (comme les temps de garde des ordres minimaux) et les mesures qui influencent les incitations des traders (comme les frais d’annulation ou la taxe sur les transactions financières).

Après avoir vérifié la capacité de notre modèle à reproduire les principaux faits stylisés des marchés financiers, nous avons analysé l’efficacité des mesures de régulation économique susmentionnées.

Ainsi, nos résultats démontrent que les tentatives afin de réduire la fréquence d’activité des traders à haute fréquence, en les empêchant par exemple d’annuler fréquemment et rapidement leurs ordres à travers des temps de garde des ordres minimaux ou des frais d’annulation, ont des effets bénéfiques sur la volatilité des marchés et sur les krachs éclairs. Par ailleurs, nous montrons que l’introduction d’une taxe sur les transactions financières produit des résultats similaires (bien que l’ampleur des effets soit moindre) puisque cette mesure décourage le THF.

En résumé, ces mesures qui permettent d’imposer une limite à la vitesse du trading s’avèrent être des instruments efficaces pour réduire la volatilité des marchés et l’occurrence des krachs éclairs. Ces résultats confirment les conjectures de Haldane (2011) quant à la nécessité de s’attaquer à la «course effrénée» des traders HF afin d’améliorer la stabilité financière.

Cependant, nous constatons que ces mesures de régulation engendrent également une plus longue durée des krachs éclairs.

Par ailleurs, nos résultats révèlent que la mise en œuvre des circuit breakers a des effets mitigés. D’une part, l’introduction de circuit-breaker ex ante réduit nettement la volatilité des prix et supprime totalement les krachs éclairs. Ce résultat s’explique par le fait que ce type de mesures permet une intervention en amont de la chute brutale des prix, source du krach. D’autre part, les circuit breakers ex post n’ont aucun effet sur la volatilité des marchés et le nombre des krachs éclairs mais augmentent la durée des krachs éclairs.

En conclusion, nos résultats indiquent qu’en matière de régulation économique du HFT, il y a un arbitrage inéluctable entre la stabilité et la résilience du marché. Ainsi, nous démontrons que les mesures de régulation qui améliorent la stabilité du marché – en termes de volatilité moindre et d’incidence des krachs éclairs – impliquent également une détérioration de la résilience du marché – en termes de capacité réduite du prix des titres à se rétablir rapidement après un krach. Cet arbitrage s’explique par le double rôle joué par le THF dans les dynamiques de notre modèle. En effet, d’une part, le THF s’avère jouer un rôle fondamental à l’origine des krachs éclairs, du fait notamment des larges fourchettes de cotation créées ponctuellement et de la concentration de leurs ordres à la vente. D’autre part, le THF contribue à rétablir rapidement la liquidité du marché favorisant ainsi la reprise du prix des titres à la suite d’un krach.

[*] Certaines actions et enquêtes sans précédent de la part des régulateurs locaux ont été largement rapportées dans la presse (Le Figaro, 2011; Les Echos, 2011; 2014; Le Monde, 2013; Le Point, 2015).

 




Sur la double nature de la dette

par Mattia Guerini, Alessio Moneta, Mauro Napoletano, Andrea Roventini

Les crises financière et économique de 2008 ont été fortement liées à la dynamique de la dette. En fait, une étude de Ng et Wright (2013) rapporte qu’au cours des trente dernières années, toutes les récessions américaines avaient des origines financières.

La figure 1 montre que les dettes des entreprises privées non financières (ligne verte) et les prêts immobiliers (ligne bleue) ont augmenté régulièrement aux Etats-Unis depuis les années 1960 et jusqu`à la fin du XXe siècle. De plus, dans les années 2000, la dette liée au prêts immobiliers est passée d’environ 60% à 100% du PIB en moins d’une décennie. Cette situation est devenue insoutenable en 2008 avec l’explosion de la bulle des crédits hypothécaires (les subprime). Ensuite les prêts immobiliers ont fortement diminué tandis que le ratio dette publique / PIB des États-Unis (ligne rouge) est passé de 60% à un niveau légèrement supérieur à 100% en moins de 5 ans, comme conséquence de la réponse de la politique budgétaire à la Grande Récession.

IMG1_post24-01La forte croissance de la dette publique a suscité des inquiétudes par rapport la soutenabilité des finances publiques et, aussi, sur les possibles effets négatifs de la dette publique sur la croissance économique. Certains économistes ont même avancé l’idée d’un seuil de 90% dans le rapport dette publique/PIB, en dessus duquel la dette publique nuirait à la croissance du PIB (voir Reinhart et Rogoff, 2010). Malgré un grand nombre d’études empiriques contredisant cette hypothèse (voir Herdon et al., 2013 et Égert, 2015 comme exemples récents), le débat entre les économistes est toujours ouvert (voir Ash et al., 2017 et Chudik et al., 2017).

Nous avons contribué à ce débat dans un document de travail (voir Guerini et al., 2017), qui sera publié prochainement dans la revue Macroeconomic Dynamics. Dans cette contribution, nous étudions conjointement l’impact de la dette publique et privée sur la dynamique du PIB américain en exploitant de nouvelles techniques statistiques que nous permettent d’identifier les relations causales entre les variables reposant seulement sur la structure des données[1]. Cela nous a permis de garder une perspective « agnostique » dans l’identification de la causalité et donc plus robuste par rapport aux possibles restrictions suggérées par telle ou telle théorie économique et donc en « laissant parler les données ».

Les résultats obtenus suggèrent que les chocs de dette publique affectent positivement et durablement la production (voir la figure 2, panneau de gauche)[2]. En particulier, nos résultats apportent des preuves contre l’hypothèse selon laquelle la croissance de la dette publique diminue la croissance du PIB aux États-Unis. En effet, nous trouvons que l’augmentation de la dette publique, entraînée par une augmentation des dépenses publiques en investissements, génère aussi des hausses dans les investissements privés (voir la figure 2, à droite) confirmant à cet égard, les conjectures effectuées par Stiglitz (2012). Cela implique que les dépenses publiques et, plus généralement, la politique budgétaire expansionniste stimulent la production à court et à moyen terme. Il en ressort que les politiques d’austérité ne semblent pas être la réponse politique appropriée pour surmonter une crise.

IMG2_post24-01Au contraire, nous ne trouvons pas des effets positifs significatifs liés à une augmentation de la dette privée, et en particulier lorsque l’on se concentre sur la dette liée aux prêts immobiliers. Plus précisément, nous constatons que les effets positifs des chocs sur la dette privée ont une taille plus faible que ceux sur la dette publique, et qu’ils disparaissent avec le temps. En outre, l’augmentation des niveaux de la dette hypothécaire a un impact négatif sur la dynamique de la production et de la consommation à moyen terme (voir la figure 3), tandis que leurs effets positifs ne sont que temporaires et relativement légers. Un tel résultat semble correspondre pleinement aux résultats de Mian et Sufi (2009) et de Jordà et al. (2014): une croissance excessive des prêts immobiliers alimente les bulles réelles d’actifs, mais lorsque ces bulles éclatent, elles déclenchent une crise financière, qui transmet visiblement ses effets négatifs au système économique réel sur un horizon de temps long.

IMG3_post24-01Un autre fait intéressant qui ressort de nos recherches est que l’autre forme la plus importante de dette privée – à savoir la dette des sociétés non financières (SNF) – ne génère pas d’impacts négatifs à moyen terme. En effet (comme on peut le voir dans la figure 4), l’augmentation du niveau d’endettement des SNF semble avoir un effet positif à la fois sur le PIB et sur la formation brute de capital fixe.

IMG4_post24-01

En conclusion, nos résultats suggèrent que la dette a une double nature : différents types de dettes ont un impact différent sur la dynamique macroéconomique agrégée. En particulier, les menaces possibles sur la croissance de la production à moyen et long terme ne semble pas provenir de la dette publique (qui pourrait bien être une conséquence d’une crise), mais plutôt d’une augmentation excessive du niveau de la dette privée. En outre la croissance de la dette liée au prêts immobiliers semble être beaucoup plus dangereuse que celle liée aux activités d’investissement et de production des entreprises non financières.

 

[1] En particulier, nous utilisons un algorithme de recherche causale basé sur l’analyse ICA (Independent Component Analysis) pour identifier la forme structurelle de la VAR cointégrée et résoudre le problème de la double causalité. Pour plus de détails sur l’algorithme ICA, voir Moneta et al. (2013). Pour plus de détails sur ses propriétés statistiques, voir Gourieroux et al. (2017).

[2] Lors du calcul des fonctions de réponse impulsionnelle, nous appliquons un choc de Déviation Standard (DS) à la variable de dette concernée. Ainsi, par exemple, sur l’axe des y de la figure 2, panneau de gauche, on peut lire qu’un choc de 1 DS à la dette publique a un effet positif de 0,5% sur le PIB à moyen terme.




L’expérimentation du revenu universel est-elle possible ?

Par Guillaume Allègre, @g_allegre

Dans une tribune intitulée « Revenu universel, l’impossible expérimentation », je souligne les limites des expérimentations en cours et à venir du revenu universel[1] : échantillons trop petits et non représentatifs, limites inhérentes au tirage au sort (absence des effets d’équilibre sur le marché du travail ; absence d’« effets de pair »[2]). Clément Cayol a répondu à ma tribune sur le site du Mouvement Français pour un Revenu de Base (« M Allègre : les expérimentations de revenu de base sont un chemin possible vers l’instauration »). Il propose d’expérimenter le revenu universel sur des « sites de saturation » (par exemple un bassin d’emploi). L’idée serait de choisir certains bassins d’emploi comme groupe de traitement (par exemple Toulouse et Montbéliard) et d’utiliser des bassins d’emploi qui ont des caractéristiques proches comme groupe de contrôle (Bordeaux et Besançon ?). En comparant les différences de comportement entre les deux groupes (en termes d’emploi, de temps partiel, de salaires…), on pourrait connaitre l’impact du revenu universel. Une telle expérimentation a lieu dans un village kényan.

L’idée d’expérimenter sur un site de saturation peut paraître séduisante et répond à certaines de mes critiques (on peut mesurer les effets d’équilibre sur le marché du travail et les effets de pairs). Elle ne répond pas aux autres critiques : une telle expérimentation est par construction temporaire (or les individus ne réagiront pas de la même façon à une incitation temporaire qu’à une incitation permanente) ; on ne pourra pas expérimenter le côté financement du revenu universel (or le revenu universel coûte cher, il faudra le financer par exemple par un impôt sur le revenu, ce qui aura des effets sur les incitations financières à reprendre un emploi).

Expérimenter sur un site de saturation a ses propres limites : il faut trouver un groupe de contrôle ayant des caractéristiques proches du groupe de traitement, il faut contrôler des migrations (est-ce que je peux bénéficier du revenu universel en déménageant de Montbéliard à Besançon ?). Se pose également et surtout la question juridique[3] et éthique : peut-on donner 500 euros par mois à tous les habitants de Toulouse et Montbéliard et financer cette expérimentation par le contribuable français[4] ? La loi permet aux collectivités territoriales d’expérimenter mais seulement dans l’objectif d’étendre le dispositif expérimenté, or un revenu universel étendu à l’ensemble du territoire français n’est pas d’actualité.

[1] Voir aussi Guillaume Allègre, 2010 : « L’expérimentation du revenu de solidarité active entre objectifs scientifiques et politiques », Revue de l’OFCE, n°113.

[2] L’effet de pair désigne ici le fait qu’un individu arrêtera plus facilement de travailler si ses amis arrêtent également de travailler : mon loisir est complémentaire de celui de mes amis.

[3] Voir : https://www.senat.fr/rap/l02-408/l02-40810.html

[4] On peut difficilement imaginer que l’expérimentation fasse des perdants parmi le groupe de traitement, le financement est donc nécessairement national.




RSA : un non-recours de 35% ?

Par Guillaume Allègre, @g_allegre

Le non-recours au RSA est souvent invoqué pour justifier une réforme du système d’aide aux personnes à bas revenus (Revenu universel, mise en place d’une allocation sociale unique qui fusionnerait RSA, Prime d’activité et Allocation logement). Selon la CNAF, le non-recours au RSA-socle serait de 36%. (CNAF, 2012). Pour faire cette estimation, la CNAF s’appuie sur une enquête quantitative, réalisée au téléphone auprès de 15 000 foyers sélectionnés à partir de leurs déclarations fiscales. L’enquête quantitative sur le RSA a été spécifiquement conçue pour reproduire un test d’éligibilité à cette prestation. Pourtant, certains foyers non éligibles au RSA déclarent en bénéficier. Cette catégorie représente 524 foyers dans l’enquête, soit 11% des bénéficiaires. Elle peut résulter d’une erreur de déclaration au moment de l’enquête, ou d’une approximation du test d’éligibilité de l’enquête. En tout état de cause, l’existence de cette catégorie montre qu’il est difficile d’estimer un non-recours à l’aide d’une enquête, même spécifique. Par ailleurs, le Secours catholique estime à 40% le non-recours au RSA-socle (sur l’ensemble des ménages rencontrés en 2016 par l’association)[1].

Il existe un autre moyen d’estimer le non-recours au RSA. Depuis peu, l’INSEE et la DREES ont mis en accès libre le logiciel de micro-simulation INES. INES permet de simuler la législation socio-fiscale en s’appuyant sur l’ERFS (Enquête sur les revenus fiscaux et sociaux). L’ERFS a pour source les déclarations fiscales ; l’enquête – issue de données administratives – est donc très exhaustive (les ménages sont tenus de déclarer leurs revenus tous les ans). L’ERFS a cependant des limites, elle ne concerne que les ménages dits ordinaires. Sont exclues les personnes qui n’ont pas de logement (sans-abris) et les personnes qui habitent dans des institutions (armée, maisons de retraite[2], …). Le champ est celui de la France métropolitaine. Les déclarations de revenus sont annuelles, or la base ressource du RSA sont les revenus trimestriels, ce qui implique, pour simuler le RSA, de « trimestrialiser » les revenus sur la base d’hypothèses ad hoc.

Selon la simulation faite sur INES (législation 2015), le nombre d’éligibles au RSA-socle au quatrième trimestre 2015 devrait être d’environ 2 000 000 de foyers, alors que le nombre réels de bénéficiaires du RSA-socle selon la CNAF en décembre 2015 était de 1 720 000[3]. Selon l’enquête ERFS (et la microsimulation), le non-recours au RSA socle serait donc de 14%[4].

Le non-recours au RSA-socle est-il de 14% ou de 36% ? La vérité se situe très certainement entre les deux mais à quel niveau ? Le non-recours aux allocations-logement est estimée à 5% (Simon, 2000). Or les deux prestations (RSA, allocations logement) ont des publics proches. Le non-recours au RSA est certainement plus élevé que celui aux allocations logement (la population cible est plus pauvre, les démarches administratives sont plus importantes pour le RSA). Par contre, l’écart entre 5% (non-recours estimé aux allocations-logement) et 36% (non-recours estimé par la CNAF au RSA) est difficilement explicable.

Il existe plusieurs formes de non-recours (Odeonore, 2010) : la non-connaissance, lorsque l’offre n’est pas connue de la personne éligible ; la non-demande contrainte, lorsque l’offre est connue et que la personne éligible ne la demande pas par découragement devant la complexité administrative ou peur de stigmatisation ; la non-réception, lorsqu’une personne éligible demande la prestation mais ne la reçoit pas du fait d’un dysfonctionnement du service prestataire. Enfin il existe une dernière forme de non-recours: la non-demande par choix, lorsqu’une personne éligible et informée décide de ne pas demander la prestation, par exemple pour des questions éthiques (c’est le cas de certains zadistes qui choisissent de ne pas demander le RSA car ils ne veulent pas recevoir de l’argent de l’Etat).

 

Pour citer ce billet : Guillaume Allègre (2018), « RSA : un non-recours à 35% ? », OFCE Le Blog, janvier.

 

[1] Source : rapport 2017 du Secours catholique : https://www.secours-catholique.org/sites/scinternet/files/publications/rs17_0.pdf

[2] Mais ceci n’est pas important pour le RSA car les personnes de plus de 65 ans sont éligibles à un autre minimum social, l’ASPA.

[3] RSA socle + RSA socle et RSA activité, France métropolitaine. CAF+MSA Sources : http://data.caf.fr/dataset/foyers-allocataires-percevant-le-revenu-de-solidarite-active-rsa-par-caf

http://statistiques.msa.fr/wp-content/uploads/2017/01/Situation-du-RSA-au-regime-agricole-a-fin-2015.pdf

[4] Ce résultat varie de quelques pourcentages selon les années, ce qui montre que le modèle est – comme tout modèle – imprécis. L’équipe INES (INSEE-DREES) considère que l’on ne peut pas utiliser le modèle pour mesurer le non-recours notamment parce que l’ERFS capte mal les très bas revenus (le non-recours estimé avec INES sous-estimerait alors le non-recours réel). Historiquement, l’ERFS n’est pas jugée très bonne pour estimer l’éligibilité au RSA socle. Il est vrai que les bénéficiaires du RSA n’étant par construction pas imposable, ils ne risquent pas de pénalité en cas de mauvaise déclaration. Ce problème a été (en partie) résolu avec la déclaration pré-remplie.




Y aura-t-il un post-capitalisme?

par Branko Milanovic

À propos du livre de Paul Mason, « Postcapitalism: A Guide to our Future », Editions Allen Lane, 2015.  

C’est un livre immensément ambitieux. En moins de 300 pages, Paul Mason explique non seulement les 300 dernières années du capitalisme et les efforts pour le remplacer par un autre système (le socialisme), mais montre comment il sera éventuellement transformé et propose un ensemble de politiques pour aider à cette transformation. De plus, il ne s’agit pas d’un livre superficiel – qui pourrait sembler au premier abord opposer l’énormité du matériel couvert et la taille relativement mince du volume. Il ne faut pas non plus être distrait par le style folklorique utilisé par Mason. Le style peut être journalistique, mais les questions posées, la qualité de la discussion et les objectifs du livre sont de premier ordre.

Le livre peut être lu de plusieurs façons. On pourrait se concentrer sur les trois derniers chapitres qui sont de nature programmatique et destinés à fournir des objectifs positifs à la nouvelle gauche. Ou on pourrait discuter de la croyance de l’auteur dans le développement cyclique du capitalisme conduit par les cycles de Kondratieff à long terme (nous sommes actuellement, selon la lecture de Mason, dans la reprise du cinquième cycle). Ou on pourrait se concentrer sur l’histoire très brève mais puissante des mouvements ouvriers de Mason (chapitre 7) et l’un de ses rares accords avec Lénine selon lequel les travailleurs pourraient au mieux atteindre la « conscience syndicale » et ne pas être intéressés à renverser le capitalisme. Ou on pourrait débattre de l’utilité de la réanimation par Mason de la théorie de la valeur de travail de Marx.

Je ne ferai rien de tout cela car cette critique est relativement courte. Je parlerai de l’opinion de Mason sur l’état actuel du capitalisme et des forces objectives qui, selon lui, le conduisent au post-capitalisme. L’essentiel de l’argumentation de Mason est que la révolution des TIC est caractérisée par d’énormes économies d’échelle qui rendent le coût marginal de production des biens de connaissance proche de zéro, les quantités de capital et de main-d’œuvre incarnées tendant vers zéro. Imaginez un plan électronique de tout ce qui est nécessaire pour l’impression 3D ou bien un logiciel dirigeant le travail des machines : une fois que ces investissements ont été faits, il n’y a pratiquement plus besoin de travail supplémentaire, et puisque le capital a une durée de vie quasi infinie, le capital « incarné » dans chaque unité de production est minimal (« ce que vous voulez idéalement, c’est une machine qui ne s’use jamais, ou celle qui ne coûte rien à remplacer », page 166).

Lorsque le coût marginal de production atteint zéro, le système des prix ne fonctionne plus et le capitalisme standard n’existe plus : si les profits sont nuls, nous n’avons ni classe capitaliste, ni plus-value, ni produit marginal positif du capital, ni travail salarié. Nous approchons du monde de l’abondance de masse où les règles habituelles du capitalisme ne s’appliquent plus. C’est un peu comme le monde du zéro absolu ou le monde où le temps et l’énergie ne font qu’un. C’est en d’autres termes un monde très éloigné de celui que nous habitons actuellement, mais c’est vers là où, selon Mason, nous allons.

Comment les capitalistes peuvent-ils s’en sortir ? Il y a trois manières de s’en sortir. Pour ceux qui ont lu la littérature marxiste du début des années 1910, ils vont s’y retrouver car des questions semblables furent discutées alors. La première manière est de créer des monopoles. C’est exactement ce que font Apple, Amazon, Google et Microsoft maintenant. L’économie peut devenir monopolisée et cartellisée comme elle le fût au cours des dernières décennies du XIXe et des premières décennies du XXe siècle.

La deuxième manière consiste à renforcer la protection de la propriété intellectuelle. C’est encore une fois ce que les sociétés, les producteurs de chansons et Disney que nous venons de mentionner, essaient de faire de plus en plus agressivement en utilisant le pouvoir de l’État. (Le lecteur se rendra compte que la protection des droits de propriété augmente les coûts unitaires en capital et empêche ainsi le coût marginal de production de chuter à zéro.)

La troisième manière est de développer continuellement le « champ d’action » du capitalisme : si les profits d’une zone menacent de chuter à zéro, il convient de passer à une autre zone, « patiner [pour toujours] au bord du chaos », entre expansion de l’offre et baisse des prix, ou trouver de nouvelles choses qui peuvent être commercialisées ou négociées.

Les lecteurs de Rosa Luxemburg reconnaîtront ici une idée connue, à savoir que l’existence du capitalisme dépend de son interaction continue avec les modes de production non capitalistes et que, une fois ceux-ci épuisés, le capitalisme est dirigé vers le monde des profits nuls. Ces préoccupations ont un pedigree encore plus ancien, celui de Ricardo pour qui, sans l’abrogation des Corn Laws, tous les profits des capitalistes sont rongés par les loyers des propriétaires et le développement étouffé, ou la loi de Marx de « la chute tendancielle du taux de profit » causée par une intensité de capital de production toujours plus grande.

Donc les points de Mason à cet égard ne sont pas nouveaux, mais les situer au stade actuel du capitalisme et de la révolution des TIC est nouveau. Les trois façons dont les capitalistes tentent de redresser la baisse inéluctable du taux de profit sont toutes jugées insuffisantes. Si les monopoles étaient un moyen de maintenir le capitalisme, cela impliquerait la fin du progrès technologique. Le capitalisme deviendrait un système « régressif ». Peu de gens devraient être en désaccord avec l’appel de Mason pour supprimer les monopoles tels que Amazon et Microsoft. Il en va de même pour la protection des droits de propriété dont l’application devient de plus en plus difficile.

Ainsi, avec une tendance au profit à zéro et une incapacité à protéger les droits de propriété, la seule solution qui reste est la commercialisation de la vie quotidienne (le nouveau « champ d’action »). C’est ainsi que Mason explique la tendance des capitalistes à passer à des transactions auparavant non marchandes : créer de nouveaux biens à partir de nos maisons que nous louons maintenant à la journée, ou de nos voitures, ou de notre temps libre. Pratiquement chaque interaction humaine devra être codifiée : par exemple les mères se feront payer un centime lorsqu’elles pousseront les enfants des autres sur une balançoire dans la cour de récréation. Mais cela, affirme Mason, ne peut pas continuer. Il y a une limite naturelle à ce que les humains accepteront en termes de marchandisation des activités quotidiennes : « il faudrait traiter les gens s’embrassant gratuitement comme on traitait les braconniers au XIXe siècle » (p. 175).

Les arguments de Mason sont, je pense, très persuasifs à ce stade du livre, mais par la suite je suis tenté de ne plus être d’accord. Son explication de la raison pour laquelle nous traversons une période de marchandisation sans précédent de nos vies personnelles est très juste, mais ses perspectives optimistes sont confrontées à des limites ainsi que son accent sur l’importance croissante des transactions non marchandes (logiciels « open source », écrire des blogs gratuitement, etc.).

Permettez-moi de commencer par ce dernier argument. Mason exagère l’importance des nouvelles technologies ou de nouveaux biens qui sont développés grâce à la coopération et fournis gratuitement. Oui, beaucoup de choses peuvent être accessibles pour rien mais, même si elles semblent être fournies volontairement, il y a, en arrière-plan, un élément mercenaire : vous pouvez écrire un code ou un texte gratuitement mais cela est fait pour influencer les autres, être remarqué et finalement payé pour cela. Mason a probablement écrit son livre gratuitement ; mais le succès du livre fera en sorte qu’il sera payé pour tout ce qu’il dira ou écrira. Donc, se concentrer sur le premier sans inclure le second est trompeur.

Pourquoi son point de vue sur la marchandisation est-il faux ? La marchandisation ne nous est pas seulement imposée de l’extérieur par des entreprises qui veulent trouver de nouvelles sources de profits ; nous participons volontiers à la marchandisation parce que, grâce à une longue socialisation du capitalisme, sa portée est mondiale et atteint ceux qui n’ont pas été socialisés depuis longtemps ; les gens sont devenus des machines à calculer capitalistes. Nous sommes tous devenus un petit centre de la pensée capitaliste, assignant des prix implicites (« fictifs ») à notre temps, à nos émotions ou à nos relations familiales.

Le succès ultime du capitalisme est d’avoir transformé ou développé la nature humaine en faisant de chacun d’entre nous d’excellents calculateurs de « douleur et de plaisir », de « gain ou de perte » au point que même si la production capitaliste disparaissait aujourd’hui, nous vendrions des services les uns aux autres pour de l’argent : nous deviendrions des entreprises. Imaginez une économie (similaire à une économie très primitive) où toute la production est gérée à la maison. Cela semblerait être un modèle parfait d’économie non marchande. Mais si nous avions une telle économie aujourd’hui, elle serait pleinement capitaliste parce que nous vendrions tous ces biens et services les uns aux autres : un voisin ne gardera pas un œil sur vos enfants gratuitement ; personne ne partagera de nourriture avec vous mais vous facturera ; vous ferez payer votre mari pour le sexe et ainsi de suite. C’est le monde vers lequel nous nous dirigeons, et le champ des opérations capitalistes risque donc de devenir illimité parce qu’il inclurait chacun de nous. « L’usine dans le capitalisme cognitif est la totalité de la société » (p. 139). Le capitalisme durera très longtemps parce qu’il a réussi à transformer les humains en machines à calculer dotées de besoins illimités. Ce que David Landes a vu comme l’une des contributions majeures du capitalisme – une meilleure utilisation du temps et une capacité à tout exprimer en termes de pouvoir d’achat abstrait – s’est déplacé maintenant dans nos vies privées. Nous n’avons pas besoin de mode de production capitaliste dans les usines si nous sommes tous devenus des centres capitalistes nous-mêmes.

Ce texte est paru initialement en anglais sur le blog de Branko Milanovic, Global inequality