L’irrésistible ascension de l’extrême droite en Europe

L’irrésistible ascension de l’extrême droite en Europe

Pourquoi l’extrême droite monte-t-elle partout en Europe ? À quelques mois des élections européennes où elle pourrait à nouveau se renforcer au Parlement de Strasbourg, David Cayla pose un diagnostic sombre et invite les dirigeants européens à renoncer à leurs dogmes et à remettre les États, et donc la démocratie, au centre des grands choix économiques.

Photo : Reuters

Elle est loin l’époque où, à l’aube des élections européennes de 1999, les journalistes s’enthousiasmaient sur les ambitions sociales de « l’Europe rose ». 11 pays sur les 15 que comptait alors l’Union européenne étaient dirigés par des coalitions menées par des socialistes ou des sociaux-démocrates. Mené par Lionel Jospin, Gerhart Schröder, Tony Blair et Massimo D’Alema le Parti socialiste européen (PSE) dominait le Parlement européen avec 215 sièges sur 626. Un accord avec le Parti populaire européen (PPE), qui disposait de 181 députés, lui assurait de détenir la présidence du Parlement pendant la moitié d’une législature.

Cet accord est toujours en vigueur. Après chaque élection européenne, PSE et PPE ont pris l’habitude de se partager systématiquement la présidence du Parlement. Pourtant, cet accord pourrait ne pas être reconduit à l’issue du prochain scrutin. Le poids des deux principaux groupes politiques n’a cessé de diminuer. En 1999, PSE et PPE représentaient presque 66% des députés. Vingt ans plus tard, ils n’en représentent plus que 38,7%. Certes, la refondation des centristes en 2019, sous l’impulsion d’Emmanuel Macron, explique en partie cette baisse. Mais c’est surtout la hausse du nombre de députés d’extrême droite qui caractérise les derniers scrutins européens.

Jusqu’aux élections de 2014, la part des députés européens d’extrême droite était restée relativement faible, autour des 10%. De plus, la plupart d’entre eux siégeaient avec les non-inscrits ce qui atténuait leur poids institutionnel. En élisant un nombre record de 130 députés d’extrême droite, soit 17,3% du Parlement, les élections de 2014 furent un premier tournant. Après le départ des députés Britanniques en 2020, une partie de l’extrême droite s’est rassemblée au sein du groupe « Identité et Démocratie », dans lequel on compte les députés français du Rassemblement national, les Allemands d’Alternative für Deutschland (AfD) et les Italiens de la Lega. Ce groupe totalise une soixantaine de sièges. Un autre groupe conservateur et eurosceptique plus ancien, les Conservateurs et réformistes européens (ECR) inclut le parti polonais Droit et justice (Pis), le parti de Giorgia Meloni Fratelli d’Italia, le parti espagnol Vox et les Démocrates de Suède. Il compte 66 députés. Si l’on ajoute les députés non-inscrits d’extrême droite (les douze députés du Fidesz hongrois, Aube dorée, le Parti populaire Notre Slovaquie, quelques députés anciennement RN en déshérence…), c’est plus de 150 députés d’extrême droite, soit plus de 20% des 705 parlementaires, qui sont représentés au Parlement de Strasbourg.

Si l’on se fie aux sondages et aux résultats des dernières élections nationales, l’extrême droite est en train de devenir l’un des courants de pensée dominant en Europe. Les dernières élections en Suède, en Finlande, en Italie, en Slovaquie et aux Pays-Bas ont toutes été marquées par la montée de l’extrême droite. À chaque fois, un mouvement d’extrême droite est parvenu à entrer dans une coalition majoritaire. Si l’Espagne et la Pologne font figure d’exception, il convient de les relativiser. Les élections générales espagnoles de juillet dernier ont abouti à une victoire fragile du Premier ministre socialiste sortant. La montée de la droite, et surtout la perspective d’une alliance entre le Parti populaire et Vox ont montré que l’extrême droite est prête à diriger l’Espagne. Quant à la Pologne, même si le PiS, usé par huit années de pouvoir, a dû concéder une défaite face à une coalition libérale hétéroclite, il reste de loin le premier parti de Pologne. La gauche, quant à elle, est réduite à 26 députés sur 460.

Il y a deux manières de réfléchir à la montée de l’extrême droite. La première est d’étudier les conséquences politiques et institutionnelles d’une extrême droite susceptible de représenter plus d’un quart des députés européens à l’issue des élections de juin prochain. Pourrait-elle, comme dans d’autres pays, s’allier avec la droite traditionnelle sur modèle de l’alliance PSE/PPE ? Quelles conséquences une telle coalition pourrait-elle avoir sur le fonctionnement de la Commission européenne, sur les négociations du prochain budget européen ou sur les ambitions climatiques de l’UE ? L’autre approche est de s’interroger sur les causes de l’inexorable montée électorale des partis d’extrême droite et sur les raisons pour lesquelles on constate un renforcement des sentiments identitaires. C’est cette seconde approche qu’il faut privilégier. Pour cela, il convient d’étudier trois phénomènes. Le premier est celui de la dynamique fédérale européenne incarnée la Présidente de la Commission Ursula von der Leyen ; le deuxième est celui de l’exacerbation des rivalités économiques intra-européennes engendrées par le marché unique européen. Enfin, il faut aussi s’interroger sut les conséquences politiques les migrations intra- et extra- européennes dans la montée du repli identitaire.

Une réponse à un fédéralisme de façade ?

Depuis son élection à la Présidence de la Commission européenne, Ursula von der Leyen s’est montrée très active médiatiquement et très volontarisme dans la mise en œuvre de la politique européenne. Elle s’est beaucoup déplacée, en particulier en Ukraine après l’invasion russe, et en Israël après l’attaque du 7 octobre. Très favorable à une politique d’intégration renforcée, elle s’était prononcée en 2011, alors qu’elle était ministre du Travail du gouvernement Merkel, en faveur de la création des « États-Unis d’Europe ». Cette vision fédéraliste s’est retrouvée dans son action qui a souvent dépassé le cadre des prérogatives de l’UE. Ainsi, dès sa prise de fonction, en décembre 2019, elle lançait le « Green deal », une initiative en faveur de la transition climatique. En juin 2020, après des semaines de rivalité entre pays européens dans la gestion de la crise Covid, elle organisait l’achat groupé de vaccins auprès des laboratoires pharmaceutiques. Enfin, quelques semaines plus tard, l’Union européenne s’entendait pour organiser un vaste plan de relance d’un montant total de 750 milliards d’euros afin d’aider les pays les plus touchés par la crise sanitaire. Baptisé « NextGenerationUE » le volume financier du plan est important. Il représente 70% du budget pluriannuel européen. Une partie (360 milliards d’euros) est constituée d’une enveloppe de prêts à faible taux intérêt ; elle fut peu utilisée. L’autre partie représente des subventions d’un montant total de 390 milliards d’euros avec une clé de répartition permettant à certains pays comme la Grèce, l’Espagne, l’Italie ou les pays d’Europe centrale et orientale, de bénéficier d’aides conséquentes (Figure 1).

Figure 1 : Montant des subventions du plan de relance européen rapportées au PIB de 2022[1]

La grande originalité du plan de relance européen est d’être financé par un emprunt communautaire gagé sur des recettes fiscales futures. Il faudra donc s’attendre à ce que le budget européen augmente fortement pour la période 2028-2035 (le budget européen est décidé pour sept ans) puisqu’il faudra rembourser l’emprunt tout en continuant de financer les politiques européennes. La Commission parie sur de nouvelles recettes fiscales, ce qui constitue un enjeu – délicat – à traiter pour la prochaine législature.

Comment von der Leyen est-elle parvenue à avancer dans la voie d’un fédéralisme budgétaire et fiscal ? Avant la crise sanitaire, le gouvernement allemand s’opposait de toute ses forces à l’idée d’un emprunt commun ; Angela Merkel avait même assuré en 2012 que tant qu’elle vivrait jamais il n’y aurait d’« eurobonds ». De même, la création d’une Europe des transferts où les pays d’Europe du Nord financeraient les économies d’Europe du Sud paraissait inenvisageable.

Pour comprendre comment les pays dit « frugaux » ont pu accepter un tel plan il faut rappeler qu’il n’est pas sans limite ni condition. D’une part, il s’agit d’un plan exceptionnel qui n’a pas vocation à se répéter. On est donc loin de la mise en œuvre d’une « Europe des transferts » soutenue par la France et les pays du Sud. D’autre part, il est mis en œuvre dans un contexte où l’Union européenne supervise de plus en plus strictement les politiques budgétaires nationales. L’épisode italien de l’automne 2018 au cours duquel le gouvernement de Paolo Conte, soutenu par le Mouvement Cinq étoiles et la Lega, dû revoir sa copie en dépit d’un déficit prévu de 2,4% (inférieur à celui de la France) a laissé des traces. Depuis la mise en place du Semestre européen en 2011 et du Pacte budgétaire en 2012, la Commission surveille les trajectoires budgétaires de chaque État et peut décider de sanctionner ceux qui s’écartent de leurs engagements, même si entretemps le gouvernement a changé. Dans ce contexte, l’existence d’un plan de relance européen constitue l’assurance, pour les pays les plus attachés à l’austérité, d’avoir un levier diplomatique envers les gouvernements tentés d’y renoncer. Cette conception du plan de relance n’est pas qu’une hypothèse. La Hongrie s’est vue exclue des financements européens en raison de ses manquements à l’État de droit. Le tournant pro-européen de Giorgia Meloni n’est sans doute pas étranger au fait que l’Italie doit recevoir près de 70 milliards d’euros de subventions européennes.

La deuxième raison pour laquelle les pays du Nord, et l’Allemagne en particulier, ont accepté de financer les pays du Sud tient à leur stratégie commerciale. Le modèle de l’économie allemande est menacé par le retour du protectionnisme aux États-Unis et par l’antagonisme croissant vis-à-vis de la Chine. L’Allemagne cherche donc à s’assurer des débouchés en Europe, ce qui suppose de soutenir les économies des pays du Sud.

Enfin si, sur le plan budgétaire, le plan européen semble renforcer la solidarité intra-européenne ainsi qu’une forme de fédéralisme, il constitue dans le même temps une régression communautaire. En effet, la mise en œuvre du plan repose essentiellement sur des logiques nationales. Chaque pays décide de la manière dont il entend dépenser l’argent européen, le contrôle ne se fait qu’a postériori et de manière technique. Ce sont donc des projets essentiellement nationaux que finance l’Union européenne, projets qui peuvent se contredire entre eux. Par exemple, la France et l’Allemagne ont toutes deux décidé d’utiliser les fonds européens pour développer leurs filières hydrogène. Mais les plans allemands et français sont concurrentiels puisqu’ils visent à attirer les investissements des mêmes entreprises. De même, le plan de relance français contient 10 milliards d’euros de baisse d’impôt pour les entreprises, ce qui signifie que l’Europe finance en partie la concurrence fiscale entre États membres.

La même logique de régression communautaire prévaut dans le budget européen 2021-2027 adopté au même moment. La part consacrée aux fonds de cohésion, qui visent à lutter contre les inégalités régionales a été réduite d’environ 11 %, et l’enveloppe de la politique agricole commune a été rabotée. De plus, la part des subventions agricoles allouées nationalement s’est accrue au détriment de la part européenne. Ainsi, les deux politiques emblématiques de la dimension fédérale de l’UE ont été réduites et seront pour partie nationalisée.

En fin de compte, le développement d’un nouvel outil de fédéralisme budgétaire (le plan NextGenerationUE) cache une série de régressions fédérales : le renforcement d’une supervision bureaucratique (et non politique) des budgets nationaux, l’absence de projets collectifs financés par l’argent européen, et une forme de renationalisation dans l’usage des fonds communautaires. Le grand absent de ces réformes est… le Parlement européen qui a de moins en moins son mot à dire sur la manière dont est utilisé le budget qu’il est censé contrôler. Tout se joue entre la Commission européenne, le Conseil et les gouvernements nationaux.

Le marché unique renforce les antagonismes

Du point de vue politique, le plan de relance européen ne peut engendrer qu’une série d’incompréhensions et de frustrations. Les populations des pays riches peuvent légitimement penser qu’elles sont mises à contribution des dépenses des pays d’Europe de l’Est et du Sud, tandis que les populations des pays bénéficiaires peuvent avoir le sentiment d’être prises dans un chantage à la subvention. Dans les deux cas, au lieu de renforcer les liens de solidarité entre pays contributeurs et pays bénéficiaires, ce plan tend à exacerber les tensions nationales. Il n’est donc pas surprenant de constater une hausse de l’influence électorale de l’extrême droite.

On ne peut pourtant pas comprendre l’exacerbation des rivalités nationales sans étudier la manière dont le fonctionnement de l’UE renforce les antagonismes. Dans un article de 2019, j’ai étudié les causes de la crise des dettes souveraines de 2010-2015 et j’ai montré que, contrairement au discours tenu par les dirigeants européens, l’origine de la crise n’est pas seulement la conséquence de défaillances nationales. À en croire les autorités européennes, la crise serait double. Certains pays comme l’Irlande, l’Espagne ou Chypre, n’auraient pas su encadrer leur système bancaire et financier, tandis que d’autres, la Grèce ou le Portugal, voire l’Italie, n’auraient pas su gérer leur politique budgétaire. En réponse à ce diagnostic, l’UE a créé l’Union bancaire, qui consiste à faire superviser directement des banques les plus importantes par la Banque centrale européenne et elle a renforcé le contrôle des politiques budgétaires nationales.

Le problème est que les autorités européennes ont dès le départ refusé d’envisager une seconde option, celui d’une même crise structurelle d’échelle européenne. Pour comprendre cette interprétation, il faut revenir sur les caractéristiques du marché unique européen. Sous l’impulsion décisive de Jacques Delors, la CEE a pris un tournant fondamental en 1986 avec la signature de l’Acte unique. Combiné au traité de Maastricht et mis en œuvre au cours des années 1990, ce traité a consisté à créer un grand marché européen du capital et du travail qui s’est rajouté au marché commun, qui était fondé sur la libre circulation des biens et des services.

En instaurant la libre circulation des facteurs de production, le marché unique a modifié en profondeur les équilibres économiques. Jusqu’à la fin des années 1980, chaque pays disposait de son propre système productif tout en bénéficiant d’une mise en commun de la demande européenne. Les marchandises produites nationalement pouvaient être concurrencées par celles d’autres pays, mais les États contrôlaient la manière dont elles étaient produites et pouvaient mener des politiques industrielles de manière autonome. Les marchés des capitaux et du travail étaient cloisonnés au sein des frontières nationales, ce qui faisait que l’épargne d’un pays finançait en priorité ses propres besoins d’investissement et que les entreprises ne pouvaient pas aussi facilement contourner les droits sociaux en délocalisant ou en faisant appel au détachement.

Avec l’instauration du marché unique, les facteurs de production, et non simplement les marchandises, se sont mis à circuler librement au sein de l’espace européen. L’épargne nationale peut alors financer les besoins d’investissement de n’importe quel pays européen. Les règles de la concurrence ont été renforcées afin d’interdire aux États de mener des politiques industrielles autonomes. Ces derniers ont donc été plongés dans un bain de concurrence « libre et non faussée » visant à attirer les investissements productifs. Un taux de rentabilité de 5% qui, auparavant, apparaissait suffisant pour financer la construction d’une usine, est perçu désormais comme insuffisamment profitable si les conditions de production d’un autre pays voisin permettent 7 à 8% de rentabilité. Le marché unique a ainsi mis en concurrence, non plus les marchandises, mais les systèmes productifs eux-mêmes. Cela a poussé les gouvernements européens à mener des politiques « d’attractivité » afin d’attirer les investissements. Ils se sont mis à augmenter les taux de profits en réduisant les coûts salariaux et la fiscalité pesant sur les entreprises. Certains pays comme l’Irlande et le Luxembourg, puis les Pays-Bas, Malte, Chypre, et depuis peu le Portugal, ont profité de la taille modérée de leurs économies pour pratiquer des politiques de dumping fiscal et attirer une partie des investissements sur leur territoire.

Le problème est que chaque pays ne dispose pas des mêmes atouts géographiques et historiques. On sait, depuis que l’économiste Alfred Marshall en a formulé l’idée à la fin du XIXème siècle[2], que l’industrie a tendance à s’agglomérer. En se concentrant au sein d’un territoire, les investissements industriels tendent à développer des facteurs de production territoriaux spécifiques (infrastructure de transport, main d’œuvre qualifiée, centre de formation et de recherche, etc.) qui rendent chaque entreprise plus performante. Ce développement combiné d’entreprises industrielles et de facteurs de production territoriaux produit un effet d’entrainement qui fait que les territoires les plus industrialisés sont avantagés lorsqu’ils sont mis en concurrence avec des territoires peu industrialisés. Le résultat de cette dynamique est que, à l’échelle du continent européen, la création du marché unique a eu tendance à favoriser la progression d’activité dans les pays les plus industrialisés au détriment des autres. L’industrie européenne s’est donc agglomérée autour de ses bassins industriels historiques connectés aux grands ports de la mer du Nord, eux-mêmes à l’exutoire de voies de communication efficaces. À l’inverse, les pays périphériques d’Europe du Sud et de l’Ouest, mais également la Finlande, se sont largement désindustrialisés.

Dans mon article de 2019, je montrais que c’est cette perte de substance industrielle, engendrée par la création du marché unique européen dans les années 1990, qui est la cause première des déséquilibres financiers à l’origine de la crise des dettes souveraines. En perdant leurs capacités industrielles, les pays éloignés géographiquement du cœur industriel de l’Europe ont perdu leurs capacités à exporter et sont devenus dépendants financièrement des pays du cœur.

Le tableau 1 ci-dessous montre les effets à long terme de cette dynamique de polarisation engendrée par le marché unique. On remarque que les pays qui ont le plus perdu d’emplois manufacturiers (Roumanie, Finlande, Portugal, Grèce, Bulgarie…) se situent tous en périphérie, tandis les pays dont l’industrie a été le mieux préservée se situent autour de l’Allemagne, à l’exception de l’Irlande. Pour ce pays, la dynamique locale de l’emploi est le fruit de la stratégie fiscale très agressive menée depuis des décennies.

Pays perdants

Pays intermédiaires

Pays gagnants

Roumanie (-35,9%)

Belgique (-18,4%)

Hongrie (-12,7%)

Finlande (-34,3%)

République Tchèque (-18,1%)

Allemagne (-7%)

Portugal (-32,8%)

Slovaquie (-18,1%)

Autriche (+1%)

France (-25%)

Suède (-18,1%)

Pologne (+1,2%)

Grèce (-24,1%)

Italie (-16,4%)

Irlande (+1,7%)

Bulgarie (-22,3%)

Espagne (-15,1%)

 

Tableau 1 : Évolution de l’emploi manufacturier de 2000 à 2022 (pays de plus de 5 millions d’habitants)[3]

Afin de comprendre les chiffres indiqués dans le tableau 1, il faut avoir en tête que, sur une période de plus de vingt ans, il est normal que le volume global de travail diminue dans l’industrie manufacturière. Du fait des progrès de la productivité du travail, les pays dont l’emploi industriel a diminué de moins de 15-20% ne se sont pas véritablement désindustrialisés, contrairement aux pays dont l’emploi a baissé de plus de 20% (colonne de gauche) et qui ont clairement perdu en capacités productives. Le tableau montre aussi que les effets de la géographie, même s’ils sont dominants à long terme, ne sont pas les seuls à devoir être pris en compte. Le coût horaire du travail, plus faible en Espagne (22,9€) qu’en France (41,1€), explique sans doute pourquoi ce pays s’en sort un peu mieux que la France sur le plan de l’emploi manufacturier. De même, le coût horaire du travail plus élevé en République tchèque (16,2€) qu’en Pologne (12,2€) explique pourquoi l’économie polonaise attire davantage les investissements industriels, bien que les deux pays soient situés à proximité de l’Allemagne[4]. Enfin, il est à noter que l’Autriche dispose de fleuves navigables et de canaux qui lui permettent d’accéder au Rhin et au port de Rotterdam.

Les migrations intra- et extra- européennes déstabilisent les sociétés

La réorganisation industrielle de l’Union européenne est au cœur de sa dynamique économique et financière, mais elle a aussi des effets structurels sur l’emploi et la démographie. Confrontés à la désindustrialisation, les pays d’Europe périphérique sont contraints de se spécialiser dans des activités à rendements décroissants comme le tourisme, ou de soutenir leur activité économique par le biais de la demande et de l’endettement. Même au sein des pays « gagnants », les effets de spécialisation ne sont pas symétriques. Si l’Allemagne parvient à préserver, sur son territoire, la production de biens à haute valeur ajouté et les emplois qualifiés qui vont avec, ce n’est pas le cas de la Pologne dont l’industrie tend à se spécialiser dans l’assemblage ou dans la production de composants à bas coûts.

En fin de compte, la réorganisation globale de l’économie européenne, poussée par les forces du marché, déstabilise les populations. En devenant une nation d’ouvriers travaillant dans les entreprises sous-traitantes de l’industrie allemande, les Polonais développent une conscience de classe qui se conjugue mal avec la vision éthérée de l’économie promue par les autorités européennes. De son côté, en devenant une nation d’ingénieurs, l’Allemagne attire les chercheurs et les diplômés des autres pays européens. La spécialisation économique participe à transformer les sociétés. Alors que l’Allemagne était en déclin démographique jusqu’à la fin des années 2000, son solde migratoire s’est mis à exploser dans la période récente, en faisant plus que compenser le déficit de son solde naturel. De 2010 à 2022, la population allemande a bénéficié d’un solde migratoire cumulé de plus de 6,5 millions de personnes, le plus souvent en âge de travailler et issues d’autres pays européens. Dans le même temps, d’autres pays se dépeuplent et voient partir leur jeunesse éduquée. La Roumanie a perdu plus de 2 millions d’habitants entre 2000 et 2022 du fait du solde migratoire. En Pologne, si le solde migratoire s’est stabilisé à partir de 2016, cela est dû en grande partie à l’immigration ukrainienne, qui précède l’exode déclenché par la guerre, et qui comble les besoins de l’économie en emplois peu qualifiés dans l’agriculture et l’industrie. Cette immigration récente ne peut masquer le départ toujours conséquent de la jeunesse diplômée, attirée par les salaires de l’Ouest. Quant à la Grèce, elle a payé un lourd tribut démographique à la crise économie. Son solde migratoire, excédentaire entre 2000 et 2009, est devenu déficitaire, l’amenant à perdre plus de 300 000 habitants entre 2010 et 2022[5].

Ces flux migratoires conséquents, liés à la spécialisation des économies européennes, ont nécessairement des conséquences sociales et politiques. Dans un ouvrage publié en 2017, le politologue bulgare Ivan Krastev fait le constat d’une profonde fracture entre l’est et l’ouest de l’Europe sur les questions migratoires. À l’est, le sentiment national est récent et fragile du fait de l’histoire, ces pays ayant longtemps été dominés par de vastes empires. De plus, la manière dont certains pays se vident de leurs forces vives engendre un sentiment de frustration qui nourrit la défiance et le populisme d’extrême droite. Symétriquement, un pays comme l’Allemagne, peu habitué à organiser l’intégration de ses populations migrantes, est confronté aujourd’hui à une immigration historique qui nécessiterait un financement massif de logements et d’infrastructures publiques dans ses principaux centres urbains. Mais empêché par des règles budgétaires très strictes, le niveau d’investissement de l’économie allemande est très loin d’être suffisant, ce qui entraine une dégradation des services publics et une pénurie de logements qui pèse sur l’ensemble de la population allemande et contribue au succès de l’Afd.

Un échec économique global qui alimente le populisme d’extrême droite

Quel que soit le résultat des élections européennes de juin prochain, on ne peut que faire le constat de l’essoufflement du modèle économique de l’UE. Lorsque, dans les années 1980 et 1990, les autorités européennes décidèrent de rompre avec certaines caractéristiques héritées de l’après-guerre (le tarif extérieur commun, la politique des prix garantis dans l’agriculture, la préservation des services publics…) pour adhérer pleinement aux principes du « Consensus de Washington » et créer un vaste marché autour de la monnaie unique, ils ont créé des institutions durables qui ont largement transformé le continent. Les systèmes sociaux et fiscaux ont été brutalement mis en concurrence et les gouvernements nationaux ont perdu les capacités d’orienter leurs économies nationales. Cela a engendré, dans l’ensemble des pays européens, une profonde frustration démocratique qui détruit peu à peu la légitimité de leurs institutions.

Ces derniers mois, l’échec du modèle économique européen est devenu patent. La crise de l’énergie et du marché européen de l’électricité ont mis à jour les limites du management par la concurrence et la croyance infaillible dans la vérité du prix de marché ; la crise inflationniste a elle démontré que la monnaie unique est loin de garantir la stabilité des prix, contrairement à ce que proclament les traités européens ; la rivalité entre la Chine et l’Occident, et le tournant protectionniste pris par les États-Unis montre que la stratégie libre-échangiste de l’UE est de plus en décalage avec la réalité du monde ; enfin, la guerre en Ukraine et l’incapacité des pays européens à approvisionner l’armée ukrainienne en munitions montre les limites de son industrie et sa faible capacité à se réorganiser.

Fille ainée du néolibéralisme, l’UE a bâti un modèle non pas sur des principes de solidarité et de coopération, mais sur la concurrence, le libre-échange et la libre circulation du capital. Ce modèle déstabilise les populations et les sociétés, mais il a surtout démontré qu’il est peu efficace pour produire des richesses.  Le fait d’avoir confié la gestion de l’économie aux marchés plutôt qu’aux responsables politiques s’avère être une erreur stratégique. Dans une récente chronique au Monde, le journaliste Arnaud Leparmentier constate que l’écart entre les économies européennes et américaine n’avait cessé de se creuser au cours des dernières années, à tel point que le niveau de vie moyen au États-Unis est désormais 80% supérieur à ce qu’il est au sein de la zone euro. Le gouvernement américain est d’ailleurs en train de réorienter profondément le modèle économique des États-Unis en remettant l’État au centre du jeu. Les dépenses publiques augmentent, quitte à laisser filer les déficits, et cela fonctionne ! Au troisième trimestre 2023, la croissance de l’économie américaine s’est montée à 4,9%, tandis que le chômage n’est qu’à 3,7%. La Réserve fédérale annonce le retour d’une politique de baisse des taux d’intérêt.

Pendant ce temps, l’UE, dont la croissance est atone et où l’extrême droite menace, est confrontée à un choix fondamental. Soit elle transforme son modèle et accepte de remettre en question ses dogmes néolibéraux… soit elle prend le risque d’être bientôt gouvernée par l’extrême droit

 

Références

[1] Source : « RRF: Update of the maximum financial contribution », Commission européenne, 30 juin 2022 et Eurostat (pour le PIB). Calculs de l’auteur.

[2] Alfred Marshal, Principes d’économie politique, édition numérique, 1890 [1906].

[3] Source : Eurostat. Consulté le 4 janvier 2024. Les pays de faible population ont été écartés du fait de leur sensibilité à des variations ponctuelles d’emploi.

[4] Notons également que la Pologne, contrairement à la République Tchèque, dispose d’un accès direct à la mer du Nord. Source pour les coûts horaires du travail : Insee Référence, Emploi, chômage, revenus du travail, Édition 2023, INSEE, 2023.

[5] Source : Eurostat. Consulté le 4/01/2024.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

A lire aussi…

L’hégémonie américaine est loin d’être terminée

Affaiblie par le trumpisme, contestée par l’alliance stratégique nouée entre la Chine et la Russie, la diplomatie américaine semble de moins en moins dominante et capable de maintenir la pax americana. Cette faiblesse diplomatique démontre-t-elle que l’hégémonie des États-Unis prend fin et que le XXIe siècle verra l’avènement d’une nouvelle hiérarchie mondiale ? Dans sa chronique mensuelle, David Cayla estime que, sur le plan économique, rien ne permet d’affirmer que l’hégémonie américaine soit menacée.

Lire la suite »

Peut-on financer la transition écologique par l’émission de monnaie « sans dette » ?

Un certain nombre de personnalités et d’économistes affirme que les montants faramineux nécessaires pour organiser la transition écologique pourraient être payés sans coût en instaurant un mécanisme de création d’une monnaie « libre », sans endettement. Dans sa chronique mensuelle, David Cayla conteste cette solution et met en garde la gauche contre les promesses illusoires qui entendent nier le coût pour les ménages du financement de la transition.

Lire la suite »

Comment les prix de l’énergie sont devenus fous

Dans son dernier ouvrage sorti le 6 octobre dernier, Aurélien Bernier brosse le portrait d’une crise énergétique, conséquence non de l’invasion russe de l’Ukraine, mais bien de l’aveuglement et du dogmatisme de nos classes dirigeantes, lesquelles n’ont eu de cesse de détruire le service public de l’énergie au nom de la libéralisation, du marché unique et de la concurrence libre et non faussée. Le résultat est que les Européens disposent d’un système de production et de distribution de l’énergie coûteux, opaque et inefficace.

Lire la suite »

Lire aussi...

L’hégémonie américaine est loin d’être terminée

Chronique

L’hégémonie américaine est loin d’être terminée

Affaiblie par le trumpisme, contestée par l’alliance stratégique nouée entre la Chine et la Russie, la diplomatie américaine semble de moins en moins dominante et capable de maintenir la pax americana. Cette faiblesse diplomatique démontre-t-elle que l’hégémonie des États-Unis prend fin et que le XXIe siècle verra l’avènement d’une nouvelle hiérarchie mondiale ? Dans sa chronique mensuelle, David Cayla estime que, sur le plan économique, rien ne permet d’affirmer que l’hégémonie américaine soit menacée.

En publiant Après l’empire en 2002, Emmanuel Todd annonçait la « décomposition » du système américain. Selon lui, l’agressivité montrée par Washington à la suite des attentats du 11 septembre 2001 et les invasions successives de l’Afghanistan et de l’Irak ne reflétaient pas l’hyperpuissance des États-Unis, mais sa fragilité. Les causes de cette fragilité ? L’émergence de rivaux stratégiques tels que la Chine, la Russie, voire l’Union européenne que Todd estimait alors en voie d’émancipation ; les difficultés de plus en plus importantes que rencontraient les États-Unis pour rester les « gendarmes du monde » ; une économie désindustrialisée et dépendante de ses importations en produits manufacturés ; et enfin l’exacerbation de tensions sociales et raciales qui menaçait les fondements démocratiques de la première puissance mondiale. Todd pronostiquait que le monde s’harmoniserait et se passerait progressivement de la tutelle américaine du fait de la transition démographique et de l’alphabétisation généralisée. Après une phase de transition susceptible d’accentuer les conflits, le XXIe siècle pourrait s’avérer plus pacifiste et l’hégémonie américaine devenir obsolète.

Plus de vingt ans ont passé depuis la sortie de cet ouvrage et le moins qu’on puisse dire est que l’idée d’un affaiblissement de l’hégémonie américaine fait toujours l’actualité. Entretemps, une crise économique et financière d’une ampleur exceptionnelle a ravagé Wall Street, Donald Trump a été élu, le Capitole fut envahi par des émeutiers d’extrême droite, les États-Unis se sont retirés d’Irak et d’Afghanistan sans être parvenus à atteindre leurs objectifs politiques, et la balance commerciale américaine continue d’afficher un profond déficit. Sur le plan international, la situation n’est guère meilleure pour le « gendarme du monde ». Les conflits en Ukraine et au Proche-Orient démontrent l’impuissance de Washington à enrayer l’agressivité de ses rivaux (la Russie) comme celle de ses alliés (Israël).

Pour la plupart des observateurs, les États-Unis seraient en train de vivre au XXIe siècle ce que les Britanniques ont vécu au XXe. Après avoir régné sur le monde en profitant de son avance industrielle, le Royaume-Uni était entré dans une phase de déclin au début du XXe siècle, passant le flambeau du leadership mondial aux Américains. Si l’histoire se répète, deux scénarios sont possibles. Soit une autre puissance telle que la Chine, l’Inde, voire l’Union européenne devient le prochain hégémon, soit aucune puissance ne se détache et le monde entrera alors dans une phase multipolaire de puissances rivales. Récemment, un troisième scénario a été proposé, celui d’une nouvelle guerre froide entre le « Sud global » (qui inclut la Chine, l’Inde, la Russie, le Brésil, l’Iran…) et les pays occidentaux au sens large (Amérique du Nord, Europe non russe, Japon, Corée du Sud, Australie et Nouvelle Zélande).

Tous ces scénarios reposent sur un postulat qui n’est jamais démontré tant il apparaît évident : la fin de l’hégémonie américaine.

Le monde est-il vraiment en train de se dédollariser ?

Il est vrai que sur le plan économique, la puissance américaine semble en déclin, du moins relativement aux autres pays. En 1970, le PIB américain représentait près du tiers du PIB mondial (31,4%). Cinquante et un an plus tard, en 2021, il n’en représentait plus que 24,1%[1]. Signe de ce déclin, de plus en plus de pays tendent à se passer du dollar dans leurs transactions commerciales, soit parce qu’ils y sont contraints du fait des sanctions (Russie, Iran…), soit pour des raisons politiques et diplomatiques. Même des alliés historiques de Washington comme l’Egypte et l’Arabie Saoudite souhaitent abandonner le dollar pour commercer entre eux. De son côté, la Chine fait tout pour développer son autonomie commerciale en finançant et en rachetant, dans le cadre des Nouvelles routes de la soie, des infrastructures portuaires et ferroviaires, créant ainsi à son avantage de nouvelles dépendances dans les pays en voie de développement…  ainsi que dans quelques pays européens.

Ce processus de dédollarisation est-il amené à s’étendre et reflète-t-il la fin de l’hégémonie américaine ? Pour répondre à cette question il convient de rappeler que la monnaie a plusieurs usages. Elle peut être utilisée comme moyen de paiement, mais elle peut aussi servir de réserve de valeurs via l’achat d’actifs financiers. Or, si le dollar est un peu moins utilisé comme moyen d’échange, cela n’implique pas nécessairement que son poids dans les réserves de change diminue. Au deuxième trimestre 2023, les actifs libellés en dollar représentaient près de 60% des réserves de change des banques centrales selon le FMI. Une part qui s’est érodée en vingt ans puisque le dollar représentait un peu plus de 70% des réserves de change en 1999. La monnaie américaine reste donc hégémonique dans les réserves. En comparaison, l’euro n’en représente qu’environ 20% alors que l’UE est la première puissance commerciale mondiale. Quant au renminbi chinois sa part n’est que de 2,45% et elle a eu plutôt tendance à décliner dans la dernière période.

Autrement dit, même si le dollar est moins présent dans les échanges internationaux (il est tout de même utilisé dans un peu plus de 40% des transactions internationales) il continue d’être privilégié pour l’épargne. Il y a deux raisons à cela. La première est que Wall Street reste, de loin, la première place financière au monde. La force de la finance américaine vient du fait que son économie s’endette massivement et peut donc proposer un volume d’actifs financiers très attractif, avec des taux d’intérêt souvent plus élevés qu’en Europe. La seconde raison pour laquelle les épargnants préfèrent acheter des actifs en dollars est que les États-Unis sont un État de droit où l’investisseur est plus protégé qu’ailleurs, en particulier en comparaison de pays où le droit a tendance à se plier aux injonctions politiques, comme en Chine ou en Russie.

Une économie américaine fortement désindustrialisée

En matière économique et industrielle peut-on dire que les États-Unis sont en déclin ? Dans son ouvrage, Emmanuel Todd soulignait son considérable affaiblissement industriel. Sur ce point, le diagnostic est incontestable. Le secteur manufacturier américain représente moins de 12% du PIB et moins de 10% de l’emploi total, ce qui fait des États-Unis l’un des pays les plus désindustrialisés au monde (graphique 1).

Graphique 1 : Évolution de l’emploi du secteur manufacturier aux États-Unis (2000-2023).

Plusieurs conséquences découlent de cette sous-industrialisation. La première est le déficit de la balance des biens qui caractérise l’économie américaine depuis plus de cinquante ans et qui représente aujourd’hui entre 4 et 5% de son PIB. Ce déficit est problématique, car il signifie que la première puissance mondiale est dépendante du reste du monde pour une grande partie de ses biens de consommation et de production. Il implique aussi une dépendance financière puisque, chaque année, les Américains doivent s’endetter pour financer leurs besoins de consommation. Autre conséquence délétère, les problèmes sociaux et politiques entrainés par la perte d’emplois qui étaient souvent plus stables et mieux rémunérés que la moyenne. Le succès de Trump dans les États anciennement industrialisés de la région des Grands lacs en témoigne[2]. Enfin cette désindustrialisation handicape les États-Unis dans la mise en œuvre de la transition écologique. Il faudrait que les industriels puissent investir dans des équipements décarbonés, mais cela suppose qu’ils en aient les moyens, ce qui est loin d’être évident compte-tenu de leur affaiblissement général.

Le déclin industriel américain ressemble à celui qui a touché le Royaume-Uni à la fin du XIXe siècle. Il convient cependant de le relativiser. D’abord, parce que même avec 11% du PIB, le secteur manufacturier américain représente un volume d’activité respectivement 3,8 et 3,3 fois plus important que celui de l’Allemagne et du Japon. Seule la Chine, ou la zone euro dans son ensemble, pourraient rivaliser avec la puissance de l’industrie américaine[3]. Par ailleurs, comme le montre le graphique 1, la baisse de l’emploi manufacturier semble enrayée depuis la crise de 2009. C’est sans doute le fruit des pratiques commerciales protectionnistes et d’une politique industrielle plus ambitieuse portée par Washington.

Une avance technologique et scientifique qui s’est renforcée

Ce qui fait la force de l’économie américaine n’est pas la résilience partielle de son industrie, mais plutôt sa capacité à maintenir un écart conséquent avec le reste du monde dans les secteurs les plus avancés sur le plan technologique. Chaque année, près d’un million d’étudiants, parmi les plus brillants, partent étudier aux États-Unis. D’autres obtiennent un permis de travail et s’installent définitivement. Cette émigration concerne plus particulièrement les hauts diplômes et s’affirme davantage dans les secteurs scientifiques et technologiques, à tel point que, dans les domaines des sciences dures et de l’ingénierie, près de la moitié des contrats postdoctoraux américains sont occupés par des étrangers. Les autorités américaines pratiquent de longue date une politique d’immigration choisie qui draine les meilleurs cerveaux.  Conséquence de cette politique, le nombre de travailleurs étrangers travaillant dans les secteurs technologiques (STEM[4]) a plus que doublé en 20 ans, passant de 1,2 millions en 2000 à 2,5 millions en 2019. Les travailleurs d’origine étrangère représentent désormais 23,1% de la force de travail dans les STEM, contre 16,4% en 2000.

Ces dernières décennies, ce sont des États-Unis qu’ont émergé les sociétés les plus innovantes. C’est vrai dans la pharmacie (Pfizer et Moderna), dans le domaine spatial (Blue Origin, SpaceX), dans l’intelligence artificielle (Open AI, Deepmind) et même dans la voiture électrique (Tesla). Le territoire américain accueille les sièges sociaux de presque tous les géants du numérique. C’est le cas des GAFAM (Google, Apple, Facebook, Amazon, Microsoft), mais aussi des sociétés qui ont émergé plus récemment telles que Netflix, Uber, Airbnb ou Zoom. En fait, lors des deux dernières décennies, les batailles dans le secteur numérique ont pratiquement toutes été remportées par des sociétés américaines. Microsoft a conjuré les menaces de Libre Office et de Linux, Apple a pris la place de Nokia comme entreprise leader de la téléphonie mobile, YouTube a balayé Dailymotion, Google s’est imposé comme la référence des moteurs de recherche, la Fnac n’a pas résisté face à Amazon. Quelques rares entreprises européennes ont subsisté comme Spotify ou Booking ; mais il s’agit d’exceptions et ce sont pour la plupart des sociétés relativement anciennes. Enfin, les États-Unis dominent plus que jamais le secteur culturel. Les séries, les films et les franchises américaines de type Marvel se partagent les écrans, et on ne peut que constater que les stars de la musique qui ont émergé depuis le début des années 2000 (Lana Del Rey, Taylor Swift, Beyoncé, Billie Eilish …), sont la plupart du temps originaires d’outre-Atlantique. Même la pop anglaise a pratiquement disparu des classements mondiaux d’écoute musicale, ce qui était loin d’être le cas, ne serait-ce que dans les années 1990[5].

À la fin du XIXe siècle, l’une des difficultés rencontrées par les Britanniques était qu’ils ne parvenaient pas à s’imposer dans les technologies de la deuxième révolution industrielle : les appareils électriques, la chimie, l’automobile. Aujourd’hui, on ne peut que constater que l’économie américaine s’est parfaitement adaptée au tournant technologique du XXIe siècle et on ne voit pas quel pays pourrait lui contester la suprématie dans ces secteurs.

Ainsi, même si elle est devenue moins industrielle, l’économie américaine parvient à compenser ce handicap en dégageant d’importants revenus dans les secteurs numérique et culturel. Le déficit commercial de la balance des biens est de ce fait en partie compensé par d’importants excédents dans la balance des services et des revenus primaires (graphique 2). Ces revenus sont clairement la conséquence des rentes numériques et des droits de propriété intellectuelle générés par les investissements dans les activités technologiques, la culture et le numérique. Notons qu’une partie de ces revenus ne sont pas rapatriés pour des raisons fiscales. On peut donc penser que les revenus réels sont supérieurs à ce qu’indiquent les chiffres officiels.

Graphique 2 : Évolution de la balance courante des États-Unis en pourcentage du PIB (1989-2022)

Un dynamisme démographique et économique incontestable

Pour terminer l’état des lieux de la puissance américaine il convient d’étudier une dernière composante indispensable à la perpétuation d’un hégémon : la dynamique démographique. À première vue, on pourrait croire que la démographie étatsunienne pèse peu par rapport à celle de la Chine. Comment 340 millions d’Américains pourraient durablement dominer une Chine de 1,4 milliards d’habitants et rester hégémoniques sur une planète où vivront bientôt 9 milliards d’êtres humains ? C’est très simple. La population américaine croît rapidement. Ces vingt dernières années, elle a augmenté de 50 millions d’habitants, en grande partie grâce à l’immigration. Sur cette même période, la Russie a vu sa population légèrement décliner ; un déclin démographique qui pourrait s’accélérer à l’avenir en raison d’un indice de fécondité d’environ 1,5 enfants par femme. En Chine, la politique de l’enfant unique a, depuis plusieurs décennies, fortement réduit l’indice de fécondité à un niveau qui ne permet plus de renouveler les générations. La population chinoise en âge de travailler, qui est déjà en train de décroître, devrait être inférieure de 220 millions en 2050 par rapport à ce qu’elle est aujourd’hui d’après l’INED. À cette date, la population des États-Unis devrait approcher les 400 millions.

Alors que, en cette fin d’année 2023, la zone euro entre en récession et que la plupart des pays développés décrochent depuis 20 ans en termes de richesse par habitant par rapport aux États-Unis (graphique 3) la question à se poser ne devrait pas être celle du déclin de l’empire américain, mais plutôt celle de savoir pourquoi l’Europe, dans son ensemble, s’avère incapable d’afficher un dynamisme économique comparable à celui des États-Unis, et de comprendre pourquoi le PIB par habitant de la zone euro y est presque deux fois plus faible[6]. En octobre dernier le Financial Time le constatait crument : « l’avance de l’économie américaine sur celle de l’Europe […] devrait perdurer en 2024 et au-delà ». Autrement dit, l’hégémonie américaine est loin d’être terminée.

Graphique 3 : Évolution du PIB par habitant en parité de pouvoir d’achat (PPA) des principaux pays développés.

David Cayla

Références

[1] Source : Statistiques de l’ONU. PIB à prix courants, en dollars.

[2] La question sociale et le niveau extrêmement élevé des inégalités eux États-Unis pose naturellement la question de la permanence de la démocratie aux États-Unis que Todd soulevait dans son ouvrage. Il est néanmoins difficile de la traiter dans le cadre de cet article. Notons tout de même qu’en cas de réélection de Donald Trump, la stabilité de la société américaine et donc sa capacité à préserver son hégémonie pourraient être menacées.

[3] Le secteur manufacturier américain représente 11% d’un PIB de 25 460 milliards de dollars, soit une production de valeur ajoutée annuelle de 2800 milliards de dollars. En comparaison l’industrie allemande dans son ensemble représente 733 milliards de dollars, celle du Japon 846 milliards et celle de la Chine 5029 milliards. Ajoutons que le niveau technologique de la production industrielle chinoise est très inférieur à celui des trois précédents. Source : Banque mondiale : https://data.worldbank.org/indicator

[4] STEM est l’acronyme pour « science, technology, engineering, and mathematics ».

[5] On ne trouve aucun artiste européen dans le classement Spotify 2023 des dix artistes les plus écoutés sur la plateforme. Deux sont canadiens, deux sont colombiens, un est mexicain. Les cinq autres sont tous originaires des États-Unis.

[6] D’après la Banque mondiale, le PIB par habitant de la zone euro était de 40 755$ en 2022, contre 76 399$ pour les États-Unis. Autrement dit, un Américain bénéficie en moyenne d’un revenu annuel supérieur de 87% à celui d’un habitant de la zone euro. Évalué en parité de pouvoir d’achat pour supprimer les effets du taux de change, cet écart diminue à 35%.

Lire aussi...

La dérive machiste des Passport Bros
Anticor souhaite renforcer l’éthique dans les institutions européennes
Maryse Condé, un monument littéraire s’en est allé
Des trains bientôt moins chers avec Kevin Speed ?

Peut-on financer la transition écologique par l’émission de monnaie « sans dette » ?

Chronique

Peut-on financer la transition écologique par l’émission de monnaie « sans dette » ?

Un certain nombre de personnalités et d’économistes affirme que les montants faramineux nécessaires pour organiser la transition écologique pourraient être payés sans coût en instaurant un mécanisme de création d’une monnaie « libre », sans endettement. Dans sa chronique mensuelle, David Cayla conteste cette solution et met en garde la gauche contre les promesses illusoires qui entendent nier le coût pour les ménages du financement de la transition.

En février 2021, en pleine pandémie de Covid, 150 économistes et personnalités européennes, dont Thomas Piketty et l’ancien ministre belge Paul Magnette, signaient une tribune dans Le Monde ainsi que dans d’autres journaux pour demander à la BCE d’annuler la part de la dette publique qu’elle détenait en échange d’un montant similaire d’investissements « dans la reconstruction écologique et sociale ». La proposition avait tournée court, Christine Lagarde ayant répondu dès le lendemain qu’une telle mesure était « inenvisageable » et qu’elle violerait les traités européens.

Savoir si annuler la dette publique détenue par la BCE est contraire ou non aux traités est une question à laquelle il est difficile de répondre tant que les autorités compétentes (en l’occurrence la Cour de justice de l’Union européenne) ne l’ont pas tranchée. Ce qui est certain, en revanche, c’est que les traités garantissent à la BCE une parfaite indépendance dans l’application d’un mandat dont l’élément principal est la stabilité des prix. De ce fait, lorsque l’inflation en zone euro a franchi la barre des 2% au cours de l’été 2021, il n’était plus du tout question d’exiger de la BCE d’assouplir sa politique monétaire.

Le reflux de l’inflation qu’on constate depuis quelques mois pourrait-il être l’occasion de relancer ce débat ? Cela semble être le cas puisque plusieurs voix se sont faites à nouveau entendre récemment à ce sujet.

Interrogé lors de la matinale de France Inter le 19 octobre dernier à l’occasion de la sortie de son dernier ouvrage, le banquier d’affaire Matthieu Pigasse estime par exemple que la seule manière de répondre aux besoins sociaux et écologiques serait « de faire plus de création monétaire ».

« Une part très importante de la dette publique française, de l’ordre d’un tiers, est détenue par la BCE et la Banque de France. Cette dette pourrait très facilement être annulée sans aucun effet négatif économique ou financier. […] On peut créer plus de monnaie pour financer les grands programmes d’investissement, pour la transition énergétique, pour le climat ou pour construire des écoles ou des hôpitaux d’une part, et d’autre part pour distribuer un revenu minimum. C’est ce qui a été fait pendant la crise du COVID. Le fameux ‘‘quoi qu’il en coûte’’, les centaines de milliards qui ont été versés sur l’économie française l’ont été en réalité non par de la dette mais par de la création monétaire. »

Quelques jours plus tard, dans une chronique publiée par Le Monde, l’économiste Jézabel Couppey-Soubeyran, cosignataire de la tribune de 2021 renchérissait dans la même logique en citant justement Pigasse. Comment faire pour financer les investissements non rentables de la transition écologique tels que la collecte des déchets océaniques ou la création de réserves de biodiversité, s’interroge-t-elle ? Le creusement de la dette ou la hausse de la fiscalité n’étant selon elle pas possible, « c’est donc vers une forme nouvelle de création monétaire, sans dette, qu’il faut se tourner pour financer l’indispensable non rentable ».

Le raisonnement est similaire, enfin, pour Nicolas Dufrêne, fonctionnaire à l’Assemblé nationale et directeur de l’Institut Rousseau, également cité par Couppey-Soubeyran. Dans La Dette au XXIe siècle. Comment s’en libérer (Odile Jacob), il dénonce « le discours parfois dogmatique de la gauche selon lequel il est nécessaire de taxer les riches et les entreprises pour faire du social » (p. 175). Dufrêne estime également que creuser la dette publique serait insoutenable, puisque la charge de la dette pourrait, selon lui, dépasser les 100 milliards d’euros à l’horizon 2030 (p. 44), on comprend assez vite qu’il faut trouver d’autres moyens pour financer la transition écologique et le bien être social. Et pour ce faire, la « solution » est simple : créer de la monnaie et annuler les dettes publiques détenues par la BCE. En effet, pour Dufrêne, « l’annulation est indolore » et permettrait de mettre en œuvre un « plan d’investissement gratuit » (p. 189).

De l’argent magique à l’économie magique

La lecture du livre de Dufrêne est édifiante. Son auteur est manifestement persuadé d’avoir trouvé la martingale économique ultime. Les conservateurs qui critiquent son idée seraient des esprits étroits, incapables de penser « en dehors du cadre ». « La monnaie est une institution sociale, elle est donc un peu ‘‘magique’’ par nature puisqu’elle repose sur la confiance du corps social et non sur des limites physique » écrit-il (p. 178). Dès lors, il suffirait de « permettre au Parlement de décider d’une introduction régulière d’une certaine somme de monnaie libre de dette de manière ciblée sur des tâches d’intérêt général » pour « redonner ses lettres de noblesse à la politique économique » (p. 179). « Soyons audacieux » s’enflamme-t-il plus loin dans la même page : « À terme, il ne serait pas impossible d’imaginer une complète disparition de l’impôt comme moyen de financer les dépenses publiques ».

Mazette ! La logique est imparable. Puisque la création monétaire est susceptible de financer tout ce dont nous avons besoin, et puisqu’on peut créer de la monnaie sans limite et autant qu’on le juge nécessaire, alors laissons le Parlement financer tout ce dont rêve la gauche.

« Une fois le mécanisme rodé, il pourra monter en puissance et prendre une part plus importante dans le financement des dépenses publiques, voire des dépenses sociales. Il pourra alors servir de socle à des projets ambitieux dont la simple évocation se heurte pour l’instant à des considérations insurmontables, au regard de leur coût potentiel sur les finances publiques : un revenu universel, une garantie d’emploi généralisé, une sécurité sociale de l’alimentation permettant à chacun de se nourrir de produits bio, une protection généralisée des biens communs à l’échelle nationale, voire mondiale » (p. 180).

Dans la logique de la « monnaie libre » telle qu’elle est imaginée par Dufrêne, les contraintes de financement n’existent pas et l’impôt n’est donc plus nécessaire. On peut ainsi tout avoir sans payer. « Il s’agit de passer d’une vision où l’on considère que les finances publiques ne sont qu’un moyen de mettre en commun et de répartir les richesses créées par l’activité des citoyens et des entreprises à une vision où les finances publiques deviennent l’un des moteurs de la création de cette richesse, sans avoir à piocher dans la richesse créée par les citoyens et les entreprises » (p. 180). « Notre proposition de monnaie libre revient à donner à l’État, c’est-à-dire à la collectivité, les moyens de s’en sortir par elle-même, sans avoir à contraindre qui que ce soit, du moins par (sic !) pour des raisons tenant à l’obligation de financement des dépenses publiques » (p. 182).

Le rêve et la réalité

Arrivé à ce stade du raisonnement, le lecteur bien intentionné ne peut être que perplexe. Il serait donc possible de financer des centaines de milliards d’euros d’investissement sans que cela ne coûte rien à personne ? Sans travailler davantage et sans réduire ses revenus ? Par le simple mécanisme de la création monétaire ? Si c’était vrai et si les économistes le savaient, alors ce serait un véritable scandale. Le plus étrange dans cette affaire est que ce soit un non-économiste qui révèle le pot-au-rose. La conjuration des économistes aurait-elle empêché l’humanité de se libérer de la dette de manière définitive alors que la solution était évidente ? Émettre de la « monnaie sans dette », de la « monnaie libre ». Avec un peu de chance on, pourrait même se passer de travail puisque l’argent, qu’on peut créer de manière illimitée, travaillerait pour nous.

Revenons sur terre. Et pour cela, revoyons quelques bases concernant le fonctionnement de l’économie.

La première chose qu’il faut dire c’est que la monnaie n’est pas de la richesse. En économie, on peut raisonner à plusieurs niveaux en étudiant les flux « monétaires », les flux « financiers » ou les flux « réels ». Les flux réels sont constitués des biens et des services que nous produisons et que nous échangeons. C’est ce qu’on appelle la richesse. Quant à la monnaie, elle représente et elle quantifie la richesse, mais elle n’en est pas elle-même. En effet, elle n’a de valeur que dans la mesure où elle peut être convertie en richesses réelles. On peut ainsi observer que dans une transaction marchande classique il y a bien deux flux de nature différente. Un flux « réel » qui va du vendeur vers l’acheteur (c’est la marchandise), et un flux monétaire qui va lui de l’acheteur vers le vendeur.

Pour appréhender les conséquences de cette représentation, il suffit de revenir aux propos cités plus haut. Pourrait-on, en créant de la monnaie « libre », instaurer « une sécurité sociale de l’alimentation permettant à chacun de se nourrir de produits bio » ? Si l’on a une vision naïve de l’économie, on pourrait croire qu’en donnant suffisamment de monnaie aux consommateurs, ces derniers pourraient acheter une quantité potentiellement illimitée de produits bios. Le problème est qu’on ne peut acheter avec de la monnaie que des biens qui ont été produits dans la sphère réelle. Or, pour produire des aliments bios il faut des terres, des agriculteurs et du travail.

D’après une étude du ministère de l’agriculture, les rendements par hectare de l’agriculture biologique sont entre 28 et 57% inférieurs à ceux de l’agriculture conventionnelle. Cela signifie qu’en convertissant en bio l’ensemble des surfaces cultivées, la France diminuerait de plus d’un tiers sa production agricole. Donc sauf à recourir massivement à des importations, on ne pourra pas nourrir tout le monde. Comment la création monétaire pourrait-elle résoudre ce problème ? La réponse est simple : elle ne le peut pas.

Ni l’économie ni la monnaie ne sont « magiques ». Tout ce qui est vendu et consommé est nécessairement le résultat d’une transformation productive. Cette transformation a un coût « réel ». Le travail, le temps, les matières premières, les ressources qui ont été nécessaires à la production. Si les produits bios sont plus chers en monnaie que les produits de l’agriculture conventionnelle, c’est pour une raison qui tient à la sphère réelle. C’est tout simplement parce que pour produire une tomate bio il faut plus de terre et de travail que pour produire une tomate conventionnelle.

Au XVIe siècle, les élites espagnoles avaient une vision bullioniste de l’économie. Elles pensaient que la richesse d’une nation était strictement dépendante des quantités d’or et d’argent qu’elle détenait. C’est pour cela que les colonies espagnoles du Nouveau monde avaient pour principal objectif d’exploiter les mines d’or et d’argent qui s’y trouvaient. Pourtant, en dépit des flux de métaux précieux considérables qui se déversèrent sur l’Espagne à cette époque, le pays s’est globalement appauvri durant la période coloniale.

Le coût réel de l’investissement

Dans une économie, la richesse réelle a différents usages. Elle peut être consommée ou investie. Lorsqu’elle est consommée, elle est utilisée par les ménages au profit de leur propre bien-être. Lorsqu’elle est investie, elle est utilisée par l’État et les entreprises principalement pour améliorer le moyens de production, les bâtiments et les infrastructures productives.

D’un point de vue formel on peut résumer l’économie à cette équation simplifiée :

PIB = Consommation + Investissement

Dans toute société, un arbitrage existe entre consommer et investir. En termes réels, ce choix se traduit de la manière suivante : soit on investit des ressources, du travail et du temps pour produire des machines et des bâtiments productifs, soit on décide que ces ressources et ce temps doivent être consacrés à la consommation. À moins de penser que les ressources naturelles et le temps de travail soient illimités, ce qui est absurde, on ne peut pas à la fois augmenter l’investissement et la consommation. De fait, augmenter la masse monétaire ne changera pas les données de cette équation. Si vous avez une main d’œuvre, vous pouvez soit lui faire produire des biens de consommation, soit lui faire produire des biens de production. Mais vous ne pouvez pas créer ex nihilo de nouveaux travailleurs, pas plus que vous ne pouvez faire apparaitre du pétrole et des terres cultivables.

On sait que la transition écologique va nécessiter un énorme effort collectif d’investissement. Concrètement, cela signifie qu’il va falloir rénover notre parc de logements, construire de nouvelles voies de chemin de fer, décarboner notre système énergétique. Il faudra changer presque tous nos véhicules, remplacer nos centrales électriques à gaz et à charbon, produire de l’acier sans charbon… Tout cela aura un coût réel considérable. Des millions d’emplois devront être consacrés à construire concrètement ces investissements. Des ressources énergétiques et des matières premières devront être orientées à cet usage. Le problème est que toutes les ressources qui seront consacrées à produire davantage de biens d’investissements ne pourront être utilisées pour produire des biens de consommation. Autrement dit, pour organiser la transition écologique il va falloir réorienter notre économie vers plus d’investissement et moins de consommation.

À partir de là, deux scénarios sont possibles. Si l’on est optimiste, on peut se dire que la croissance suffira à rendre indolore la transition écologique pour les ménages. Cela suppose que la croissance du PIB soit entièrement consacrée à augmenter l’investissement sans prélever sur la consommation des ménages. Le problème est que, dans ce cas, le rythme de la transition sera dépendant du niveau de croissance économique. Or, celle-ci n’est pas assurée. Aussi, le scénario le plus réaliste et le plus responsable serait de ne pas trop compter sur la croissance. Dans ce cas, pour s’assurer que les investissements soient réalisés le plus rapidement possible, il faudra réorienter des ressources productives de la consommation vers l’investissement. Cela se traduira, sur le plan monétaire, par une baisse des revenus et du pouvoir d’achat des ménages.

Aucune solution magique n’existe pour résoudre les paramètres de cette équation. La transition écologique sera d’autant plus rapide et efficacement mise en œuvre que le pouvoir d’achat des ménages sera globalement réduit. Ainsi, la seule manière d’organiser politiquement cette réduction et d’y introduire un minimum de justice sociale sera de faire en sorte que les ménages les plus aisés supportent l’essentiel de cette baisse. Et la façon la plus simple de baisser le pouvoir d’achat des catégories aisées c’est encore par la fiscalité. Pardon de tenir un « discours dogmatique », mais promouvoir de fausses solutions aux naïfs est encore le moyen le plus sûr de ne jamais organiser une transition écologique ambitieuse.

Lire aussi...

La dérive machiste des Passport Bros
Anticor souhaite renforcer l’éthique dans les institutions européennes
Maryse Condé, un monument littéraire s’en est allé
Des trains bientôt moins chers avec Kevin Speed ?

Comment les prix de l’énergie sont devenus fous

Chronique

Comment les prix de l’énergie sont devenus fous

Dans son dernier ouvrage sorti le 6 octobre dernier, Aurélien Bernier brosse le portrait d’une crise énergétique, conséquence non de l’invasion russe de l’Ukraine, mais bien de l’aveuglement et du dogmatisme de nos classes dirigeantes, lesquelles n’ont eu de cesse de détruire le service public de l’énergie au nom de la libéralisation, du marché unique et de la concurrence libre et non faussée. Le résultat est que les Européens disposent d’un système de production et de distribution de l’énergie coûteux, opaque et inefficace.

Le 4 octobre dernier, le gouvernement allemand annonçait un nouveau recul de ses objectifs climatiques en renonçant provisoirement à fermer ses centrales au lignite (un type de charbon très polluant). L’argument avancé était que cette réserve de production d’électricité devait pouvoir être activée en cas de pic de consommation afin « d’économiser du gaz dans la production ». Mais le plus important était surtout que le gouvernement allemand espérait que cette décision permette de maintenir un prix de l’électricité bas pendant l’hiver. Il faut dire que depuis l’invasion russe de l’Ukraine, le gaz importé coûte beaucoup plus cher, en particulier parce qu’il ne passe plus par des gazoducs mais par des plateformes de gaz naturel liquéfié (GNL) ; il faut donc trouver des expédients pour éviter l’explosion des factures qui ne sont bonnes ni pour le moral des ménages, ni pour la compétitivité des entreprises.

Comble de l’ironie, quelques mois plus tôt ce même gouvernement avait annoncé la fermeture définitive de ses trois derniers réacteurs nucléaires dont les capacités de production, décarbonées, étaient pourtant plus de deux fois supérieures à celles des centrales au lignite maintenues (4 GW contre 1,9 GW).

La gestion de l’énergie, soulève de nombreuses questions, en Allemagne comme ailleurs en Europe. Comment organiser la transition énergétique à l’heure où les impératifs climatiques imposent la réduction de nos émissions de gaz à effet de serre ? Comment se passer de notre dépendance au gaz russe sans faire exploser les coûts de l’énergie ? Comment reprendre le contrôle sur les prix sans pour autant réactiver nos vieilles centrales à charbon ?

Préserver la souveraineté des politiques énergétiques

En réalité, la question qui englobe toutes les autres est celle de la souveraineté énergétique. Pour l’aborder, le dernier ouvrage d’Aurélien Bernier, L’Energie hors de prix est un guide salutaire. Pour commencer, il convient de poser quelques définitions. En premier lieu, lorsqu’on parle de souveraineté énergétique, de quoi parle-t-on exactement ? Comme le note très justement Bernier, « la France n’atteindra jamais la souveraineté énergétique » (p. 165). L’uranium, tout comme les énergies fossiles, sont massivement importés. Quant à la production d’énergie renouvelable et de batteries électriques, elle a besoin de composants eux aussi importés. Mais si la France ne devient jamais autonome en matière énergétique rien ne l’empêche de décider de l’organisation de la production et la distribution de l’énergie sur son territoire. C’est la souveraineté en matière de politiques énergétiques qu’il faut préserver. Comme l’expliquait la regrettée Coralie Delaume, la souveraineté est l’autre nom de la démocratie. Être souverain, c’est confier au peuple le pouvoir de décider de ses propres affaires. Or, « le principal obstacle à cette souveraineté en matière de politique énergétique, c’est le marché », note Bernier à juste titre (p. 165).

Ainsi, remettre l’énergie au cœur du débat et de la démocratie suppose de comprendre comment le marché s’est étendu au détriment du politique et de s’interroger sur les moyens de recouvrer le pouvoir de contrôler à nouveau la manière de répondre à nos besoins énergétiques. C’est tout l’intérêt du livre de Bernier que de décrire l’histoire de cette spoliation et, par effet de miroir, de comprendre ce qu’il faudrait faire pour l’inverser.

Le livre de Bernier s’inscrit dans un travail ancien, puisqu’il avait déjà publié un livre remarqué sur le sujet, Les Voleurs d’énergie (Utopia, 2018). Sans surprise, on trouve des éléments communs aux deux ouvrages, notamment dans les deux premiers chapitres qui abordent l’histoire des privatisations et leurs conséquences. Dans ce passage, comme dans le reste de l’ouvrage, Bernier étudie les secteurs du gaz et de l’électricité. Il n’aborde pas le sujet du pétrole et des carburants dont l’histoire a pourtant bien des points communs avec celle du gaz et de l’électricité (Total et Elf Aquitaine ont été des groupes publics avant d’être privatisés, puis fusionnés, et enfin se transformer en grands conglomérats transnationaux).

Deux éléments sont marquants dans cette histoire. Le premier, ce sont les aller-retours permanents entre régulation et dérégulation, entre objectifs de flexibilité et de sécurité. Bernier insiste sur le fait que la production et la distribution de gaz et d’électricité ont d’abord été confiées au secteur privé dans la plupart des pays du monde. Cependant, l’incapacité du privé à organiser une distribution généralisée de l’énergie et son inefficacité à assurer un service convenable ont conduit les gouvernements à nationaliser ou à sérieusement encadrer les systèmes de production et de distribution de l’énergie.

De plus, la conception qu’on a de la manière dont un marché doit fonctionner varie selon les époques. Ainsi, Bernier rappelle qu’au début de la libéralisation il fallait absolument limiter les contrats à long terme avec les pays producteurs de gaz afin de rendre le marché plus « liquide » (p. 87). Puis, lorsque la trop grande liquidité du marché de l’énergie a fait exploser les tarifs, il a fallu faire l’inverse et favoriser les contrats de long terme afin de sécuriser les prix. D’un côté on nous dit qu’un bon marché doit être fondé sur le « signal-prix », censé permettre les adaptations mutuelles de la demande et de l’offre (et on crée des bourses de l’énergie pour cela), de l’autre dès qu’une crise importante survient et que les prix deviennent fous, on propose davantage de régulation et de contrats à long terme, et on autorise les gouvernements à subventionner l’énergie au nom de la compétitivité des entreprises et de la paix sociale.

Le rôle central de l’idéologie néolibérale

Le second élément qui ressort de la synthèse historique proposée par l’auteur est le rôle central de l’idéologie et de la politique dans la libéralisation des marchés de l’énergie. Faut-il le rappeler ? Un marché n’existe pas « naturellement ». Il doit être pensé, créé, mis en œuvre. Tout cela nécessite une puissante volonté politique qui s’inscrit dans la durée. En l’occurrence, c’est la force de l’idéologie néolibérale d’avoir mis au cœur de son projet politique la gestion marchande de l’énergie. Depuis la libéralisation chilienne des années 1970 sous Pinochet, jusqu’à celle de l’Union européenne dans les années 1990-2000, en passant par la libéralisation thatchérienne au Royaume-Uni, il y a plus qu’une continuité. Les mêmes penseurs et les mêmes principes sont à l’œuvre, comme le souligne l’auteur (p. 25). On regrettera toutefois l’usage impropre de qualificatifs tels que « ultralibéraux » (p. 23) pour parler des Chicago boys, ces économistes chiliens formés par Milton Friedman. De même, qualifier de « libérale » l’idéologie qui a conçu cette forme de libéralisation est extrêmement réducteur. En effet, le libéralisme traditionnel entend organiser le retrait de l’État de l’économie et conçoit le marché comme une institution naturelle. Or, ce que démontre les exemples des marchés du gaz et de l’énergie, c’est qu’absolument rien n’est « naturel » dans les dispositifs choisis. Ces derniers ne sont pas libérés de l’État ; c’est lui (ou plutôt l’Union européenne pour le cas de la France) qui a instauré ces marchés et leurs systèmes de régulation et qui l’organise selon des critères très précis censés à la fois produire des signaux-prix pertinents, organiser la transition écologique ou encore préserver la concurrence.

La forme qu’a pris la libéralisation des marchés de l’énergie n’a donc rien de « libérale », contrairement à ce qu’écrit Bernier. C’est du néolibéralisme à l’état pur. Par ailleurs, tout en étant mue par des considérations politiques et idéologiques extrêmement fortes, ce qui est largement souligné dans l’ouvrage, la transformation de la gestion et de la distribution de l’énergie n’a fait l’objet d’aucun débat démocratique. C’est dans les arcanes de Bruxelles et à l’issue de négociations opaques entre États que les marchés de l’énergie ont été libéralisés de la manière dont ils l’ont été. Et ce sont d’ailleurs les mêmes négociations opaques qui se tiennent à l’heure actuelle et promettent de tirer les leçons de la crise de 2022. À aucun moment les citoyens n’ont été directement consultés sur la forme que devait prendre la gestion de l’énergie. Et c’est toujours sans consultation des populations que l’on réforme aujourd’hui le marché de l’électricité ou que l’on engage d’importants investissements pour construire de nouveaux terminaux méthaniers.

Une libéralisation complexe et opaque

On répondra que tout cela est beaucoup trop complexe pour être arbitré par de simples citoyens. C’est parfaitement exact. Rien n’est plus compliqué que le fonctionnement actuel des marchés de l’énergie. Mais d’où vient cette complexité ? Du temps des monopoles publics d’EDF et de GDF, la chose était plutôt simple. Nul besoin, alors, d’un régulateur, d’un médiateur, de négociations franco-allemandes interminables. Le responsable de l’approvisionnement en énergie des ménages et des entreprises était le ministre de tutelle des monopoles publics. Pas besoin, dans un monopole public, d’une bourse de l’énergie ou d’une gestion des producteurs d’électricité en fonction du « merit order »(1), c’est-à-dire de leur coût de production marginal. Inutile d’organiser un « marché de capacités » (p. 105) pour éviter le blackout en période de pointe ; pas besoin de revendre à un tarif privilégié une partie de l’électricité nucléaire aux distributeurs dans le cadre de l’ARENH (accès régulé à l’électricité nucléaire historique). Et surtout, comme le souligne très bien Bernier, le monopole d’Etat est sans doute l’instrument le plus sûr pour organiser des politiques publiques de l’énergie, par exemple pour décarboner nos usages, protéger la population de l’inflation ou trouver des recettes publiques permettant de financer des projets gouvernementaux (p. 85). Avec le monopole public de l’énergie, on sait qui décide et qui est responsable des dysfonctionnements. Avec les marchés actuels de l’énergie, chacun peut s’exonérer de sa propre responsabilité et les défaillances deviennent systémiques.

Lire : Comment et pourquoi le marché européen de l’électricité a déraillé.

En fin de compte, si la libéralisation de l’énergie s’est avérée d’une incroyable complexité, c’est sans doute parce que la gestion privée d’un service aussi essentiel que l’approvisionnement énergétique n’a rien d’évident. On n’a pas libéralisé pour plus de performances ou davantage de transparence, mais on a réduit les performances et opacifié le système pour rendre la libéralisation possible. Comme le souligne l’économiste et ancien dirigeant d’EDF Marcel Boiteux, cité par l’auteur, « Il ne s’agit plus d’ouvrir la concurrence pour faire baisser les prix mais d’élever les prix pour permettre la concurrence »(2).

On comprend à la lecture du livre d’Aurélien Bernier que la complexité est au cœur des stratégies de libéralisation. Ainsi, le prix de l’électricité est le produit d’une architecture fondée sur une combinaison de prix dont chacun remplit un rôle spécifique. Car, contrairement à ce qu’on pourrait penser, les prix de gros sur le marché de l’électricité, celui auquel s’approvisionnent les distributeurs, n’est pas le simple résultat des rapports de force entre offreurs et demandeurs. « Au bout du compte, écrit Bernier, le prix de bourse de l’électricité empile le prix de la production (en grande partie celui des centrales au gaz), le prix du mécanisme de capacité, le prix du carbone. Pour peu que l’offre soit ‘‘verte’’, on ajoute le prix de la garantie d’origine. Avec de la spéculation à chaque étage » (p. 106).

Et ce n’est pas fini. Car le prix de marché n’est pas celui que paie le consommateur. Pour retrouver le prix des factures il convient d’ajouter les tarifs des organismes publics qui gèrent les lignes haute et basse tension (RTE et Enedis), les coûts de la quarantaine de distributeurs qui se livrent une guerre commerciale elle aussi très coûteuse en dépenses de communication et en démarchages en tous genres, le coût de la régulation et des institutions publiques de médiation qui visent à informer les consommateurs perdus dans la jungle des tarifs et des pratiques commerciales douteuses… et bien sûr le coût des taxes diverses dont la fameuse « Contribution au Service Public d’Electricité » qui, c’est le comble de l’ironie, date justement de l’époque où le service public a été abrogé. « Tout ceci pour avoir le ‘‘choix’’ entre des détaillants qui vendent presque tous la même marchandise », note Bernier avec malice (p. 80).

Quelles leçons tirer de la crise de 2022 ?

Cette véritable cathédrale de complexité conçue au nom de la libéralisation du marché de l’énergie a complètement disjoncté en 2022. Le gaz russe s’étant soudainement arrêté de circuler dans les gazoducs, les prix du gaz et de l’électricité ont atteint des sommets délirants, menaçant la survie d’une grande partie du secteur industriel et productif. Que s’est-il passé à ce moment-là ? Le livre d’Aurélien Bernier permet d’entrer dans le détail de cette histoire et de déconstruire quelques mythes.

Première leçon : si l’invasion russe de l’Ukraine a incontestablement renforcé la crise européenne de l’énergie, elle n’en est pas à l’origine. Les prix avaient commencé à augmenter bien avant, en réalité dès l’été 2021, au moment de la reprise post-covid. Ainsi, dès le mois d’octobre, certains fournisseurs alternatifs, sentant le vent tourner, avaient décidé de se retirer du marché. C’est le cas par exemple du danois Barry Energy qui promettait de mettre en place une tarification dynamique. Le principe étant que le prix payé par l’usager est indexé sur le cours du marché de gros. La tarification dynamique a été rendue possible par l’introduction du compteur Linky qui peut déterminer la consommation d’un foyer en temps réel et donc modifier la tarification à chaque instant. Comme le souligne Bernier, cela revient à « reporter une grande partie du risque boursier sur l’abonné » (p. 145).

L’offre de Barry Energy n’a de sens que dans un contexte où les cours boursiers sont en moyenne inférieurs au tarif régulé. Or, ce n’était déjà plus le cas six mois avant l’invasion russe de l’Ukraine, et c’est ce qui explique que ces tarifs n’ont pas encore été proposés en France (ils existent dans d’autres pays). Si cette pratique devait se généraliser, on imagine que les clients de ces contrats devront jouer des interrupteurs plusieurs fois par jour en ayant les yeux rivés sur les cours de la bourse de l’électricité.

La deuxième leçon que l’auteur tire de la crise est qu’elle a donné lieu à un nombre incalculable de malversations de la part des fournisseurs alternatifs. Ayant acquis des quotas d’électricité à bas coût grâce au mécanisme de l’ARENH, certains fournisseurs ont cherché à se débarrasser de leurs clients en augmentant subitement leurs tarifs ou en leur conseillant de repasser chez EDF. Grâce à cette manœuvre, ils pouvaient revendre au prix fort à EDF l’électricité qu’ils lui avaient acheté au tarif de 42€ le MWh (p. 115). Aurélien Bernier souligne que ces opérations sont parfaitement légales, puisque certains fournisseurs tels Mint Energie n’hésitent pas à s’en vanter auprès de leurs actionnaires (p. 118). Au passage, si les fournisseurs alternatifs les plus malins ont pu profiter de la crise pour revendre très cher une électricité achetée à bas prix à EDF, l’entreprise publique a, pour sa part, perdu beaucoup d’argent, un fait qui aurait mérité d’être davantage souligné dans l’ouvrage.

Troisième leçon de la crise, le marché s’avère incapable de produire les bons investissements et d’anticiper les crises. Dans le cas du gaz, l’épuisement progressif des gisements de la Mer du Nord n’a pas conduit les fournisseurs européens à diversifier leurs sources d’approvisionnement. Au contraire, ils ont laissé la Russie développer ses propres infrastructures d’exportation, ce qui a amplifié les conséquences de la rupture de l’approvisionnement russe. Pour ce qui concerne les investissements dans la production d’électricité, ils vont prioritairement là où les prix sont les plus élevés. Or, pour que les prix de l’électricité soient élevés, il faut que le système de production se retrouve régulièrement à la limite du blackout. Du fait de sa conception, le marché européen de l’électricité ne peut rémunérer les producteurs à des tarifs élevés que dans la mesure où des centrales coûteuses sont mises en route en période de pic de demande. Ainsi, une surcapacité productive fait perdre beaucoup d’argent à l’ensemble des producteurs. Il faut donc absolument l’éviter… et donc sous-investir !

Enfin, la dernière leçon de la crise est que, si l’on en croit les experts qui conseillent la Commission européenne et le gouvernement français, il est urgent… de ne rien changer. Ainsi, pour la Commission, toute réforme du marché européen de l’électricité doit avant tout « préserver le cœur du marché intérieur ». Il en va de même pour l’économiste Jean-Michel Glachant qui publie fin 2022 une note de travail pour le Centre Robert Schuman où il affirme qu’« il serait irresponsable de casser ou de brider ce remarquable outil ». Quant à Nicolas Goldberg et Antoine Guillou, ils n’hésitent pas à juger, dans une note écrite pour le Think Tank de gauche néolibéral Terra Nova que « contrairement à ce qu’affirment certains acteurs économiques et politiques, sortir tout bonnement du marché européen de l’électricité serait contre-productif et même dangereux car il s’est révélé être un facteur de résilience indispensable en cas de crise et son fonctionnement envoie le bon pour équilibrer le réseau électrique à tout moment » (citations extraites des pages 151-153).

En fin de compte, ce que nous apprend la crise européenne de l’énergie c’est que le dogmatisme idéologique, le conservatisme des classes dirigeantes et certains intérêts bien compris se sont coalisés pour ôter à la population le droit de gérer son énergie en la baignant dans un environnement où les forces de la concurrence et du marché décident à la place du citoyen quels investissements doivent être faits et qui doit en bénéficier. Ce qui est sûr, c’est que ce n’est pas ainsi que nous parviendrons à relever les défis climatiques qui nous attendent ni à planifier la décarbonation de nos économies. Mais tant que le marché produit le « bon » signal-prix, nous sommes sauvés !

David Cayla

 

Références

(1)Voir David Cayla « Comment et pourquoi le marché européen de l’électricité a déraillé », Le Temps des ruptures.

(2) Marcel Boiteux « Les ambiguïtés de la concurrence. Electricité de France et la libéralisation du marché de l’électricité », Futurible n° 331, juin 2007.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

La dérive machiste des Passport Bros
Anticor souhaite renforcer l’éthique dans les institutions européennes
Maryse Condé, un monument littéraire s’en est allé
Des trains bientôt moins chers avec Kevin Speed ?

Inflation ou récession ?

Chronique

Inflation ou récession ?

Le dilemme de la Fed et l’impuissance européenne
Dans sa chronique mensuelle, David Cayla craint que la disparition des politiques monétaires accommodantes du fait de l’inflation ne débouche sur une récession. Mais tandis que les Etats-Unis se sont dégagés des marges de manœuvre en matière de politiques économiques qui pourraient leur permettre d’éviter une crise, l’Union européenne reste coincée dans ses institutions néolibérales qui l’empêchent d’agir. La récession qui vient sera-t-elle enfin l’occasion d’une remise en cause du modèle européen?

Les mauvaises nouvelles économiques s’accumulent. Cet été, la Chine a connu une déflation historique sur fond de crise immobilière, d’endettement des collectivités territoriales et d’un niveau record de chômage des jeunes. Si la crainte d’une récession a longtemps plané sur l’économie américaine, c’est aujourd’hui la zone euro qui est touchée, avec une récession technique au début de l’année 2023 mise en évidence par la révision des chiffres du PIB du 8 juin dernier.

Le problème est que les marges de manœuvre laissées aux États pour modifier le cours de l’économie sont réduites. Une vidéo d’Alexandre Mirlicourtois, publiée le 31 août dernier sur Xerfi Canal, concluait d’un épuisement du modèle économique européen. Fondée sur le commerce et les exportations, l’économie européenne ne serait plus adaptée au grand basculement géopolitique que le monde connaît aujourd’hui et qui nécessiterait une réaffirmation de l’autonomie stratégique de l’UE. Le danger est que, face au conflit Chine / États-Unis, l’Europe soit progressivement reléguée, voire vassalisée par la puissance américaine. Militairement dépendante de l’OTAN et privée de gaz russe, elle a de fait accru sa dépendance vis-à-vis des États-Unis ces derniers mois.

L’échec des stratégies économiques européennes

L’impasse européenne d’aujourd’hui est sans aucun doute la conséquence des échecs d’hier. Dans les années 2000, le grand projet européen était la « stratégie de Lisbonne » qui visait à faire de l’UE « l’économie de la connaissance la plus compétitive et la plus dynamique du monde ». Rien que ça ! Dans les années 2010, la stratégie « Europe 2020 » prit le relais avec les mêmes ambitions en matière de recherche et d’innovation, mâtinée d’une dose d’écologie et de croissance verte. Que constate-t-on plus de vingt ans plus tard ? Non seulement l’essentiel de l’innovation, en particulier dans le numérique, est venue des États-Unis (smartphones, voitures électriques performantes, réseaux sociaux, Uber, Netflix, Chat GPT, …) mais surtout l’économie européenne progresse moins vite que celle des États-Unis.

L’écart qui s’accroit entre ces économies est un fait nouveau. Jusqu’aux années 1980, l’Europe de l’Ouest avait une croissance structurellement plus forte que celle des États-Unis du fait du rattrapage de l’après-guerre. L’écart s’est ensuite stabilisé, avant de se creuser. En termes réels (c’est-à-dire hors inflation), entre 1999 et 2022, le PIB par habitant a augmenté de près de 33% aux États-Unis, contre 25% au sein de la zone euro et au Royaume-Uni (figure 1). Autrement dit, les revenus aux États-Unis augmentent 30% plus vite que sur le continent européen alors qu’ils sont deux fois plus élevés ($37 150 par habitant pour la zone euro contre $76 400 aux États-Unis en 2022). Du rattrapage, on est passé au décrochage.

Figure 1 : Évolution comparée des revenus réels (PIB/hab) entre 1999 et 2022

On peut bien entendu questionner la pertinence du PIB comme indicateur pertinent du niveau de vie et relever, par exemple, qu’en termes d’espérance de vie, d’émissions de CO2, d’inégalités et même de bien-être social, la situation des Européens est sans doute meilleure que celle des Américains. Mais on manquerait alors l’essentiel : la question n’est pas de savoir où l’on vit le mieux, mais d’analyser la capacité des politiques publiques à accomplir les objectifs que les responsables politiques se sont donnés. Or, si on entend devenir l’économie la plus « innovante » et la plus « compétitive » au monde et que l’on aboutit, vingt ans plus tard, à une économie où la croissance et l’innovation sont plus faibles qu’ailleurs, c’est qu’il y a quelque chose qui dysfonctionne dans la capacité des dirigeants européens à agir sur la réalité.

Plus largement, si cette situation est inquiétante c’est aussi parce que les enjeux économiques et climatiques auxquels l’UE est confrontée sont immenses. Pour l’avenir, il ne s’agira pas simplement de préserver l’innovation et la compétitivité mais d’organiser une vaste et profonde transition écologique afin de décarboner le système productif européen. Or, si l’UE n’est pas parvenue à devenir une économie innovante et compétitive entre 2000 et 2020, qu’est-ce qui nous garantit qu’elle pourra atteindre ses objectifs climatiques d’ici 2050 ? C’est toute la crédibilité européenne qui est mise à mal par l’échec de la stratégie de Lisbonne et l’impuissance de ses politiques économiques.

L’impuissance des politiques économiques européennes

Il est nécessaire, à ce stade, de rappeler quelques définitions. Tout d’abord, une politique économique se définit comme l’action discrétionnaire d’une autorité publique sur le système économique, entreprise dans le but d’accomplir des objectifs politiques. Ainsi, mener une politique économique, c’est changer les règles, « bousculer le réel », afin de corriger une trajectoire qui ne serait pas conforme aux objectifs qu’on s’est donnés. La nature d’une politique économique est donc d’être discrétionnaire, c’est-à-dire qu’elle doit relever d’un choix souverain. Elle représente l’action d’une autorité publique investie d’un pouvoir et d’une légitimité institutionnelle pour agir.

Dans les faits, on distingue quatre grands types de politiques économiques. Les politiques budgétaires visent à utiliser le levier du budget (fiscalité, dépenses…) pour redistribuer les ressources au sein de l’économie ; les politiques monétaires déterminent les taux d’intérêt et encadrent le fonctionnement du système bancaire ; les politiques commerciales entendent réorganiser les échanges avec l’extérieur (plus ou moins de protectionnisme ou de libre-échange) ; enfin les politiques industrielles accompagnent la transformation du système productif en intervenant directement dans certains secteurs stratégiques par des subventions, la mise en place de normes, voire, au sein même des entreprises par des nationalisations.

Dans un État pleinement souverain et démocratique, les politiques économiques, ainsi que leurs objectifs, devraient être débattues publiquement, mises en œuvre, puis leurs effets évalués, avant d’être éventuellement révisées au cours d’un processus de consultation citoyen. Le problème est que la plupart de ces politiques ont été soustraites à l’action souveraine des États et donc au débat public. Ce processus d’ « impuissantisation » des politiques économiques s’est produit en deux temps.

Dans un premier temps, on a redéfini le cadre légitime de l’action publique dans l’économie. Pour cela, les théoriciens du néolibéralisme ont proposé une nouvelle norme, basée sur les prix de marché dans un système concurrentiel. L’idée sur laquelle cette norme repose est que la performance économique émane d’un environnement concurrentiel qui permet d’ajuster les prix en fonction de l’offre et de la demande. Les prix véhiculent alors l’information et permettent d’ajuster les comportements de manière à maximiser l’utilité sociale. Ainsi, pour les néolibéraux, le rôle de l’État serait essentiellement d’assurer le bon fonctionnement de cette dynamique en instaurant les institutions visant à renforcer la régulation marchande : une autorité de régulation de la concurrence, une banque centrale dont le mandat est basé sur la stabilité des prix, un système social minimal afin de prévenir les désordres politiques, et enfin une mondialisation instaurant l’ouverture la plus large possible des économies aux marchés mondiaux, tant pour les marchandises que pour les capitaux.

Lire : Le dernier ouvrage de David Cayla : déclin et chute du néolibéralisme

Une fois son cadre normatif posé, le néolibéralisme s’est ensuite imposé via la création d’institutions juridiques et politiques spécifiques. En Europe, la signature de l’Acte unique européen en 1986 constitue un moment de basculement. La création du marché unique a de fait imposé une double contrainte aux politiques économiques. D’abord, le principe de libre circulation du capital au sein de l’UE et vis-à-vis des pays tiers accéléra brutalement la financiarisation des économies et la perte de contrôle du politique dans ce domaine ; ensuite, l’interdiction de « fausser « la concurrence par des aides publiques empêcha toute politique industrielle. Les traités de Maastricht en 1992 et d’Amsterdam en 1997 parachevèrent la « néolibéralisation » de l’UE par l’instauration de nouvelles contraintes budgétaires (le fameux critère de 3% de déficit public) et par la création d’une banque centrale indépendante des pouvoirs élus et ayant pour mandat quasi exclusif la stabilité des prix. Ajoutons à ce tableau la création de l’Organisation mondiale du commerce (OMC) en 1995 et la réaffirmation, dans les traités européens, de l’objectif libre-échangiste et nous avons dressé le panorama complet des nouvelles institutions qui encadrent et limitent l’action publique dans l’économie.

Un point mérite d’être souligné. Avec la création du marché unique, la marchandisation de l’économie s’est étendue. Ainsi, les services publics tels que l’énergie, les transports, les télécommunications… n’ont plus été considérés comme relevant du domaine de l’action publique mais de celui du marché. C’est ainsi qu’on a créé les marchés des transports aérien et ferroviaires, que les services de téléphonie et d’accès à internet sont aujourd’hui fournis par des entreprises privées en concurrence et que l’électricité et le secteur énergétique ont été libéralisés.

Lire : Comment et pourquoi le marché européen de l’électricité a déraillé ?

La mise en place, sur le continent européen, de ces nouvelles institutions héritées de l’Acte unique et du traité de Maastricht a contribué à démanteler la capacité des autorités élues à mener des politiques économiques. Au discrétionnaire de la politique, le néolibéralisme préfère la stabilité de la règle.

La seule politique qui est restée entre les mains des élus est la politique budgétaire, dans le sens où chaque année le Parlement vote le budget. Mais la portée de cette dernière fut considérablement amoindrie. Ainsi, la règle des 3%, jugée insuffisante pour éviter les « dérapages » budgétaires des États fut complétée par la pratique du « semestre européen » qui consiste à faire avaliser en amont la politique budgétaire par la Commission ainsi que par le Pacte budgétaire de 2012 qui instaura des sanctions automatiques en cas de déficit public structurel. Enfin, l’interdiction faite aux banques centrales de financer directement les États ont conduit ces derniers à se soumettre à la loi des marchés financiers pour emprunter à moindre coût.

La politique budgétaire est restée formellement souveraine mais elle a été mise sous surveillance, ce qui fait qu’il est de plus en plus difficile d’affirmer qu’elle relève encore du discrétionnaire. Pour ce qui est des politiques industrielles, commerciales et monétaires, elles ont été entièrement soustraites à l’arbitrage démocratique. Ainsi, la politique industrielle, jugée incompatible avec le principe de la coordination concurrentielle fut démantelée avec la fin du commissariat général au plan en 2006. L’extension du principe de concurrence et les libéralisations privèrent l’État de sa capacité à agir concrètement sur le tissu industriel. La politique commerciale, compétence exclusive de l’UE, fut quant à elle déléguée à la Commission qui s’empressa de signer une série de traités de libre-échange, conformément aux textes. Enfin, la politique monétaire fut déléguée à la BCE, sans aucun contrôle politique et dans le cadre d’un mandat ayant pour premier objectif la stabilité des prix.

Au terme de ce processus de néolibéralisation de l’UE, la capacité du pouvoir politique à agir sur l’économie fut ainsi réduite à presque rien. À quoi bon, dès lors, réunir les chefs d’État des pays européens et s’engager sur une stratégie quelconque si les leviers de l’action politique échappent aux élus ? N’est-ce pas là qu’il faudrait chercher l’origine de l’échec de la Stratégie de Lisbonne et d’Europe 2020 ?

Les brèches dans un système cadenassé

Dans Populisme et néolibéralisme, paru en 2020, j’estimais que l’impuissance publique à agir sur l’économie était l’une des causes principales de la perte de confiance envers le politique et les institutions et qu’elle expliquait pour partie la montée des mouvements populistes. Pourtant, ces dernières années ont montré que des failles pouvaient apparaitre dans le cadenassage néolibéral et que des marges de manœuvre pouvaient réapparaître.

La première brèche fut celle de l’explosion de la crise financière en 2008. Tétanisée par l’éventualité d’un effondrement des institutions financières, la banque centrale américaine (appelée aussi Réserve fédérale ou Fed), s’est mise à sortir de ses prérogatives habituelles en intervenant directement sur les marchés par le rachat des titres immobiliers puis de bons du Trésor. Cette nouvelle politique monétaire, qu’on a appelé « quantitative easing » (assouplissement quantitatif) visait à faire baisser les taux d’intérêt à long terme afin de faciliter le financement des plans de relance. Elle fut bientôt imitée par les autres banques centrales qui devinrent les régulatrices des marchés financiers.

La deuxième brèche fut celle produite par la crise du covid. À cette occasion, les banques centrales fournirent non seulement toutes les liquidités nécessaires pour éviter une crise bancaire, mais elles intensifièrent leurs rachats de titres publics afin de garantir aux États des taux d’intérêt très faibles permettant de financer le « quoi qu’il en coûte ».

Ainsi, pendant plus de dix ans, les politiques monétaires jouèrent un rôle prépondérant dans la régulation de l’économie mondiale. Car même si les banques centrales ne sont pas contrôlées par les gouvernements du fait du principe d’indépendance, ce sont les seules institutions qui ont gardé intactes leurs prérogatives et qui peuvent se permettre d’agir encore souverainement. Depuis 2008, profitant de la faiblesse de l’inflation qui leur donnait des marges de manœuvre, les banques centrales ont donc utilisé les politiques monétaires pour soutenir l’économie mondiale. En maintenant des taux d’intérêt faibles, elles ont incité les prêts bancaires et ont soutenu l’investissement. Ce contrôle par les banques centrales des marchés financiers s’avéra très efficace. Depuis 2008, aucune crise financière d’envergure mondiale n’a éclaté. Une si longue phase de stabilité financière est tout simplement inédite depuis le début des années 1980 et la libéralisation financière.

La fin des politiques monétaires accommodantes ?

Les crises de 2008 et du covid ont permis aux politiques monétaires de rompre avec la logique néolibérale en renouant avec un certain souverainisme. Le problème est que cette période est sans doute en train de se refermer. Tant que l’inflation était contenue, les banques centrales avaient les coudées franches. Elles pouvaient respecter leur mandat tout en menant des politiques favorables à la croissance. Mais depuis que l’inflation a fait sa réapparition, elles sont tenues de résorber la hausse des prix, quitte à prendre le risque de la récession.

C’est aux États-Unis qu’un dilemme se pose désormais à la Fed. Jusqu’au printemps 2022, la banque centrale américaine avait pu mener une politique monétaire favorable à la croissance en maintenant des taux d’intérêt proches de zéro. Du fait de la hausse de l’inflation, le taux d’intérêt réel (qui représente le coût réel du crédit calculé par la différence entre le taux d’intérêt nominal à court terme et le taux d’inflation) a rapidement baissé et s’est enfoncé dans le négatif. Cette situation a contraint la Fed à augmenter rapidement son taux de refinancement et l’écart avec le taux d’inflation s’est réduit. Il s’est réduit d’autant plus vite que l’inflation a elle aussi diminué, ce qui fait qu’en un an le taux d’intérêt réel s’est rapidement redressé pour s’approcher de zéro en avril 2023 (figure 2).

Figure 2 : évolution du taux d’intérêt, du taux d’inflation et du taux d’intérêt réel aux États-Unis entre janvier 2021 et juillet 2023

En dépassant l’inflation, les taux directeurs de la banque centrale américaine ont engendré des taux d’intérêt réels positifs. Une première depuis 2009 ! Pour autant, la marge de manœuvre de la Réserve fédérale ne s’est pas rétablie puisqu’avec une inflation qui se maintient au-delà de 3%, l’économie américaine n’atteint pas l’objectif d’inflation de 2%. Ainsi, du point de vue de son mandat, tel qu’il est interprété par la théorie économique dominante[1], la Fed est tenue de maintenir des taux d’intérêt élevés.

Ces taux élevés engendrent plusieurs conséquences néfastes pour l’économie américaine.

Tout d’abord, cela rend l’accès au crédit plus cher. Or, beaucoup d’entreprises se sont fortement endettées durant la période de taux d’intérêt faibles qui a duré plus de dix ans. Lorsque leurs emprunts arriveront à échéance, elles devront en recontracter de plus onéreux, ce qui pourrait menacer leur solvabilité et les pousser à la faillite.

Qui dit crédit plus cher dit aussi difficulté à consommer pour les ménages et à investir pour les entreprises. Cela contribue à freiner la demande et à limiter les débouchés. La baisse de l’investissement sera d’autant plus forte que des entreprises chercheront par ailleurs à se désendetter.

Si la demande faiblit, l’offre doit s’adapter. En réduisant leur production, les entreprises sont amenées à licencier une partie de leur personnel. L’emploi diminue et le chômage augmente.

Enfin, les banques elles-mêmes sont doublement touchées. D’une part elles doivent assumer le risque de non-remboursement de la part d’entreprises qui ont été mises en faillite ; d’autre part elles subissent une perte dans leur bilan, puisque les créances qu’elles détiennent sont dévalorisées en raison de leur rémunération qui devient plus faibles que le taux d’inflation. Certes, lorsque les taux augmentent les banques gagnent en chiffre d’affaires car les nouveaux crédits qu’elles accordent sont mieux rémunérés. Mais la valeur des crédits accordés par le passé diminue. L’effet négatif de la hausse des taux sur les bilans des banques peut ainsi être supérieur à son effet positif sur le chiffre d’affaires et menacer ainsi leur solvabilité.

Un nouvel espoir… mais aux États-Unis seulement

La politique monétaire de la Réserve fédérale condamne-t-elle les États-Unis à terminer l’année 2023 en récession ? La fin des politiques monétaires accommodantes du fait de l’inflation va-t-elle entrainer une nouvelle crise financière ? C’est tout à fait possible, mais les États-Unis gardent quelques marges de manœuvre pour éviter la trajectoire d’une récession inéluctable. En effet, contrairement à l’Union européenne, ils n’ont pas commis l’erreur d’institutionnaliser le néolibéralisme dans leurs textes fondamentaux. Ainsi, alors que la politique monétaire devient impuissante, le gouvernement Biden n’hésite pas à faire usage des trois autres leviers des politiques économiques.

Tout d’abord, la politique budgétaire est très massivement mise à contribution de l’économie. Dans un article publié le 3 septembre dernier le Washington Post notait que le déficit de l’État fédéral américain devrait doubler en 2023 par rapport à l’année précédente, porté par une croissance de 16% de ses dépenses et une chute de 7% de ses recettes. Un tel déficit – le Washington Post l’évalue à plus de 2000 milliards de dollars – alors que l’économie américaine n’a pas connu de récession au cours de l’année fiscale[2] est tout simplement inédit.

Ensuite, la politique commerciale américaine, depuis l’ère Trump, n’est plus du tout libre-échangiste, et sur ce plan Biden joue la continuité. Les sanctions imposées à la Chine et à la Russie ainsi que le refus de nommer les juges chargés de faire fonctionner l’organe de règlement des différends de l’OMC participent d’un retournement de la politique commerciale américaine. Il y a un an, la secrétaire au Trésor Janet Yellen a défini la nouvelle politique commerciale américaine en utilisant le l’expression « friendshoring » qui signifie qu’au libre-échange généralisé les États-Unis souhaiteraient instaurer une mondialisation « entre amis »… pour ne pas dire « avec des vassaux ».

Enfin, en ce qui concerne la politique industrielle, les États-Unis ont là aussi montré toute l’étendue de leur souveraineté avec l’Inflation reduction act (IRA), une ambitieuse loi dont l’objectif est de réorienter en profondeur l’économie américaine par une série de normes et de subventions, en particulier dans l’industrie de la transition écologique et de la construction de voitures électriques.

En somme, les États-Unis ont pris acte des limites de la politique monétaire et mettent donc en œuvre une nouvelle approche globale qui leur permet de réactiver les autres leviers des politiques économiques. Pendant ce temps, l’Union européenne assiste, impuissante, à la perte de capacité de sa politique monétaire sans être capable de réactiver véritablement ses propres leviers. Ainsi, le Green New Deal européen apparaît nettement moins ambitieux et volontariste que l’IRA américain, tandis que la politique commerciale européenne refuse de rompre avec le libre-échange et que la politique budgétaire redevient restrictive avec la fin de la parenthèse covid.

Dans une récente chronique au Monde, l’économiste Jean Pisani-Ferry, corédacteur avec Selma Mahfouz d’un rapport remarqué sur l’impact économique de la transition écologique, faisait le constat désabusé de l’incapacité de l’Union européenne à gérer les chocs du réel. Estimant la cible d’inflation de 2% trop bas, il écrit que « le moment viendra bientôt où la BCE pourra investir sa crédibilité dans un changement de cible. » Mais même cela ne devrait pas suffire : « la réponse à l’instabilité ne devrait pas relever de la seule politique monétaire, ajoute-t-il. Il y faudra sans doute une nouvelle division du travail entre celle-ci et la politique budgétaire. C’est maintenant qu’il faut commencer à réfléchir au nouveau régime de politique économique ».

Soutien critique de la politique d’Emmanuel Macron et européen convaincu, Pisani-Ferry ne va pas jusqu’à recommander la mise en œuvre d’une politique commerciale protectionniste et n’appelle pas au retour d’une politique industrielle ambitieuse. Mais on voit bien que, même chez les partisans les plus enthousiastes du néolibéralisme, la foi dans la régulation spontanée par les prix de marché a faibli.

Malheureusement, les traités européens continuent de cadenasser toute politique économique un peu ambitieuse et il est à craindre que cette lucidité tardive ne se heurte à l’incapacité de la machine européenne à changer de cap.

David Cayla

Références

[1] Il existe des théories qui contestent l’idée que la hausse des taux d’intérêt soit systématiquement nécessaire pour résoudre les épisodes inflationnistes. Lire par exemple cet article de l’économiste Dani Rodrik.

[2] Aux États-Unis, l’année fiscale commence le 1er octobre et se termine le 30 septembre de l’année suivante.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

La dérive machiste des Passport Bros
Anticor souhaite renforcer l’éthique dans les institutions européennes
Maryse Condé, un monument littéraire s’en est allé
Des trains bientôt moins chers avec Kevin Speed ?

Réflexions sur le bon usage du PIB

Chronique

Réflexions sur le bon usage du PIB

Et quelques questions à Timothée Parrique et aux partisans de la décroissance
La décroissance est-elle un projet réaliste ? À entendre ses principaux partisans, elle constituerait à la fois une réponse aux injustices du capitalisme marchand et une solution pour mettre en œuvre une économie respectueuse des limites écologiques de la planète. En proposant une lecture critique du dernier ouvrage de Timothée Parrique, théoricien français de la décroissance, David Cayla explique pourquoi le projet décroissant, selon lui, représente une rupture anthropologique d’une grande violence qui a très peu de chances de rencontrer une acceptation sociale.

Dans un ouvrage paru il y a quelques mois, Ralentir ou périr : l’économie de la décroissance, l’économiste Timothée Parrique entend proposer une réflexion générale sur la décroissance. Étrangement, pourtant, Parrique a du mal à en dégager une définition précise, pas plus qu’il ne définit vraiment la croissance ou le PIB. « Mais qu’est-ce que la croissance ? écrit-il au début du chapitre 1. Une hausse du PIB, répondront certains. Mais encore ? Définir la croissance comme une hausse du PIB revient à décrire la chaleur comme une hausse de la température ; c’est une description sans explication ».

En ce qui concerne la décroissance, plusieurs définitions sont proposées, ce qui finit par créer une certaine confusion. À la fin de l’introduction, la décroissance est définie comme une « réduction de la production et de la consommation pour alléger l’empreinte écologique planifiée démocratiquement dans un esprit de justice sociale et dans le souci du bien-être » qui permettrait d’aller vers une société « post-croissante », c’est-à-dire indifférente à la croissance. Mais d’autres définitions s’ajoutent par la suite. Dans le chapitre 5, on assiste ainsi à une profusion de définitions souvent abstraites et sans contenu opérationnel : « la décroissance est avant tout une théorie critique », peut-on lire. Puis : « La décroissance est plus qu’un concept académique, c’est devenu un vaste domaine d’action ». Le début du chapitre 6 s’ouvre par ces phrases : « Qu’est-ce que la décroissance ? Si la question est simple, la réponse, elle, l’est nettement moins. Car la décroissance, c’est beaucoup de choses à la fois : une stratégie de transition, mais aussi un mouvement, une mosaïque de pratiques, un courant de pensée, une théorie critique, et un domaine d’étude. »

Peut-on dire que la décroissance signifie la baisse du PIB ? Même cela n’est pas très clair. « La baisse du PIB n’est pas un objectif mais seulement l’une des conséquences d’une politique de décroissance. Assimiler une douloureuse récession à une politique maîtrisée de décroissance juste parce qu’elle provoque une baisse du PIB est aussi absurde que de comparer une amputation à un régime juste parce qu’elle engendre une perte de poids » écrit-il. Il faut arriver au début du chapitre 7, pour trouver la formule qui semble le mieux résumer la pensée de l’auteur : « la décroissance est une stratégie qui vise à atteindre une taille économique théorique qui garantit le bien-être et la justice sociale (les planchers sociaux) sans dépasser la capacité de charge des écosystèmes (le plafond écologique) ». Remarquons que la formulation, s’est précisée par rapport à celle proposée en introduction. On ne parle plus d’un « souci » de bien-être et d’un « esprit » de justice sociale mais plutôt de les garantir. Elle est également complétée par deux lignes rouges. Un « plancher social », c’est-à-dire un niveau de production minimal acceptable socialement, et un « plafond écologique », c’est-à-dire un niveau maximal d’empreinte écologique. Cette précision permet de comprendre en quoi la décroissance est un pari. En effet, quelle certitude avons-nous que le plancher social sera plus bas que le plafond écologique ? Et que fait-on si ce n’est pas le cas ?

Réduire le PIB ou réduire l’économie ?

La formule du chapitre 7 pose un autre problème : elle semble contredire le propos du chapitre 1 consacré au PIB. Dans ce premier chapitre, Parrique insiste sur l’importance de distinguer l’indicateur de ce qu’il est censé représenter, à savoir l’économie. Le PIB, explique-t-il, ne représente que la partie émergée de l’iceberg économique car l’économie est avant tout « anthropologique ». Elle constitue « l’organisation sociale de la satisfaction des besoins ». Or, une grande partie de l’économie, celle qui est immergée, est invisible aux yeux des responsables politiques car non prise en compte dans l’indicateur. « Le PIB n’est qu’une estimation sélective et approximative de la production, et uniquement selon une certaine conception de la valeur. Il ne mesure pas l’économie anthropologique, mais une représentation simplifiée et quantifiable de celle-ci », écrit-il avec justesse.

L’insistance mise dans ce premier chapitre à distinguer le PIB (la mesure quantifiable) et l’économie anthropologique (la satisfaction des besoins) donnait à penser que la décroissance visait à réduire le PIB tout en préservant la pleine satisfaction des besoins sociaux. Pourtant, on vient de voir que ce n’est pas ainsi qu’est définie la décroissance au chapitre 7 puisque Parrique évoque non pas la réduction de la taille du PIB, mais bien celle de l’économie dans son ensemble. L’enjeu de la décroissance ne serait donc pas, contrairement à ce qu’il écrit dans le chapitre 1, de « sortir l’iceberg de l’eau » mais de réduire l’iceberg lui-même, et donc de diminuer la capacité de la société à satisfaire certains besoins sociaux. C’est d’ailleurs le sens de son propos introductif : « Le défi qui se tient devant nous est celui du moins, du plus léger, du plus lent, du plus petit. C’est le défi de la sobriété, de la frugalité, de la modération, et de la suffisance ».

Modération, frugalité, sobriété… La décroissance ne vise pas seulement à réduire le PIB mais surtout à limiter les besoins auxquels entend répondre l’économie anthropologique. Cette posture, il est vrai, est cohérente avec le concept de « plafond écologique ». Du point de vue de la planète, peu importe que l’atteinte à l’environnement soit le fait d’une activité incluse ou non dans le PIB. Par exemple, si j’appelle un taxi pour me rendre à la gare, je fais croître le PIB ; si je demande à un ami de m’y emmener en voiture, je réponds au même besoin sans faire varier le PIB. Mais du point de vue de la planète, les deux opérations sont parfaitement équivalentes. Dans les deux cas du pétrole aura été consommé, du CO2 émis. Le fait de transformer une activité marchande comptabilisée dans le PIB en activité bénévole qui n’est pas comptabilisée ne réduit en aucun cas le problème des émissions de CO2. Aussi, ce n’est pas le PIB qu’il faudrait réduire, mais bien l’économie dans son ensemble.

Si tel est l’objectif de la décroissance – limiter nos besoins sociaux pour limiter notre emprise sur l’environnement – pourquoi dans ce cas commencer le livre par une critique du PIB ? En réalité, l’ouvrage de Timothée Parrique ne cesse de multiplier les fausses pistes et semble avoir du mal à expliquer clairement son projet. Par exemple, le chapitre 3 intitulé « Marché contre société » évoque l’importance des « forces reproductives de l’économie », autrement dit le fait qu’une société marchande ne peut fonctionner durablement sans s’appuyer sur le travail et le soutien des nombreuses activités non marchandes qui participent à la reproduction sociale. J’avais exprimé la même réflexion dans l’introduction de L’Économie du réel et je ne peux donc qu’adhérer à l’idée que la « croissance de l’activité marchande n’est pas toujours synonyme de progrès ». Mais dire qu’il faut réduire la marchandisation de la société n’est pas équivalent à dire qu’il faut réduire le PIB ou la taille de l’économie. Tout le PIB n’est pas marchand, et toute l’économie ne se résume pas au PIB.

La vraie signification du PIB

En fin de compte, quel est l’objectif de la décroissance ? Est-ce de réduire la taille de l’économie, c’est-à-dire d’aller vers une forme de sobriété en renonçant à certains de nos besoins superficiels (c’est ce que semble dire l’introduction et la définition du chapitre 7) ? Est-ce qu’il s’agit de réduire le PIB qui constitue la partie de l’économie qui est monétarisée (c’est ce que semble dire le chapitre 1) ? Ou alors l’objectif serait-t-il surtout de réduire la part marchande du PIB comme le laisse entendre le chapitre 3 ?

Pour bien comprendre l’enjeu de ce débat, il faut justement en revenir au PIB. Dans le chapitre 1, Timothée Parrique explique la manière dont il est calculé sans trop s’appesantir sur sa signification et sa composition. Il écrit notamment que le PIB est « le résultat d’une gigantesque addition » calculée de trois manières : par la production de valeur ajoutée, par les revenus et par les dépenses. Le lecteur peu attentif aura du mal à comprendre l’information essentielle contenue dans ce passage. Car le PIB ne relève pas d’un simple « calcul » ; il représente réellement l’ensemble de la valeur de la production monétarisée, l’ensemble des dépenses et l’ensemble des revenus. L’un des biais systématiques des théoriciens de la décroissance est d’évacuer un peu rapidement la conséquence de ce fait : réduire le PIB, ce n’est pas nécessairement réduire la production de richesses, car toute la richesse n’est pas monétarisée et donc comptabilisée dans le PIB. En revanche, réduire le PIB c’est forcément réduire les revenus. Il est en effet impossible de diminuer la production de richesses monétaires sans faire baisser les revenus du même montant. Réduisez la production marchande de 100 milliards d’euros, vous réduirez mécaniquement les revenus monétaires de 100 milliards d’euros. Et vous réduirez aussi, par la même occasion, les recettes fiscales et donc la capacité de financer l’activité non marchande, c’est-à-dire des services publics. De même, la consommation individuelle des ménages sera forcément réduite de 100 milliards d’euros, voire de davantage si une boucle récessive s’enclenche.

À ce sujet, il faut insister sur un point. Affirmer que la décroissance n’a rien à voir avec la récession a tout d’un sophisme. Faire un régime n’est certes pas la même chose que de s’amputer un bras ; mais une baisse du PIB est une baisse du PIB. Qu’elle soit voulue et planifiée ou non désirée et non anticipée ne change aucunement ses conséquences : toute diminution du PIB réduira les revenus et engendrera un effet récessif. On ne peut pas jeter à la poubelle les apports de la théorie keynésienne au prétexte que la décroissance serait un projet global, ambitieux et démocratique.

Composition du PIB français

Résumons. Le PIB est égal à la somme des valeurs de la production monétarisée, à la somme des dépenses de consommation et à la somme des revenus. Ces trois sommes relèvent exactement de la même chose, c’est pour cette raison qu’elles sont identiques.

Pour comprendre ce que cela implique observons les chiffres de l’économie française. En 2022, le PIB s’élevait, d’après l’INSEE, à 2351 milliards d’euros. Ce montant représente tous les revenus produits par l’économie à destination des agents résidents (ménages, entreprises, administrations) pendant un an. Un peu plus de la moitié de ces revenus, soit 1213 milliards d’euros ont été dépensés par les ménages pour leur consommation personnelle. 625 milliards d’euros, soit environ le quart du PIB, a été consacré à financer la consommation non marchande (575 milliards venant des administrations publiques, et 50 milliards des associations caritatives). Le reste, soit 576 milliards (un peu moins du quart du PIB), a été consacré à l’investissement et regroupe celui des entreprises (332 milliards), des organismes publics (84 milliards) et l’investissement immobilier des ménages (128 milliards). Si l’on fait la somme de toutes ces dépenses, on s’aperçoit qu’elle est supérieure aux revenus. 1213 + 625 + 576 = 2414. On en déduit que l’économie française, dans son ensemble, a davantage dépensé qu’elle n’a reçu de revenus. La différence est égale à la balance commerciale qui était négative en 2022. Les exportations (744 milliards) ont été inférieures aux importations (829 milliards). L’écart entre ces deux sommes (-85 milliards) auquel il faut ajouter le solde des revenus issus de l’étranger (+22 milliards) représente l’écart entre les revenus et les dépenses (-63 milliards).

Ces chiffres sont importants à avoir en tête. Car avant de dire qu’il faut réduire le PIB, il est important de savoir de quoi parle-t-on exactement, ce que les théoriciens de la décroissance font rarement. En fin de compte, on peut dire, pour simplifier, que le PIB est constitué pour moitié de la consommation marchande des ménages, pour 25% de la consommation non marchande et pour 25% des dépenses d’investissement. Enfin, ajoutons qu’environ un tiers de la richesse monétaire consommée en France provient de nos achats à l’étranger, et qu’un peu moins du tiers de la richesse monétaire produite est exportée.

Que doit-on réduire ? Pourquoi ce n’est pas si simple

À présent que ces chiffres sont clairs, imaginons que nous réduisions le PIB de manière organisée et démocratique. Que devrait-on réduire de manière prioritaire ? Les dépenses de consommation des ménages ? La production de services publics et des associations caritatives ? L’investissement ? Et dans quelle proportion le PIB devrait-il être réduit ?

Le livre de Timothée Parrique n’apporte aucune réponse claire à ces questions. Voici ce qu’il écrit dans le chapitre 6.

« Les secteurs amenés à décroître ne seront pas dépecés au fendoir ; imaginons plutôt une redirection graduelle de l’économie, planifiée démocratiquement, dans laquelle une partie de nos ressources, de notre temps de travail, de notre énergie, et de nos matériaux cessera d’être mobilisée pour produire certaines marchandises (surtout celles qui polluent et qui ne contribuent pas ou peu au bien-être), et pourrait alors être remobilisée partiellement au bénéfice de la société. Il faut également dissiper un autre malentendu : réduire la production par la décroissance ne veut en aucun cas dire s’appauvrir. On peut très bien diminuer fortement la valeur ajoutée monétaire d’une économie (le PIB) tout en augmentant la valeur ajoutée sociale et écologique, par exemple grâce à la hausse du temps libre et à l’amélioration des services écosystémiques. »

Le problème est que cette proposition est contradictoire avec la définition donnée au chapitre suivant où la décroissance est définie comme une réduction de la taille de l’économie. Dans ce passage Parrique semble dire qu’il faudrait substituer des activités non marchandes et non monétarisées aux activités marchandes. Il y aurait donc bien baisse du PIB mais pas nécessairement diminution de la taille de l’économie. Passons. De combien faudrait-il diminuer l’économie ? Une quantification indicative est formulée un peu plus loin : « Imaginons que le contexte écologique nous impose de réduire la taille totale de l’économie de moitié. Il faudrait donc produire moitié moins, et donc, travailler moitié moins ». Parrique évoque bien, cette fois, la « taille de l’économie ». Donc, on suppose qu’il parle de l’économie anthropologique. Mais cela est contradictoire car la solution proposée qui consiste à diminuer le temps de travail. En effet, celui-ci représente une activité rémunérée et donc liée au PIB. Si on diminue le temps de travail et qu’on augmente le temps d’activité libre dans les mêmes quantités, l’activité économique sera maintenue tout en étant démonétarisée. Dans ce cas, la taille de l’économie ne diminue pas et rien ne permet d’affirmer qu’on allège les contraintes écologiques. Faire le taxi de manière rémunérée ou conduire un ami à la gare ne réduit pas l’empreinte carbone du déplacement.

C’était bien la peine d’écrire tout un chapitre visant à distinguer le PIB de l’économie anthropologique pour ensuite confondre systématiquement les deux dans les chapitres suivants ! À nouveau, la confusion entre économie / PIB / marchandisation pose des problèmes de cohérence au raisonnement.

Les conséquences d’une baisse du PIB

Admettons qu’on souhaite réduire le PIB pour respecter le « plafond écologique » et admettons que l’activité non monétarisée ne puisse s’y substituer entièrement. Quelle serait notre marge de manœuvre ? De combien pourrait-on baisser le PIB sans pour autant crever le plancher social ? Prenons une hypothèse optimiste et admettons qu’on ait pour objectif une diminution de 25% du PIB. Si on en croit l’estimation de l’association Global Footprint Network, la France a atteint le « jour du dépassement » le 5 mai dernier, date à laquelle l’économie française est réputée avoir consommé l’ensemble des ressources que la nature met un an à produire et à renouveler. Le 5 mai, c’est environ le tiers de l’année. Ainsi, d’après cette estimation, le plafond écologique serait très bas et il faudrait envisager une réduction du PIB des deux tiers plutôt que de seulement 25%.

Mais limitons-nous à une baisse de 25% et voyons où cela nous mène. Qu’est-ce qu’il faudrait diminuer ? À lire l’ouvrage de Parrique, l’objectif serait de diminuer la part du PIB consacrée à la consommation de marchandises. À l’inverse, il faudrait préserver le PIB consacré à la consommation non marchande. Quid de l’investissement ? Parrique n’en parle pas dans son livre mais on peut raisonnablement penser, si l’on en croit le rapport Pisani-Ferry – Mahfouz consacré à la stratégie de transition climatique, que de nombreux investissements vont devoir augmenter. Certes, ce rapport n’est en rien partisan de la décroissance, mais les impératifs écologiques impliqueront de changer en profondeur notre système productif, ce qui nécessite des investissements dans le ferroviaire, la rénovation des bâtiments, la décarbonation de notre système productif… D’autres investissements à vocation purement marchande devraient sans doute être réduits. Quel serait le solde global ? La réponse n’est pas claire. Comme, à ma connaissance, aucun calcul n’existe à ce sujet chez les théoriciens de la décroissance, on est contraint de spéculer. Optons donc pour un montant préservé des dépenses d’investissement par rapport au volume actuel et admettons que les énormes besoins de la transition pourront être compensés par un désinvestissement du même montant dans le secteur marchand.

Comme on l’a vu plus haut, le PIB actuel représente 50% de consommation marchande des ménages, 25% de consommation non marchande et 25% de dépenses d’investissement. Si l’on entend préserver à la fois les dépenses d’investissement et celles liées à la consommation non marchande, alors toute réduction du PIB ne peut reposer que sur la consommation marchande. Une réduction de 25% du PIB implique donc une division par deux des dépenses de consommation des ménages. Il faudrait donc passer d’une économie 50/25/25 à une économie 25/25/25 pour réduire de 25% le PIB sans diminuer les dépenses non marchandes et les dépenses d’investissement. Pour cela, il sera nécessaire de diviser par deux les revenus disponibles des ménages (en réalité un peu moins car il faut comptabiliser l’épargne qui correspond aux revenus non dépensés).

L’illusion de la sobriété heureuse

Est-il possible, dans une optique décroissante et démocratique, d’organiser une réduction de 25% du PIB en divisant par deux les revenus disponibles des ménages ? C’est à cette question qu’il faudrait répondre. Dire que cela serait acceptable politiquement dans un régime démocratique me semble totalement déraisonnable. Notons par ailleurs que cette division par deux des revenus se ferait sans amélioration notable des services publics et sans accélération des dépenses d’investissement. Notons également que rien ne dit que les pays voisins suivraient la même politique. Or, au sein de l’UE, la circulation des personnes est libre ; on ne pourra pas empêcher les familles de s’expatrier pour profiter de revenus deux fois plus élevés de l’autre côté de la frontière. Comment gérer politiquement une telle décroissance et le choc que cela produirait ? Dans son chapitre 1, Parrique affirme que « ce qui compte, au final, ce n’est pas le ‘‘pouvoir d’achat’’ mais plutôt le ‘‘pouvoir de vivre’’ ». Là aussi, il s’agit d’une formule pratique mais peu opérante. Pour une grande partie des Français le pouvoir d’achat c’est le pouvoir de vivre : celui de prendre des vacances, de faire une sortie au restaurant, au cinéma, de renouveler sa garde-robe… toutes ces consommations marchandes doivent-elles être divisées par deux ? Qui décidera quelles sont les consommations utiles et superfétatoires ? Et, surtout, comment parvenir à faire accepter ces décisions à la population ?

Loin d’être un instrument absurde, le PIB mesure parfaitement les revenus monétaires. Et même si « l’argent ne fait pas le bonheur » comme on dit, il est difficile d’affirmer que baisser les revenus assurera aux ménages d’être plus heureux, plus émancipés et plus libres, surtout si cette baisse pèse exclusivement sur la part de la consommation qu’ils peuvent librement choisir.

Les théoriciens de la décroissance ont sans doute raison sur un point : la baisse du PIB, et en tous cas la fin de sa hausse indéfinie sera sans doute nécessaire, à terme, pour éviter l’effondrement écologique. Disons les choses de manière plus réaliste : le risque d’effondrement écologique conduira sans doute l’humanité à réorganiser en profondeur son économie pour parvenir à une forme de post-croissance. Quantitativement, quel sera alors le niveau de PIB de cette économie ? Pourra-t-on limiter sa diminution à 25% ? Personne ne peut l’affirmer avec certitude. Et si le plafond écologique nécessite plutôt une baisse de moitié du PIB, devrait-on supprimer toute la production marchande et organiser une forme de collectivisation des moyens de production pour s’assurer que chacun pourra vivre dans un confort minimum malgré les contraintes très fortes qui pèseront alors sur la consommation ? Et devrions-nous limiter l’accès à certaines ressources pour éviter que, dans le cadre de leur temps libre les individus continuent de produire et d’approfondir leur empreinte écologique ?

Ce qui est certain, c’est qu’il est hautement improbable que la transition vers la post-croissance se fasse dans le bonheur et la félicité pour tous. De même, il est absurde d’affirmer que la décroissance n’affectera qu’une partie minoritaire de la société. La réalité c’est que la décroissance représentera une rupture anthropologique d’une violence inouïe pour tout le monde. On ne diminue pas la moitié de la consommation marchande des ménages en taxant un peu les 10% les plus riches. En masquant cette violence pour rendre leur projet désirable, les partisans de la décroissance risquent de rendre bien plus difficile l’acceptation des mesures qu’ils seraient amenés à prendre s’ils parvenaient au pouvoir. Churchill avait eu le courage de dire aux Britanniques qu’il leur promettait « du sang et des larmes » afin de vaincre l’Allemagne nazie. On attend des décroissants qu’ils aient la même honnêteté intellectuelle. Chiche ?

David Cayla

Lire aussi...

La dérive machiste des Passport Bros
Anticor souhaite renforcer l’éthique dans les institutions européennes
Maryse Condé, un monument littéraire s’en est allé
Des trains bientôt moins chers avec Kevin Speed ?

Féminicène : pour un féminisme du faire

Chronique

Féminicène : pour un féminisme du faire

Pour David Cayla, l’ouvrage de Véra Nikolski qui vient de paraître chez Fayard est une contribution majeure qui permet de repenser le féminisme en tant que mouvement politique et de comprendre les dangers qui menacent l’émancipation des femmes. Mais c’est aussi un livre qui entend comprendre ce que pourrait être une société post-pétrole. En ce sens, sa démarche matérialiste et rationnelle nous invite à une prise de conscience éclairée et sans illusion sur ce que pourrait nous réserver l’avenir.

En publiant cette semaine Féminicène, Véra Nikolski aborde frontalement deux grandes questions qui marquent notre époque : le féminisme et la transition écologique. Pour autant, son propos se démarque de la manière dont sont habituellement traités ces sujets. Dans cet ouvrage très érudit on ne trouvera pas de slogans militants ni de discours manichéens. Le propos est volontairement dépassionné, clinique, et il émane de ce livre un certain pessimisme qui devrait, c’est en tous cas le souhait de l’auteure, nous permettre d’affronter lucidement l’avenir et les défis qu’il porte.

S’il est marqué par un certain fatalisme – nous y reviendrons – Féminicène a au moins deux grands mérites. Le premier est de proposer une réponse argumentée au travail que l’anthropologue Emmanuel Todd a consacré à l’histoire de l’émancipation des femmes dans son dernier livre Où en sont-elles ?, paru en 2021. Pour l’auteure, l’ouvrage de Todd, vivement critiqué par une partie des féministes, pose quelques bonnes questions. Todd a raison, estime Nikolski, d’affirmer que le processus d’émancipation des femmes est largement achevé au sein des sociétés développées occidentales. Ainsi, l’ouvrage s’ouvre sur ce paragraphe :

 

« L’émancipation des femmes est aujourd’hui à son comble historique. Jamais l’humanité n’a connu un tel niveau d’égalité. Jamais les femmes n’ont été aussi libres, aussi éduquées, aussi soignées, aussi actives, aussi bien payées. Certes, des inégalités subsistent, tant en occident que, bien plus massivement, dans d’autres régions du monde, mais le chemin parcouru est immense : globalement, le statut des femmes est en nette amélioration partout et ce progrès est un des grands marqueurs de notre époque » (p. 11)

 

Deuxième point pour Todd, selon l’auteure, l’inquiétude vis-à-vis des mouvements néoféministes que Todd qualifie de « féminisme antagoniste » et que Nikolski appelle « féminisme des doléances ». Le paradoxe souligné par Todd, à savoir que le féminisme de 3ème vague est d’autant plus vindicatif que l’essentiel du chemin vers l’égalité est accompli est également évoqué par Nikolski. Mais si Todd l’explique par une frustration liée aux nouvelles responsabilités des femmes qui seraient, pour la première fois de leur histoire, confrontées à la prise en charge du collectif et devraient donc affronter de nouvelles angoisses, Nikolski y voit la conséquence d’une incompréhension fondamentale à propos des causes réelles de l’émancipation des femmes que ni Todd ni les féministes contemporaines n’ont suffisamment étudiées.

Ainsi, alors que le livre valide, pour l’essentiel, le questionnement de Todd, il s’en démarque quant à l’analyse des causes qui ont permis l’émancipation des femmes. Fidèle à son modèle anthropologique, Todd tend à montrer que la marche vers l’égalité femmes-hommes n’a rien d’un processus homogène et qu’elle varie selon les idéologies sous-jacentes portées par les structures familiales. Ainsi, il affirme que si les pays occidentaux sont plus féministes que la Chine ou les pays du Moyen-Orient, c’est parce qu’ils auraient gardé, pour la plupart, des structures familiales archaïques (la famille nucléaire) plus favorables à l’égalité des sexes. À l’inverse, les pays proches de l’axe Pékin-Bagdad-Ouagadougou, dont l’histoire est plus longue du fait d’avoir développé l’agriculture en premier, ont vécu des transformations profondes et leurs structures familiales se sont complexifiées (familles souches, familles communautaires…) avec pour principale conséquence l’abaissement continu du statut des femmes, jusqu’à l’enfermement dans certaines régions du nord de l’Inde ou d’Afghanistan.

Sans remettre en cause l’analyse anthropologique de Todd, Nikolski en souligne l’insuffisance. Il est en effet impossible d’expliquer, à partir d’une perspective uniquement culturelle et anthropologique, les progrès considérables du statut des femmes en Occident – mais aussi ailleurs dans le monde – depuis la fin du XIXe siècle. De fait, Emmanuel Todd ne propose aucune véritable explication pour comprendre le processus d’émancipation des femmes.

 

« Le livre d’Emmanuel Todd consacré à l’histoire des femmes et au phénomène de leur émancipation se distingue par un désintérêt surprenant pour le moment de bascule, celui où la révolution anthropologique dont l’ampleur et la rapidité stupéfient l’auteur se met en branle. On ne peut, à la lecture, qu’être frappé par le paradoxe consistant à évoquer un renversement civilisationnel majeur sans se pencher sur son point d’origine. […] [L]’auteur enjambe toute la période, pourtant cruciale pour le processus d’émancipation, qui court des premières revendications balbutiantes aux changements aussi fondamentaux que le droit de vote ou l’entrée des femmes sur le marché du travail. » (p. 109-110).

 

C’est à partir de cette question que Véra Nikolski produit son travail d’analyse et propose la thèse qui est au cœur de son livre. Si les femmes ont acquis davantage de libertés et de droits, ce ne serait pas en raison de transformations culturelles ou idéologiques, mais parce que les conditions matérielles de leur existence ont changé en profondeur.

Une approche matérialiste du féminisme

C’est le second grand mérite de l’ouvrage, celui de développer une théorie matérialiste du féminisme qui s’appuie très clairement – même si ce n’est jamais revendiqué – sur une méthodologie marxiste. Cette perspective matérialiste la conduit à deux constats dérangeants. Le premier est que la domination masculine, même si elle fut renforcée au cours des siècles par des croyances, des dispositions légales ou par le bain culturel souvent teinté de misogynie dans lequel évolue la plupart des sociétés, a d’abord des origines naturelles, fruits de l’âpreté de la vie humaine et des contraintes qu’impose la maternité au corps des femmes. Ainsi, l’auteure note que l’universalité de l’infériorité du statut des femmes ne peut s’expliquer par des causes culturelles : « à la différence de la plupart des autres faits sociaux, qui varient grandement d’une société à l’autre, et dont on peut espérer expliquer l’apparition par des contingences historiques de chacun des contextes, la domination des hommes sur les femmes est observée partout, dans toutes les sociétés humaines jusqu’à la nôtre, quelle qu’ait été, par ailleurs, leur variété » écrit-elle page 56. « La domination masculine est en effet collatéral de la nécessité, pour l’espèce, de survivre dans des conditions naturelles hostiles, étant données les différences physiologiques entre les sexes et le mode de procréation des humains, à une époque où le rendement du travail est très faible » (p. 105).

Ainsi, l’auteure estime que les causes de la domination masculine sont d’abord matérielles, fruit de la division sexuelle du travail entre d’une part l’activité de production et de défense du groupe que les hommes doivent assumer prioritairement et qui les pousse à se déplacer hors du foyer, et d’autre part le travail de reproduction, qui inclut le soin et l’attention portés aux jeunes enfants que les femmes sont chargées d’accomplir. Cette spécialisation sexuelle du travail est d’essence biologique, affirme l’auteure, qui condamne « le tabou de la biologie » qu’on trouve trop souvent dans les études contemporaines sur le genre. En appui de sa thèse elle rappelle que le premier tome du Deuxième sexe de Simone de Beauvoir, intitulé Les faits et les mythes et qu’elle estime « largement oblitéré aujourd’hui au profit du deuxième » (p. 71), explique à juste titre les causes biologiques de la domination masculine et que les arguments avancés par certains travaux féministes qui combattent cette thèse finissent inéluctablement par « adopter une vision absurde, tautologique, de l’histoire de l’humanité, ou un phénomène majeur n’a aucune cause, et ne doit s’expliquer que par lui-même – une forme moderne de la vision aristotélicienne de la génération spontanée » (p. 60).

En appui de son argumentation, l’auteure rappelle que le travail de reproduction qui incombait aux femmes était d’autant plus une source d’oppression et d’inégalité entre les sexes que, dans les sociétés préindustrielles, il était souvent nécessaire, pour chaque femme, d’avoir au moins quatre ou cinq enfants afin d’espérer qu’au moins deux d’entre eux survivent jusqu’à l’âge adulte et s’occupent ensuite de leurs parents âgés. Dans les conditions d’une société traditionnelle marquée par une forte mortalité infantile, même s’il était techniquement possible pour une femme de chasser, de cultiver la terre ou de se battre, il n’était pas rationnel d’organiser la société sur le principe de l’égalité des sexes.

Affirmer que les sociétés préindustrielles étaient fondées sur le principe de la division sexuelle du travail, n’implique pas qu’il était impossible à des femmes particulières de sortir de leur rôle, de devenir chasseresse ou même, comme Jeanne D’arc ou la guerrière Viking retrouvée dans la tombe de Birka, de s’illustrer en tant que glorieuses combattantes. De même, il était possible, pour des hommes, de s’extraire de leur rôle sexuel et d’adopter un genre féminin, en tout cas dans certaines sociétés comme les amérindiens d’Amérique du Nord (berdaches) ou les peuples d’Indochine (katoï). Cependant Nikolski insiste sur le fait que l’existence de ces cas ne peuvent suffire à nier le caractère universel de la domination masculine, même si l’intensité de cette domination pouvait, bien sûr, varier fortement d’une région à l’autre.

Une émancipation portée par les progrès de l’industrie et de la médecine

La seconde conséquence que l’auteure tire de son approche matérialiste du féminisme est que la révolution anthropologique, qui a consisté à mettre fin à une histoire plurimillénaire de domination masculine en quelques décennies doit nécessairement avoir des causes matérielles. Pour Nikolski, ce ne sont pas les luttes féministes qui ont permis aux femmes de se libérer mais les progrès technologiques engendrés par la révolution industrielle ainsi que les avancées scientifiques et médicales. Grâce à la mécanisation, l’avantage masculin lié à la force physique fut considérablement atténué, tandis que les progrès de la médecine et de l’obstétrique ont permis aux femmes de se libérer en grande partie de la charge de reproduction qui leur incombait en supprimant les dangers de l’accouchement et en baissant fortement la mortalité infantile. Enfin, au XXe siècle, le développement de l’électroménager, la création d’un État social assurant la protection contre la maladie et la vieillesse, le financement d’un réseau de crèches et d’écoles, contribuèrent fortement à la libéralisation les femmes.

La libéralisation des femmes a donc été, pour l’auteure, la conséquence des progrès apportés par la civilisation industrielle fondée sur le charbon et le pétrole plutôt que celles des luttes féministes, même si ces dernières ont parfois pu les accélérer, notamment dans le cas de l’avortement. « Au total, les droits semblent avoir été davantage accordés aux femmes par les hommes qu’arrachés à ceux-ci par celles-là » écrit-elle page 41, avant de conclure que « l’émancipation a renversé, en quelque 150 ans, un ordre vieux comme le monde. Elle s’est imposée sans que le groupe qui en a bénéficié, les femmes, n’ait eu à employer aucun des moyens habituellement nécessaires pour faire plier les dominants et les contraindre à partager leur pouvoir » (p. 43).

En somme, le processus d’émancipation des femmes est advenu parce que les conditions matérielles de l’existence humaine ont changé, mais aussi parce que tout le monde, y compris les hommes – et le système capitaliste salarial – y avait avantage. Après tout, des femmes émancipées c’est davantage de main d’œuvre et de consommation ; c’est moins de travail domestique et plus de production marchande, c’est plus de PIB et de croissance. C’est donc parfaitement compatible avec le capitalisme. Et les forces religieuses et culturelles qui s’y opposaient se sont finalement assez vite effacées compte-tenu de l’emprise qu’elles exerçaient sur les mentalités et les comportements.

Une émancipation menacée

Ce constat signifie-t-il qu’il n’y aurait plus aucune menace pour les libertés des femmes ? Rien ne serait plus dangereux que de le croire. La deuxième partie de Féminicène tire les conséquences des analyses de la première et met en garde contre les véritables dangers qui menacent l’émancipation des femmes. Ces dangers ne seraient ni « les hommes » en général ni l’idéologie patriarcale, mais « l’effondrement de la civilisation thermo-industrielle », conséquence de la raréfaction des ressources naturelles et de la fin de l’énergie abondante et peu chère qui est au fondement de nos économies. Ainsi, le monde de demain risque d’être « un monde plus pauvre, plus chaotique et plus violent que celui d’aujourd’hui » (p. 195). Or, si c’est l’amélioration des conditions matérielles d’existence qui a permis aux femmes de conquérir de nouveaux droits, il est à craindre que, à l’avenir, les conditions de l’émancipation des femmes ne puissent plus être assurées. Or, le féminisme, en tant qu’idéologie, ne semble pas prêt à prendre la mesure des effets dévastateurs pour sa cause que pourrait engendrer de la fin programmée du pétrole et des énergies fossiles. Nikolski le regrette vivement et souligne ce paradoxe.

 

« Il est particulièrement étrange de constater que ces chercheurs et militants qui sont en général sensibles aux thèmes de l’écologie et du changement climatique n’établissent aucun lien entre ces enjeux et la question féministe. Alors que notre monde est en train de changer et que des bouleversements plus globaux encore sont sur le point d’advenir, ils continuent à raisonner comme si de rien n’était, toutes choses égales par ailleurs, se situant dans un univers parallèle où ces deux classes de phénomènes n’entrerons jamais en collision. […] Pourtant, les changements, on l’a dit, risquent d’être massifs : « un enfant si je veux, quand je veux » ne survivra pas à la hausse de la mortalité infantile ; « trois enfants minimum pour toutes » ne sera pas un slogan mais la réalité statistique ; la PMA pour toutes risque de devenir la PMA pour personne (ou presque), sans parler des opérations de changement de sexe. Voilà les dangers qui devraient inquiéter les féministes et les pousser à explorer toutes les pistes possibles pour infléchir autant que faire se peut cette trajectoire » (p. 270-271).

 

Le livre s’alarme ainsi de l’inconséquence, voire des « enfantillages » (p. 273) que porte le « féminisme de la réclamation » qui caractérise les luttes d’aujourd’hui. « Cette coexistence d’une conscience écologique crépusculaire et de l’enfermement du féminisme sur le présent a de quoi étonner : les dangers à venir apparaissent aussi grands qu’une comète qui foncerait sur la Terre, et pourtant on se concentre sur le mansplaining. […] S’attaquant aux mœurs et aux règles actuelles en vue de les améliorer par la contrainte et la morale, ces combats n’ont d’incidence que sur le droit et les mentalités, c’est-à-dire sur les superstructures idéologiques de la société ; mais sur les conditions de ces droits et mentalités – le bien être matériel de nos sociétés, leur infrastructure économique et technologique – ils sont sans effet » (p. 271-272).

Les constats étant posés, comment y répondre ? L’auteure admet une part d’impuissance, ce qui lui permet de résumer ses principales conclusions :

 

« L’inégalité entre les sexes, on l’a vu, est à la fois un scandale moral et, durant le gros de l’histoire humaine, une conséquence logique des conditions d’existence. L’émancipation totale est à la fois un objectif désirable – car comment, au nom de quoi, désirer moins ? – et une impossibilité physique, car elle exige d’abolir entièrement la biologie (disparition des sexes, utérus artificiels…) et donc d’entrer dans une dystopie aliénante. Enfin, la détérioration à venir de la condition féminine est, très probablement, inévitable, tout comme l’est celle des conditions de vie de l’humanité dans son ensemble. Devant ces considérations déplaisantes, génératrices de dissonances cognitives, la réaction naturelle est de les nier, accusant l’émetteur de complaisance avec le patriarcat ; il serait pourtant plus utile pour l’avenir même des femmes de les garder en tête pour y apporter une réponse – non pas entièrement satisfaisante, mais la meilleure ou la moins mauvaise possible. » (p. 317).

 

Cette part d’impuissance ne doit cependant pas être une excuse pour abandonner tout espoir et renoncer à toute action. Même si l’avenir rend très plausible une disparition de notre mode de vie et une dégradation des libertés dont jouissent les femmes, il ne tient qu’à nous, collectivement, de limiter ce recul civilisationnel. Ainsi, même si la raréfaction de l’énergie et du pétrole est sans doute inéluctable, même si la productivité du travail risque de diminuer, condamnant l’humanité à travailler davantage pour produire moins de richesses, cela ne signifie pas que les apports de la science vont disparaître. Une partie des innovations technologiques qui caractérise nos sociétés pourra être préservée, même dans une civilisation post-pétrole. De même, tous les progrès sociaux et culturels de notre civilisation ne vont pas disparaitre. La question est donc de savoir comment en préserver un maximum et comment faire que les femmes ne soient pas condamnées à une brutale régression.

Pour un féminisme « adulte »

Pour l’auteure, la solution passe par une transformation en profondeur des modes d’action et des objectifs du féminisme contemporain. Plutôt que de lutter en se cantonnant au sein de la sphère idéologique et juridique et en défendant des droits qui risquent de ne pouvoir être préservés que dans le cadre d’une société opulente, il vaut mieux que les femmes investissent massivement les métiers qui sont amenés à devenir indispensables à la transition matérielle qui nous attend. Ce faisant, elles seront en position de force pour préserver leur statut social.

Ainsi, à l’instar des femmes iraniennes qui se font ingénieures pour lutter contre un régime oppressif, il faut que les féministes encouragent les femmes à s’engager davantage dans les sphères vitales de la société. Or, sur ce plan, le mouvement de libéralisation des femmes a eu un effet paradoxal. Confrontées à un éventail plus large de choix pour leurs carrières, la majorité des femmes s’est portée spontanément vers les métiers du secteur tertiaire, dans les emplois sociaux et relationnels. En revanche, les métiers liés aux domaines des STEM (science, technologie, ingénierie et mathématiques) restent encore aujourd’hui majoritairement investis par des hommes. Cette division sexuée des carrières, qui n’est en rien la conséquence d’un différentiel de compétences entre les sexes mais plutôt le résultat d’une appétence différente, est particulièrement problématique pour l’auteure, car les bouleversements à venir risquent de rendre ces métiers où les femmes sont les moins nombreuses socialement et économiquement indispensables.

Il est donc urgent, pour Véra Nikolski de développer un « féminisme du faire » dont l’objectif prioritaire ne devrait plus être d’accorder de nouveaux droits aux femmes, de transformer les mentalités ou de déconstruire la masculinité patriarcale, mais de pousser les femmes à s’imposer davantage dans les milieux professionnels où elles restent minoritaires. En somme, l’auteure propose que le féminisme contemporain incite davantage les femmes à devenir ingénieure et à construire des centrales nucléaires plutôt qu’à se perdre dans l’ésotérisme et à lancer des sorts, pour reprendre la formule malheureuse employée par Sandrine Rousseau.

Féminicène constitue sans aucun doute une contribution majeure au débat sur le féminisme et l’émancipation des femmes. Mais, plus fondamentalement, il invite à une réflexion bien plus large qui consiste à penser rationnellement, et non dans le cadre trop confortable du militantisme, la société de l’après pétrole.

À ce sujet, il est regrettable qu’aujourd’hui le débat sur l’avenir et la transition écologique soit marqué par un double déni. D’un côté les techno-optimistes sont persuadés que le capitalisme extractiviste peut poursuivre sa logique sans aucune limite et sans jamais être remis en cause. Il suffirait, en quelque sorte, de planter des éoliennes et d’acheter des voitures électriques pour répondre aux défis environnementaux et organiser une transition sans douleur. Dans l’autre camp, les partisans de la décroissance sont également dans le déni, persuadés qu’un avenir radieux, post-capitaliste, est possible et que sa mise en œuvre ne serait qu’une affaire de volonté politique. Or, si dans un monde aux ressources limitées la décroissance constitue un avenir bien plus probable que la poursuite du système actuel, il est également peu vraisemblable qu’elle se fasse dans la bonne humeur et la cordialité. La décroissance, qu’elle soit voulue ou subie, conduira mécaniquement à un effondrement des conditions matérielles de nos existences et ses effets seront certainement dévastateurs pour les plus fragiles et notamment pour les femmes. C’est à ce second déni auquel s’attaque cet ouvrage, et c’est aussi en ce sens qu’il est indispensable.

David Cayla

Lire aussi...

La dérive machiste des Passport Bros
Anticor souhaite renforcer l’éthique dans les institutions européennes
Maryse Condé, un monument littéraire s’en est allé
Des trains bientôt moins chers avec Kevin Speed ?

La réforme des retraites démontre l’impuissance économique d’Emmanuel Macron

Le Retour de la question stratégique

La réforme des retraites démontre l’impuissance économique d’Emmanuel Macron

À quoi était censée servir cette réforme des retraites, finalement ? À sauver le système des retraites menacé d’asphyxie financière ? On peut en douter. D’après le gouvernement, son objectif était de répondre à un déficit prévu de 13,5 milliards d’euros par an en 2030, selon certains scénarios du Conseil d’orientation des retraites (COR) (1). Or, non seulement les amendements successifs concédés à LR font qu’il n’est pas certain que ce projet de réforme rapporte cette somme, mais surtout l’enjeu financier était de toute façon assez dérisoire à l’origine.

Crédits photo : LP/ Jean-Baptiste Quentin

Des déficits… et 86,5 milliards de cadeaux fiscaux

Que représente le montant des retraites versé chaque année ? 332 milliards d’euros en 2020 d’après la DRESS. Autrement dit, les 13,5 milliards d’euros de déficit ne représentent que 4% du volume total des prestations versées. Mais ce chiffre lui-même est contestable, car on ne peut comparer le déficit de 2030 avec les recettes de 2020. Si l’on tient compte de l’inflation et de la croissance, les salaires en 2030 seront en réalité très certainement plus élevés qu’en 2020. C’est la raison pour laquelle le COR ne calcule pas les déficits en milliards d’euros mais en pourcentage du PIB. Avec ce mode de présentation, les déficits dont il est question devraient représenter environ 0,4% du PIB de 2030.

Autrement dit, la crise politique majeure que nous traversons a pour objet de résoudre un déficit potentiel en 2030 équivalent à 1/12ème du déficit actuel des comptes publics (4,7% en 2022). Tout ça pour ça !

Le pire, c’est qu’au même moment le gouvernement, conformément à ses engagements en faveur de la diminution de la fiscalité des entreprises, décidait de supprimer la cotisation sur la valeur ajoutée des entreprises (CVAE), ce qui représente un coût net de 8 milliards d’euros annuel pour les finances publiques. Il poursuit en cela la politique engagée par François Hollande qui avait introduit un crédit d’impôt pour les entreprises – le fameux CICE – qui a coûté près de 20 milliards, avant que le gouvernement Valls n’augmente le paquet cadeau de 21 milliards avec le mal nommé « pacte de responsabilité et de solidarité ».

Ajoutons à ces sommes la transformation de l’impôt sur la fortune en impôt sur la fortune immobilière (coût net pour les finances publiques : 3,5 milliards d’euros) décidée en 2017, la suppression de la taxe d’habitation pour la résidence principale (14 milliards d’euros) et la baisse de l’impôt sur les sociétés qui est passé en quelques années de 33% à 25% (il était de 50% jusqu’au milieu des années 1980) et qui représente un manque à gagner d’environ 20 milliards d’euros en 2022. Si on fait le cumul de ces dépenses fiscales, on parvient à une perte annuelle pour les finances publiques de plus 86,5 milliards d’euros, soit environ 3,3% du PIB, dont l’immense majorité au profit des entreprises. Sans parler des subventions directes à ces mêmes entreprises qui se sont multipliées avant même la crise pandémique.

Financer la politique de l’offre

Il faut le dire et le répéter. Le déficit public actuel n’est en rien lié à la hausse des dépenses sociales, et encore moins au coût des services publics. Il résulte, au contraire, d’un choix politique mené avec constance, démarré par François Hollande et poursuivi par Emmanuel Macron : celui d’assécher systématiquement les ressources fiscales au nom de la compétitivité des entreprises.

Car c’est bien cela qui est en jeu. Pour poursuivre les cadeaux fiscaux aux entreprises tout en limitant ses déficits, l’État est contraint de trouver de nouvelles ressources ou d’alléger certaines dépenses. Trouver des ressources, ce fut la stratégie initialement employée avec la hausse de certaines taxes sur le tabac, l’alcool ou les carburants, ce qui revient à mettre à contribution les « gars qui fument des clopes et roulent au diesel » selon la formule de l’ancien porte-parole du gouvernement Benjamin Griveaux. Mais le mouvement des Gilets jaunes, fin 2018, mis fin brutalement cette option. À partir de cette date, l’État a donc mis en œuvre une autre stratégie, fondée sur des économies à réaliser sur les dépenses sociales. C’est ainsi que la réforme des retraites est revenue dans l’actualité, avant d’être interrompue par la pandémie du Covid. Souvenez-vous, à l’issue du premier Conseil de défense consacré à la pandémie, le gouvernement annonçait, à la surprise générale, l’utilisation du 49.3 pour faire passer en force une réforme dites « structurelle » des retraites. Une réforme qui, en réalité, avait bien pour but de dégager des économies.

Cette même année, le gouvernement avait annoncé des mesures d’économie sur l’assurance chômage pénalisant les saisonniers et les contrats courts. Puis, à la fin de l’année 2022, il engagea une nouvelle loi d’économie consistant à réduire la durée d’indemnisation des demandeurs d’emploi lorsque le taux de chômage diminue. C’est ainsi que les chômeurs furent mis à contribution des politiques d’aide aux entreprises.

L’échec patent de l’attractivité fiscale

Si l’on s’en tenait à cette analyse, on pourrait résumer ainsi la logique fondamentale de la réforme des retraites de 2023 : Diminuer les dépenses sociales pour financer les politiques de compétitivité menées depuis dix ans visant à augmenter le taux de marge des entreprises. Sur ce plan, il faut bien reconnaître que la stratégie fut un succès. Jamais les bénéfices réalisés par les entreprises n’ont été aussi élevés. Ainsi, les sociétés du CAC 40 ont dégagé 152 milliards d’euros de profit l’année dernière, un montant « sans précédent », note le journal Le Monde.

Le problème est que ces milliards ne « ruissellent » pas sur l’économie française. C’est là que se situe l’impuissance de Macron et de sa stratégie. Persuadé que, pour relancer l’activité et l’emploi, il suffit d’attirer les entreprises, Macron – et Hollande avant lui – ont engagé la France dans la course à l’attractivité fiscale. Pourtant, non seulement le taux de croissance de l’économie française est faiblard depuis 2012, mais en plus les entreprises industrielles continuent de fermer et de délocaliser. Le résultat, c’est que la balance commerciale française a connu en 2022 un déficit record de 164 milliards d’euros, le pire de son histoire, soulignait Les Echos. En somme, la stratégie de relocalisation défendue au nom de la « souveraineté économique » est un échec. En témoigne l’état de notre industrie pharmaceutique qui n’a cessé de décliner depuis 2008. Et si on constate dernièrement quelques projets de relocalisation d’usines produisant des médicaments, c’est essentiellement grâce à des aides sectorielles, c’est-à-dire à de nouvelles dépenses publiques, et non du fait de la politique fiscale.

L’impuissance économique de Macron

Pourquoi les entreprises industrielles continuent-elles de fuir la France malgré la multiplication des cadeaux fiscaux ? Voici la question que devraient enfin se poser le gouvernement et les députés Renaissance. La réponse est pourtant simple et tient en deux éléments. Le premier est que ces aides fiscales ne sont jamais conditionnées à des contreparties ni concentrées sur des secteurs particuliers. En arrosant très large, on donne en fait très peu à chacun, ce qui coûte cher aux finances publiques tout en produisant un effet pratiquement nul pour chaque entreprise prise individuellement. C’est ainsi que le CICE a davantage profité aux grandes surfaces qui sont protégées de la concurrence internationale qu’aux entreprises industrielles qui doivent l’affronter.

La deuxième raison est que, tous les pays menant la même politique d’attractivité, les cadeaux des uns annulent bien évidemment les effets de ceux des autres. Si la France dépense 20 milliards pour attirer les emplois sur son sol et que l’Allemagne dépense 40 milliards pour faire la même chose, alors la politique d’attractivité française sera annihilée par celle de l’Allemagne et le coût pour les finances publiques jamais compensé par des gains d’emploi. J’avais prédit à l’époque l’échec de cette guerre économique que se mènent les pays européens entre eux et on ne peut pas dire que les faits, depuis, m’aient donné tort.

L’impuissance de Macron, en fin de compte, c’est celle qui consiste à tenter d’infléchir la dynamique de la mondialisation et de la concurrence intra-européenne en faisant payer aux Français d’abord les coûts directs de la désindustrialisation et de la perte des emplois, puis en leur faisant payer une seconde fois ces mêmes coûts en tentant vainement d’atténuer leurs effets par la politique fiscale et les mesures d’austérité.

Cette stratégie est d’autant plus vouée à l’échec que les seules politiques de réindustrialisation qui ont prouvé leur efficacité dans l’histoire sont celles, justement, que Macron ne peut pas employer : une politique commerciale protectionniste, à l’image de l’Inflation reduction act (IRA) mis en œuvre cet automne par Biden aux États-Unis ; une politique industrielle active qui viserait par exemple à faire baisser le coût de l’énergie et des matières premières ou à réserver une partie de la commande publique à des entreprises nationales ; une politique de change et une politique monétaire adaptées aux besoins de nos entreprises industrielles.

Hélas, dans ces trois domaines la France n’est plus souveraine. Elle ne peut plus rétablir le contrôle des prix de l’énergie et des matières premières du fait des politiques de libéralisation ; elle est impuissante à corriger les dysfonctionnements pourtant flagrants du marché européen de l’électricité ; elle ne peut, au nom du respect de la concurrence, réserver une partie de sa commande publique à ses entreprises nationales ; elle ne décide plus de sa politique commerciale, déléguée de manière exclusive à la Commission européenne, laquelle multiplie les accords de libre-échange ; enfin, elle ne maîtrise plus sa monnaie et sa politique monétaire.

Ainsi, confronté à sa propre impuissance économique, il ne reste plus à Emmanuel Macron que des « solutions » qui n’en sont pas : continuer de faire payer aux Français une stratégie inepte incapable d’engendrer les effets escomptés. Et on peut malheureusement s’attendre à ce que cette politique soit poursuivie jusqu’à ce que le déclin économique et industriel de la France ne devienne irrattrapable.

David Cayla

Références

(1) https://www.cor-retraites.fr/sites/default/files/2022-12/RA_COR2022%20def.pdf

(2)Lorem

(3)Lorem

(4)Lorem

(5)Lorem

Lire aussi...

La dérive machiste des Passport Bros
Anticor souhaite renforcer l’éthique dans les institutions européennes
Maryse Condé, un monument littéraire s’en est allé
Des trains bientôt moins chers avec Kevin Speed ?

Faillite de la SVB : quand la stratégie de hausse des taux des banques centrales trouve ses limites

Chronique

Faillite de la SVB : quand la stratégie de hausse des taux des banques centrales trouve ses limites

La faillite, le 10 mars dernier, de la Silicon Valley Bank (SVB) est la conséquence directe du renchérissement des taux d’intérêt. Loin d’être un épiphénomène, cet événement nous révèle surtout un fait majeur : les économies des pays développées ne parviendront sans doute jamais à revenir à la situation des années 1990-2000, celle du néolibéralisme triomphant.
La politique monétariste à la Volcker et le risque d’un « chaos économique et financier »

Depuis le retour de l’inflation, réapparue à l’occasion de la fin de la crise sanitaire, puis renforcée par la guerre en Ukraine et ses conséquences sur le prix de l’énergie et des céréales, les banques centrales ont engagé une politique de hausse de leur taux d’intérêt.

Officiellement, cette hausse était une mesure visant, dans la plus pure tradition monétariste, à contrecarrer l’inflation. Pour les monétaristes, « L’inflation est toujours et partout un phénomène monétaire », selon l’expression de Milton Friedman, c’est-à-dire la conséquence d’un accroissement trop rapide de la masse monétaire, elle-même permise par un laxisme coupable des banques centrales. Selon cette approche, pour contrecarrer l’inflation il convient de réduire le rythme de création monétaire, c’est-à-dire de limiter le crédit bancaire. Et pour cela, il faut le rendre plus coûteux, donc augmenter les taux d’intérêt.

Lorsque les banques centrales se sont mises à hausser leur taux, un certain nombre d’économistes, plutôt hétérodoxes, ont manifesté leurs craintes que ces hausses ne soient à la fois trop rapides et surtout inefficaces pour combattre le mal qu’elles prétendent résoudre. De fait, entre janvier 2022 et février 2023, le taux d’escompte de la Réserve fédérale (Fed), est passé de 0,25% à 4,75%. Or, rien ne prouve que l’inflation actuelle soit d’origine monétaire, ni qu’elle soit la conséquence d’un excès de demande ou de « l’argent facile ». En réalité, l’inflation post-covid ressemble davantage à une conséquence de la désorganisation de l’offre et des chaines d’approvisionnement. Ainsi, augmenter les taux d’intérêt de manière trop importante pourrait avoir l’effet inverse de celui recherché. En limitant les capacités d’investissement des entreprises on renforce les difficultés de l’offre et on accentue les causes véritables de l’inflation qu’on prétend combattre.

Augmenter ou baisser les taux ? Les objectifs des banques centrales étaient peut-être plus subtils. Le problème avec les interprétations précédentes est que si le but des banques centrales était de lutter contre l’inflation, il était peu probable que des taux d’intérêt à 4,75% puissent y changer quoi que ce soit. En effet, pour évaluer le coût du crédit, ce qui compte n’est pas le taux d’intérêt nominal, mais le taux réel, c’est-à-dire l’écart entre le taux nominal et le taux d’inflation. De fait, pour un monétariste, restreindre l’accès au crédit suppose d’augmenter le taux réel, c’est-à-dire d’établir des taux d’intérêt nominaux à un niveau nettement supérieur au taux d’inflation.

Prenons un exemple historique. À l’époque où les idées de Milton Friedman étaient acceptées comme des vérités indiscutables, au début des années 1980, la Fed, alors sous la présidence de Paul Volcker, avait décidé de monter ses taux d’intérêt jusqu’à 20% alors que l’inflation était à 10%. Cela correspondait à un taux d’intérêt réel de 10%. Or, que constate-t-on aujourd’hui ? Les taux de la Réserve fédérale sont certes à 4,75%, mais l’inflation aux États-Unis était d’environ 6,4% en janvier dernier. Autrement dit, le taux d’intérêt réel qu’impose la Fed est… négatif ! On est donc très loin de la politique de Volcker ! Les hausses de taux étaient en trompe-l’œil et les États-Unis ne sont jamais réellement sortis d’une politique monétaire accommandante. En augmentant ses taux, la Fed a surtout cherché à limiter l’effondrement des taux réels en compensant la hausse de l’inflation par une hausse symétrique des taux directeurs… mais elle a toujours pris soin de les maintenir à un niveau inférieur au seuil d’inflation.

Dans mon livre Déclin en chute du néolibéralisme, dont la rédaction s’est achevée à l’été 2021, je m’étais déjà interrogé sur les conséquences du retour de l’inflation et sur les stratégies des banques centrales. Allaient-elles revenir au monétarisme de Volcker ou garderaient-elles une politique monétaire relativement accommodante ? Voici ce que j’écrivais à l’époque (p. 235) :

« Tant que l’inflation restait faible, les banquiers centraux pouvaient justifier des politiques monétaires expansives au nom de la « réparation » des marchés. À présent que l’inflation resurgit, ils vont devoir choisir entre pratiquer une politique à la Volcker – et provoquer un chaos économique et financier – ou admettre que le monétarisme ne peut plus servir de boussole pour guider leurs actions – ce qui les conduira à tâtonner pour tenter de mener des politiques monétaires pragmatiques. »

Soyons modérément optimistes et parions qu’il y a quelques chances pour que les banques centrales renoncent au dogmatisme.

Pourquoi estimais-je alors qu’une politique monétariste à la Volcker risquait d’engendre un « chaos économique et financier » ? Parce que la situation économique et financière des économies développées n’est plus du tout celle des années 1980. Les politiques de déréglementation financière ont conduit à inventer une multitude de nouveaux instruments financiers qui ont rendu l’endettement plus facile. La conséquence en fut une hausse globale de l’endettement public et privé qui est passé d’environ 150% du PIB à la fin des années 1970 aux États-Unis à plus de 350% du PIB au moment du déclenchement de la crise financière de 2007. Depuis, le taux d’endettement global a légèrement baissé en dépit d’une hausse ponctuelle au moment de la crise Covid (Figure 1).

Figure 1 : endettement sectoriel de l’économie américaine (1954-2022) en % du PIB. Source : Réserve fédérale. 

Ce que démontre ce graphique (la situation est similaire dans les pays européens), c’est que le niveau d’endettement de l’ensemble des secteurs économiques est bien trop élevé pour pouvoir absorber une hausse brutale des taux d’intérêt. La hausse des taux fragilise naturellement les débiteurs, notamment ceux qui empruntent à taux variable, mais aussi ceux qui empruntent à taux fixe et doivent se refinancer. Dans une telle situation, il n’est donc pas possible, non seulement d’avoir des taux d’intérêt réels de 10%, mais même d’aller vers des taux d’intérêt réels positifs.

C’est sans doute la raison pour laquelle les banques centrales ont, de fait, tâtonné, en augmentant leurs taux avec mesure, par paliers, en attendant de voir quand et où cela allait craquer.

Et de fait, l’économie américaine a connu un premier « craquage ». La faillite, le 10 mars dernier, de la Silicon Valley Bank (SVB) est la conséquence directe du renchérissement des taux d’intérêt. La SVB avait investi une grande partie des dépôts de ses clients (beaucoup de start-ups et d’entreprises de la Silicon Valley) en bons du Trésor américains. Or, du fait de la hausse des taux, les obligations achetées à l’époque où les taux d’intérêt étaient faibles ont perdu de la valeur. Du côté des entreprises de la Silicon Valley, les levées de fonds sont devenues plus difficiles en raison des problèmes spécifiques que connaît ce secteur depuis un an et du renchérissement mais aussi de la hausse du coût de l’argent qui a rendu les investisseurs plus frileux. Cet effet ciseaux (moins d’argent frais, et des réserves en obligation dont la valeur se dépréciait), a engendré des pertes pour la SVB qui ont éclaté au grand jour lorsque ses clients ont voulu retirer leurs fonds et que la banque fut contrainte de revendre à pertes les bons du Trésor qu’elle détenait.

Les leçons de la faillite de la Silicon Valley Bank (SVB)

En fin de compte, trois leçons peuvent être tirées de cet évènement.

La première est que la Fed semble avoir atteint les limites de sa politique de hausse des taux. De ce fait, il est probable qu’elle renonce, dans les mois qui viennent, à poursuivre sa stratégie de restriction monétaire pour éviter que d’autres faillites suivent celle de la SVB. Cela donnera un peu d’air à la BCE qui pourra elle-même alléger sa politique de hausse.

La deuxième leçon, sans doute la plus intéressante, est que les taux actuels restent inférieurs au taux d’inflation. Autrement dit, la « normalisation » des politiques monétaires espérée par les banquiers centraux en 2021 devient impossible. Si d’aventure l’inflation devait baisser franchement, les banquiers centraux seraient sans doute contraints de diminuer à leur tour leurs taux directeurs pour maintenir des taux réels proche de zéro. La politique des taux zéro, qui a marqué les politiques monétaires depuis 2008, n’est donc pas terminée, et on ne voit pas comment elle pourrait se terminer à moyen terme.

La troisième leçon est que la dynamique de « stagnation séculaire » dans laquelle les économies des pays développés s’étaient enfoncées les unes après les autres dans les années post-2008, et qui est caractérisée par des taux d’intérêt nuls, un faible niveau d’investissement et une croissance atone n’est sans doute pas terminée. Certains économistes tel Jean-Baptiste Michau estimaient en 2021 que le retour de l’inflation pourrait permettre d’en finir avec la croissance poussive des années antérieures. Force est de constater que ce n’est pas arrivé. La hausse des taux de profit des entreprises, permise par une inflation supérieure à la hausse des salaires, n’a pas engendré de relance de l’investissement. Et si l’emploi augmente en France, c’est surtout en raison de la diminution de la productivité du travail comme je l’expliquais récemment. La fin des hausses de taux marquerait le renoncement définitif à l’objectif de rebasculer en terrain de taux d’intérêt réels positifs, ce qui implique de renoncer à une rentabilité positive pour de nombreux actifs.

En somme, les économies des pays développées ne parviendront sans doute jamais à revenir à la situation des années 1990-2000, celle du néolibéralisme triomphant. Une époque où les banquiers centraux pouvaient se contenter de surveiller l’inflation et où les taux d’intérêt réels étaient faibles mais positifs. Aujourd’hui, la stabilité du système financier devient leur principale et unique préoccupation. Comme l’explique l’analyste financier Bruno Jacquier au journal Le Monde, « Si demain il y a un risque de voir la stabilité financière remise en cause, l’inflation ne sera plus du tout prioritaire : l’objectif sera de stabiliser le marché interbancaire, pour que les banques continuent de se prêter entre elles en se faisant confiance. Et tant pis si on doit rebaisser les taux et laisser déraper l’inflation. »

Dans le monde qui vient, la régulation de l’économie et de la finance exigera sans doute des interventions continues et massives des autorités publiques au sein des marchés. Les « lois du marchés » devront être de plus en plus contournées pour maintenir le système à flot. Il faudra donc repenser en profondeur le fonctionnement réel de l’économie. Car la réalité semble sortir de plus en plus souvent des modèles et des schémas auxquels les économistes sont habitués.

 

David Cayla

Lire aussi...

La dérive machiste des Passport Bros
Anticor souhaite renforcer l’éthique dans les institutions européennes
Maryse Condé, un monument littéraire s’en est allé
Des trains bientôt moins chers avec Kevin Speed ?

Le mystère de la productivité disparue du travail

Chronique

Le mystère de la productivité disparue du travail

Dans cette nouvelle chronique, David Cayla évoque la baisse de la productivité du travail en France. Il revient sur ses causes, pourquoi cela arrange le gouvernement, et surtout en quoi cela pourrait être inquiétant pour l’avenir et la croissance économique.

C’est apparemment une bonne nouvelle pour le gouvernement, mais elle inquiète les économistes. En France, au troisième trimestre 2022, la productivité du travail par salarié était inférieure de 6,4% à ce qu’elle devrait être, affirme une note de la DARES. Pire, elle était plus faible qu’en 2019, ou en 2015. Ainsi, d’après l’INSEE, une personne travaillant dans le secteur marchand produit 3,8% de richesses de moins qu’en 2019.

Pourquoi est-ce une bonne nouvelle pour le gouvernement ? Eh bien parce que cela signifie qu’en dépit d’une croissance faiblarde depuis la fin de la crise sanitaire, la France parvient tout de même à créer des centaines de milliers d’emplois sur un rythme d’environ 100 000 emplois nouveaux chaque trimestre. Dans un contexte où la population active n’augmente presque pas, cette « performance » permet de diminuer sans trop d’effort le chômage de manière accélérée. Depuis le quatrième trimestre 2019, environ 930 000 emplois ont été créés, ce qui a entrainé une forte diminution du chômage qui est passé de 8,2% fin 2019, à 7,3% au troisième trimestre 2022 (7,1% en France métropolitaine). L’économie française ne produit pas beaucoup plus de richesses aujourd’hui qu’il y a trois ans, mais elle le fait avec davantage d’emplois.

Le problème est que cette baisse soudaine de la productivité du travail n’est pas simple à expliquer, et c’est en cela qu’elle inquiète les économistes. Est-ce un phénomène passager où l’indice d’une sous-performance structurelle de l’économie française ? Remarquons d’abord qu’elle n’est pas due à la baisse du temps de travail par salarié engendrée par les mesures d’activités partielles lors de la crise sanitaire, car c’est surtout la productivité horaire qui diminue. De plus, la France connaît une situation assez unique parmi les économies similaires. En Allemagne, en Italie, au Royaume-Uni ou aux États-Unis, la productivité du travail s’est rétablie et dépasse son niveau d’avant la crise. Seule l’Espagne se trouve avec une productivité du travail inférieure à celle de 2019, mais dans ce pays cette diminution est nettement moindre qu’en France.

Ce qui est inquiétant c’est ce que la baisse de la productivité du travail pourrait signifier pour l’avenir : une compétitivité affaiblie, une déflation salariale, et sans doute la fin de la croissance économique, à moins d’augmenter le taux d’emploi – ce qu’essaie d’ailleurs de faire le gouvernement avec les réformes du régime de retraite et celle de l’assurance chômage. Autrement dit, la baisse de la productivité du travail pourrait être l’indicateur plus global d’une dégradation invisible de l’économie française.

Un problème conjoncturel ?

Reste que pour l’instant rien ne prouve que cette baisse soit durable. Plusieurs explications conjoncturelles pourraient l’expliquer. En premier lieu, la période pandémique, avec ses confinements et ses incertitudes, mais aussi ses mesures d’aides et de chômage partiel, a logiquement poussé les entreprises à préserver l’emploi, quitte à réduire ponctuellement la production. De plus, parmi les mesures engagées par le gouvernement, le plan « un jeune, une solution » a contribué à une très forte hausse des contrats d’alternance et d’apprentissage. Or, comme l’explique la note de la DARES, si ces emplois sont comptabilisés comme les autres, leur productivité est bien plus faible. De plus, il convient d’organiser l’encadrement des apprentis et des alternants, ce qui réduit la productivité des autres salariés. Mais en dépit de sa forte croissance, le développement de l’apprentissage et de l’alternance n’expliquerait qu’un cinquième de la baisse de la productivité du travail estime la DARES. Il faut donc chercher ailleurs.

Une hypothèse parfois avancée est celle des conséquences sanitaires directes de la pandémie de covid, avec son lot d’arrêts maladie, de covids longs, de burn-out et de dépression. Le principe même d’exiger l’isolement pendant une semaine ou dix jours des personnes infectées pas le covid a sans aucun doute eu des effets sur la productivité du travail, y compris sur la productivité horaire, car certaines équipes de travail se trouvèrent désorganisées par ces absences à répétition. C’est d’ailleurs sans doute la raison pour laquelle le gouvernement a récemment abrogé les mesures d’exception relatives à la gestion des arrêts de travail liés au covid.

Une autre hypothèse conjoncturelle qui pourrait expliquer la baisse de la productivité du travail est celle de la désorganisation dans laquelle s’est produite la reprise. Le manque de composants dans l’industrie automobile, ou de matériaux dans la construction, ont pu diminuer le niveau de production sans que l’emploi, ni même les heures travaillées, ne baissent dans les mêmes proportions. De plus, la pénurie de main d’œuvre dans certains secteurs a poussé certaines entreprises à garder une partie de leurs salariés surnuméraires pour éviter d’engager de coûteux et difficiles recrutements en attendant un retour d’activité.

Enfin, un dernier facteur spécifique à la France concerne la baisse de la productivité du travail dans le secteur de la production d’électricité, une conséquence de l’arrêt, en 2022, de nombreux réacteurs nucléaires.

Une conséquence de la désindustrialisation ?

Toutes ces explications pourraient rassurer. La baisse française de la productivité du travail ne serait que la conséquence d’une situation ponctuelle qui sera amenée à évoluer. Il y a cependant d’autres explications possibles, et certaines pourraient durer, voire se renforcer à l’avenir.

La première chose à noter est que le déclin industriel de la France s’est récemment approfondi, comme en témoigne le creusement du déficit commercial en 2022 qui a atteint des records en dépassant 160 milliards d’euros. Or, le niveau d’industrialisation d’un pays est directement lié à ses capacités exportatrices (on exporte trois à quatre fois plus de biens que de services), mais surtout à ses gains de productivité potentiels. De fait, de nombreux emplois de services ne permettent pas d’augmenter la productivité du travail. C’est le cas par exemple des emplois relationnels tels que l’enseignement, le soin, le spectacle vivant, mais aussi de nombreux autres emplois du secteur tertiaire… Un pianiste, aussi doué soit-il, ne peut passer moins de temps à jouer une sonate aujourd’hui qu’il y a 200 ans, et un enseignant doit toujours consacrer le même temps incompressible pour apprendre à lire à un enfant de six ans.

Ce qui permet des gains de productivité c’est, en général, l’emploi industriel, parce que ce sont des emplois plus facilement mécanisables. Ainsi, moins il y a d’emplois industriels dans un pays, plus il est difficile de faire progresser la productivité du travail. Cela ne signifie pas que les services ne soient jamais concernés. Les caisses automatiques sont un exemple bien connu d’automatisation du secteur tertiaire, mais ces dernières sont loin d’avoir remplacé tous les personnels de caisse, et les gains de productivité qu’elles permettent ne sont globalement pas si importants.

Plus fondamentalement, l’économie française s’est désindustrialisée, mais elle a aussi produit de nombreux emplois de service peu productifs, tels que les livreurs à domicile ou les services à la personne. Ces changements structurels de l’économie française pourraient expliquer plus largement, non pas la baisse de la productivité des trois dernières années, mais la faiblesse de sa croissance depuis une vingtaine d’année, que la baisse récente n’aurait fait que mettre en lumière.

Bullshit jobs et bureaucratisation

Une dernière explication à l’effritement structurel de la productivité du travail pourrait être liée aux transformations internes des entreprises et des administrations. Dans un article devenu viral publié en 2013, puis dans un ouvrage paru en 2019, l’anthropologue américain David Graeber affirme qu’une partie de notre économie serait gangrénée par l’expansion d’une couche parasitaire de cadres supérieurs ou intermédiaires occupant des « d’emplois à la cons » (bullshit jobs). Ces personnes seraient recrutées non pour leur capacité à produire des biens ou des services utiles, mais parce qu’elles rendent certains services à leurs recruteurs. Avec la hausse de la productivité du travail, expliquait Graeber, nous pourrions travailler beaucoup moins qu’au siècle dernier tout en profitant d’un niveau de vie tout à fait satisfaisant. Mais cette baisse du temps de travail serait incompatible avec le fonctionnement du capitalisme contemporain. De plus, la hausse du niveau général d’éducation pousse à créer des emplois de cadres. Autrement dit, pour Graeber, de nombreux emplois, parfois bien rémunérés n’existent qu’en raison du fonctionnement interne des bureaucraties publiques et privées, dont la particularité est de s’étendre et de s’auto-alimenter pour résoudre des problèmes qu’elle génère parfois toute seule. Les responsables projet, chargés de missions et superviseurs en tout genre, n’ont parfois d’autre utilité que de donner l’impression d’une action ou de « cocher des cases » en vue d’afficher des bilans ou d’écrire des rapports qui ne sont jamais lus.

La bureaucratisation de l’économie dans son ensemble est sans doute l’une des raisons structurelles pour laquelle la productivité du travail stagne et la souffrance au travail augmente depuis une vingtaine d’année en France et dans la plupart des pays développés. Plus fondamentalement, le manque d’attrait et de valorisation des métiers de « ceux qui font » au profit de « ceux qui pensent et qui décident » pousse à une hypertrophie de la hiérarchie dans son ensemble qui finit par se transformer en strate parasitaire. En France, certains services publics tels que l’enseignement, la santé et la recherche sont particulièrement touchés par ce phénomène. Mais cela concerne aussi le secteur marchand, voire l’action politique, lorsque la communication d’un élu finit par devenir plus importante que sa capacité à prendre des décisions et à étudier sérieusement ses dossiers.

Dans l’organisation contemporaine, une partie importante du temps de travail est tournée vers l’intérieur de l’entreprise, vers sa gestion, les réflexions sur sa structure et son évolution, au détriment de la production elle-même et de la réalisation de ses missions premières. La logique du management par projet conduit par exemple à multiplier les strates décisionnelles et pousse à entreprendre des réformes au détriment de l’action concrète et à recruter toujours davantage de personnels pour coordonner la mise en place de ces réformes, tout en consumant le temps de ceux dont le travail est tourné vers l’extérieur et qui assurent in fine l’essentiel de la production. Cette dynamique est renforcée par la multiplication des bilans et comptes-rendus que toute entreprise est amenée à produire pour ses actionnaires, ses financeurs, l’administration, ses clients ou même ses propres personnels, dans une boucle sans fin d’auto-évaluation permanente.

En fin de compte, étudier l’évolution de la productivité du travail nous permet d’apprendre beaucoup sur le fonctionnement et les dysfonctionnements de notre économie. Mais la productivité du travail, telle qu’elle est quantifiée, n’en est pas moins un indicateur contestable. Car on ne sait jamais quelle est la valeur réellement produite par le travail. Aussi, la question qui devrait nous occuper devrait être moins de comprendre comment évolue la productivité du travail et ce qu’elle implique sur l’emploi que de mieux connaitre ce qu’on produit collectivement et d’être capable de mesurer l’utilité véritable de notre travail et la fonction sociale qu’il remplit réellement.

David Cayla

Lire aussi...

La dérive machiste des Passport Bros
Anticor souhaite renforcer l’éthique dans les institutions européennes
Maryse Condé, un monument littéraire s’en est allé
Des trains bientôt moins chers avec Kevin Speed ?
Un tout petit effort pour ne rien rater …

Inscrivez-vous à notre newsletter