Féminicène : pour un féminisme du faire

Chronique

Féminicène : pour un féminisme du faire

Pour David Cayla, l’ouvrage de Véra Nikolski qui vient de paraître chez Fayard est une contribution majeure qui permet de repenser le féminisme en tant que mouvement politique et de comprendre les dangers qui menacent l’émancipation des femmes. Mais c’est aussi un livre qui entend comprendre ce que pourrait être une société post-pétrole. En ce sens, sa démarche matérialiste et rationnelle nous invite à une prise de conscience éclairée et sans illusion sur ce que pourrait nous réserver l’avenir.

En publiant cette semaine Féminicène, Véra Nikolski aborde frontalement deux grandes questions qui marquent notre époque : le féminisme et la transition écologique. Pour autant, son propos se démarque de la manière dont sont habituellement traités ces sujets. Dans cet ouvrage très érudit on ne trouvera pas de slogans militants ni de discours manichéens. Le propos est volontairement dépassionné, clinique, et il émane de ce livre un certain pessimisme qui devrait, c’est en tous cas le souhait de l’auteure, nous permettre d’affronter lucidement l’avenir et les défis qu’il porte.

S’il est marqué par un certain fatalisme – nous y reviendrons – Féminicène a au moins deux grands mérites. Le premier est de proposer une réponse argumentée au travail que l’anthropologue Emmanuel Todd a consacré à l’histoire de l’émancipation des femmes dans son dernier livre Où en sont-elles ?, paru en 2021. Pour l’auteure, l’ouvrage de Todd, vivement critiqué par une partie des féministes, pose quelques bonnes questions. Todd a raison, estime Nikolski, d’affirmer que le processus d’émancipation des femmes est largement achevé au sein des sociétés développées occidentales. Ainsi, l’ouvrage s’ouvre sur ce paragraphe :

 

« L’émancipation des femmes est aujourd’hui à son comble historique. Jamais l’humanité n’a connu un tel niveau d’égalité. Jamais les femmes n’ont été aussi libres, aussi éduquées, aussi soignées, aussi actives, aussi bien payées. Certes, des inégalités subsistent, tant en occident que, bien plus massivement, dans d’autres régions du monde, mais le chemin parcouru est immense : globalement, le statut des femmes est en nette amélioration partout et ce progrès est un des grands marqueurs de notre époque » (p. 11)

 

Deuxième point pour Todd, selon l’auteure, l’inquiétude vis-à-vis des mouvements néoféministes que Todd qualifie de « féminisme antagoniste » et que Nikolski appelle « féminisme des doléances ». Le paradoxe souligné par Todd, à savoir que le féminisme de 3ème vague est d’autant plus vindicatif que l’essentiel du chemin vers l’égalité est accompli est également évoqué par Nikolski. Mais si Todd l’explique par une frustration liée aux nouvelles responsabilités des femmes qui seraient, pour la première fois de leur histoire, confrontées à la prise en charge du collectif et devraient donc affronter de nouvelles angoisses, Nikolski y voit la conséquence d’une incompréhension fondamentale à propos des causes réelles de l’émancipation des femmes que ni Todd ni les féministes contemporaines n’ont suffisamment étudiées.

Ainsi, alors que le livre valide, pour l’essentiel, le questionnement de Todd, il s’en démarque quant à l’analyse des causes qui ont permis l’émancipation des femmes. Fidèle à son modèle anthropologique, Todd tend à montrer que la marche vers l’égalité femmes-hommes n’a rien d’un processus homogène et qu’elle varie selon les idéologies sous-jacentes portées par les structures familiales. Ainsi, il affirme que si les pays occidentaux sont plus féministes que la Chine ou les pays du Moyen-Orient, c’est parce qu’ils auraient gardé, pour la plupart, des structures familiales archaïques (la famille nucléaire) plus favorables à l’égalité des sexes. À l’inverse, les pays proches de l’axe Pékin-Bagdad-Ouagadougou, dont l’histoire est plus longue du fait d’avoir développé l’agriculture en premier, ont vécu des transformations profondes et leurs structures familiales se sont complexifiées (familles souches, familles communautaires…) avec pour principale conséquence l’abaissement continu du statut des femmes, jusqu’à l’enfermement dans certaines régions du nord de l’Inde ou d’Afghanistan.

Sans remettre en cause l’analyse anthropologique de Todd, Nikolski en souligne l’insuffisance. Il est en effet impossible d’expliquer, à partir d’une perspective uniquement culturelle et anthropologique, les progrès considérables du statut des femmes en Occident – mais aussi ailleurs dans le monde – depuis la fin du XIXe siècle. De fait, Emmanuel Todd ne propose aucune véritable explication pour comprendre le processus d’émancipation des femmes.

 

« Le livre d’Emmanuel Todd consacré à l’histoire des femmes et au phénomène de leur émancipation se distingue par un désintérêt surprenant pour le moment de bascule, celui où la révolution anthropologique dont l’ampleur et la rapidité stupéfient l’auteur se met en branle. On ne peut, à la lecture, qu’être frappé par le paradoxe consistant à évoquer un renversement civilisationnel majeur sans se pencher sur son point d’origine. […] [L]’auteur enjambe toute la période, pourtant cruciale pour le processus d’émancipation, qui court des premières revendications balbutiantes aux changements aussi fondamentaux que le droit de vote ou l’entrée des femmes sur le marché du travail. » (p. 109-110).

 

C’est à partir de cette question que Véra Nikolski produit son travail d’analyse et propose la thèse qui est au cœur de son livre. Si les femmes ont acquis davantage de libertés et de droits, ce ne serait pas en raison de transformations culturelles ou idéologiques, mais parce que les conditions matérielles de leur existence ont changé en profondeur.

Une approche matérialiste du féminisme

C’est le second grand mérite de l’ouvrage, celui de développer une théorie matérialiste du féminisme qui s’appuie très clairement – même si ce n’est jamais revendiqué – sur une méthodologie marxiste. Cette perspective matérialiste la conduit à deux constats dérangeants. Le premier est que la domination masculine, même si elle fut renforcée au cours des siècles par des croyances, des dispositions légales ou par le bain culturel souvent teinté de misogynie dans lequel évolue la plupart des sociétés, a d’abord des origines naturelles, fruits de l’âpreté de la vie humaine et des contraintes qu’impose la maternité au corps des femmes. Ainsi, l’auteure note que l’universalité de l’infériorité du statut des femmes ne peut s’expliquer par des causes culturelles : « à la différence de la plupart des autres faits sociaux, qui varient grandement d’une société à l’autre, et dont on peut espérer expliquer l’apparition par des contingences historiques de chacun des contextes, la domination des hommes sur les femmes est observée partout, dans toutes les sociétés humaines jusqu’à la nôtre, quelle qu’ait été, par ailleurs, leur variété » écrit-elle page 56. « La domination masculine est en effet collatéral de la nécessité, pour l’espèce, de survivre dans des conditions naturelles hostiles, étant données les différences physiologiques entre les sexes et le mode de procréation des humains, à une époque où le rendement du travail est très faible » (p. 105).

Ainsi, l’auteure estime que les causes de la domination masculine sont d’abord matérielles, fruit de la division sexuelle du travail entre d’une part l’activité de production et de défense du groupe que les hommes doivent assumer prioritairement et qui les pousse à se déplacer hors du foyer, et d’autre part le travail de reproduction, qui inclut le soin et l’attention portés aux jeunes enfants que les femmes sont chargées d’accomplir. Cette spécialisation sexuelle du travail est d’essence biologique, affirme l’auteure, qui condamne « le tabou de la biologie » qu’on trouve trop souvent dans les études contemporaines sur le genre. En appui de sa thèse elle rappelle que le premier tome du Deuxième sexe de Simone de Beauvoir, intitulé Les faits et les mythes et qu’elle estime « largement oblitéré aujourd’hui au profit du deuxième » (p. 71), explique à juste titre les causes biologiques de la domination masculine et que les arguments avancés par certains travaux féministes qui combattent cette thèse finissent inéluctablement par « adopter une vision absurde, tautologique, de l’histoire de l’humanité, ou un phénomène majeur n’a aucune cause, et ne doit s’expliquer que par lui-même – une forme moderne de la vision aristotélicienne de la génération spontanée » (p. 60).

En appui de son argumentation, l’auteure rappelle que le travail de reproduction qui incombait aux femmes était d’autant plus une source d’oppression et d’inégalité entre les sexes que, dans les sociétés préindustrielles, il était souvent nécessaire, pour chaque femme, d’avoir au moins quatre ou cinq enfants afin d’espérer qu’au moins deux d’entre eux survivent jusqu’à l’âge adulte et s’occupent ensuite de leurs parents âgés. Dans les conditions d’une société traditionnelle marquée par une forte mortalité infantile, même s’il était techniquement possible pour une femme de chasser, de cultiver la terre ou de se battre, il n’était pas rationnel d’organiser la société sur le principe de l’égalité des sexes.

Affirmer que les sociétés préindustrielles étaient fondées sur le principe de la division sexuelle du travail, n’implique pas qu’il était impossible à des femmes particulières de sortir de leur rôle, de devenir chasseresse ou même, comme Jeanne D’arc ou la guerrière Viking retrouvée dans la tombe de Birka, de s’illustrer en tant que glorieuses combattantes. De même, il était possible, pour des hommes, de s’extraire de leur rôle sexuel et d’adopter un genre féminin, en tout cas dans certaines sociétés comme les amérindiens d’Amérique du Nord (berdaches) ou les peuples d’Indochine (katoï). Cependant Nikolski insiste sur le fait que l’existence de ces cas ne peuvent suffire à nier le caractère universel de la domination masculine, même si l’intensité de cette domination pouvait, bien sûr, varier fortement d’une région à l’autre.

Une émancipation portée par les progrès de l’industrie et de la médecine

La seconde conséquence que l’auteure tire de son approche matérialiste du féminisme est que la révolution anthropologique, qui a consisté à mettre fin à une histoire plurimillénaire de domination masculine en quelques décennies doit nécessairement avoir des causes matérielles. Pour Nikolski, ce ne sont pas les luttes féministes qui ont permis aux femmes de se libérer mais les progrès technologiques engendrés par la révolution industrielle ainsi que les avancées scientifiques et médicales. Grâce à la mécanisation, l’avantage masculin lié à la force physique fut considérablement atténué, tandis que les progrès de la médecine et de l’obstétrique ont permis aux femmes de se libérer en grande partie de la charge de reproduction qui leur incombait en supprimant les dangers de l’accouchement et en baissant fortement la mortalité infantile. Enfin, au XXe siècle, le développement de l’électroménager, la création d’un État social assurant la protection contre la maladie et la vieillesse, le financement d’un réseau de crèches et d’écoles, contribuèrent fortement à la libéralisation les femmes.

La libéralisation des femmes a donc été, pour l’auteure, la conséquence des progrès apportés par la civilisation industrielle fondée sur le charbon et le pétrole plutôt que celles des luttes féministes, même si ces dernières ont parfois pu les accélérer, notamment dans le cas de l’avortement. « Au total, les droits semblent avoir été davantage accordés aux femmes par les hommes qu’arrachés à ceux-ci par celles-là » écrit-elle page 41, avant de conclure que « l’émancipation a renversé, en quelque 150 ans, un ordre vieux comme le monde. Elle s’est imposée sans que le groupe qui en a bénéficié, les femmes, n’ait eu à employer aucun des moyens habituellement nécessaires pour faire plier les dominants et les contraindre à partager leur pouvoir » (p. 43).

En somme, le processus d’émancipation des femmes est advenu parce que les conditions matérielles de l’existence humaine ont changé, mais aussi parce que tout le monde, y compris les hommes – et le système capitaliste salarial – y avait avantage. Après tout, des femmes émancipées c’est davantage de main d’œuvre et de consommation ; c’est moins de travail domestique et plus de production marchande, c’est plus de PIB et de croissance. C’est donc parfaitement compatible avec le capitalisme. Et les forces religieuses et culturelles qui s’y opposaient se sont finalement assez vite effacées compte-tenu de l’emprise qu’elles exerçaient sur les mentalités et les comportements.

Une émancipation menacée

Ce constat signifie-t-il qu’il n’y aurait plus aucune menace pour les libertés des femmes ? Rien ne serait plus dangereux que de le croire. La deuxième partie de Féminicène tire les conséquences des analyses de la première et met en garde contre les véritables dangers qui menacent l’émancipation des femmes. Ces dangers ne seraient ni « les hommes » en général ni l’idéologie patriarcale, mais « l’effondrement de la civilisation thermo-industrielle », conséquence de la raréfaction des ressources naturelles et de la fin de l’énergie abondante et peu chère qui est au fondement de nos économies. Ainsi, le monde de demain risque d’être « un monde plus pauvre, plus chaotique et plus violent que celui d’aujourd’hui » (p. 195). Or, si c’est l’amélioration des conditions matérielles d’existence qui a permis aux femmes de conquérir de nouveaux droits, il est à craindre que, à l’avenir, les conditions de l’émancipation des femmes ne puissent plus être assurées. Or, le féminisme, en tant qu’idéologie, ne semble pas prêt à prendre la mesure des effets dévastateurs pour sa cause que pourrait engendrer de la fin programmée du pétrole et des énergies fossiles. Nikolski le regrette vivement et souligne ce paradoxe.

 

« Il est particulièrement étrange de constater que ces chercheurs et militants qui sont en général sensibles aux thèmes de l’écologie et du changement climatique n’établissent aucun lien entre ces enjeux et la question féministe. Alors que notre monde est en train de changer et que des bouleversements plus globaux encore sont sur le point d’advenir, ils continuent à raisonner comme si de rien n’était, toutes choses égales par ailleurs, se situant dans un univers parallèle où ces deux classes de phénomènes n’entrerons jamais en collision. […] Pourtant, les changements, on l’a dit, risquent d’être massifs : « un enfant si je veux, quand je veux » ne survivra pas à la hausse de la mortalité infantile ; « trois enfants minimum pour toutes » ne sera pas un slogan mais la réalité statistique ; la PMA pour toutes risque de devenir la PMA pour personne (ou presque), sans parler des opérations de changement de sexe. Voilà les dangers qui devraient inquiéter les féministes et les pousser à explorer toutes les pistes possibles pour infléchir autant que faire se peut cette trajectoire » (p. 270-271).

 

Le livre s’alarme ainsi de l’inconséquence, voire des « enfantillages » (p. 273) que porte le « féminisme de la réclamation » qui caractérise les luttes d’aujourd’hui. « Cette coexistence d’une conscience écologique crépusculaire et de l’enfermement du féminisme sur le présent a de quoi étonner : les dangers à venir apparaissent aussi grands qu’une comète qui foncerait sur la Terre, et pourtant on se concentre sur le mansplaining. […] S’attaquant aux mœurs et aux règles actuelles en vue de les améliorer par la contrainte et la morale, ces combats n’ont d’incidence que sur le droit et les mentalités, c’est-à-dire sur les superstructures idéologiques de la société ; mais sur les conditions de ces droits et mentalités – le bien être matériel de nos sociétés, leur infrastructure économique et technologique – ils sont sans effet » (p. 271-272).

Les constats étant posés, comment y répondre ? L’auteure admet une part d’impuissance, ce qui lui permet de résumer ses principales conclusions :

 

« L’inégalité entre les sexes, on l’a vu, est à la fois un scandale moral et, durant le gros de l’histoire humaine, une conséquence logique des conditions d’existence. L’émancipation totale est à la fois un objectif désirable – car comment, au nom de quoi, désirer moins ? – et une impossibilité physique, car elle exige d’abolir entièrement la biologie (disparition des sexes, utérus artificiels…) et donc d’entrer dans une dystopie aliénante. Enfin, la détérioration à venir de la condition féminine est, très probablement, inévitable, tout comme l’est celle des conditions de vie de l’humanité dans son ensemble. Devant ces considérations déplaisantes, génératrices de dissonances cognitives, la réaction naturelle est de les nier, accusant l’émetteur de complaisance avec le patriarcat ; il serait pourtant plus utile pour l’avenir même des femmes de les garder en tête pour y apporter une réponse – non pas entièrement satisfaisante, mais la meilleure ou la moins mauvaise possible. » (p. 317).

 

Cette part d’impuissance ne doit cependant pas être une excuse pour abandonner tout espoir et renoncer à toute action. Même si l’avenir rend très plausible une disparition de notre mode de vie et une dégradation des libertés dont jouissent les femmes, il ne tient qu’à nous, collectivement, de limiter ce recul civilisationnel. Ainsi, même si la raréfaction de l’énergie et du pétrole est sans doute inéluctable, même si la productivité du travail risque de diminuer, condamnant l’humanité à travailler davantage pour produire moins de richesses, cela ne signifie pas que les apports de la science vont disparaître. Une partie des innovations technologiques qui caractérise nos sociétés pourra être préservée, même dans une civilisation post-pétrole. De même, tous les progrès sociaux et culturels de notre civilisation ne vont pas disparaitre. La question est donc de savoir comment en préserver un maximum et comment faire que les femmes ne soient pas condamnées à une brutale régression.

Pour un féminisme « adulte »

Pour l’auteure, la solution passe par une transformation en profondeur des modes d’action et des objectifs du féminisme contemporain. Plutôt que de lutter en se cantonnant au sein de la sphère idéologique et juridique et en défendant des droits qui risquent de ne pouvoir être préservés que dans le cadre d’une société opulente, il vaut mieux que les femmes investissent massivement les métiers qui sont amenés à devenir indispensables à la transition matérielle qui nous attend. Ce faisant, elles seront en position de force pour préserver leur statut social.

Ainsi, à l’instar des femmes iraniennes qui se font ingénieures pour lutter contre un régime oppressif, il faut que les féministes encouragent les femmes à s’engager davantage dans les sphères vitales de la société. Or, sur ce plan, le mouvement de libéralisation des femmes a eu un effet paradoxal. Confrontées à un éventail plus large de choix pour leurs carrières, la majorité des femmes s’est portée spontanément vers les métiers du secteur tertiaire, dans les emplois sociaux et relationnels. En revanche, les métiers liés aux domaines des STEM (science, technologie, ingénierie et mathématiques) restent encore aujourd’hui majoritairement investis par des hommes. Cette division sexuée des carrières, qui n’est en rien la conséquence d’un différentiel de compétences entre les sexes mais plutôt le résultat d’une appétence différente, est particulièrement problématique pour l’auteure, car les bouleversements à venir risquent de rendre ces métiers où les femmes sont les moins nombreuses socialement et économiquement indispensables.

Il est donc urgent, pour Véra Nikolski de développer un « féminisme du faire » dont l’objectif prioritaire ne devrait plus être d’accorder de nouveaux droits aux femmes, de transformer les mentalités ou de déconstruire la masculinité patriarcale, mais de pousser les femmes à s’imposer davantage dans les milieux professionnels où elles restent minoritaires. En somme, l’auteure propose que le féminisme contemporain incite davantage les femmes à devenir ingénieure et à construire des centrales nucléaires plutôt qu’à se perdre dans l’ésotérisme et à lancer des sorts, pour reprendre la formule malheureuse employée par Sandrine Rousseau.

Féminicène constitue sans aucun doute une contribution majeure au débat sur le féminisme et l’émancipation des femmes. Mais, plus fondamentalement, il invite à une réflexion bien plus large qui consiste à penser rationnellement, et non dans le cadre trop confortable du militantisme, la société de l’après pétrole.

À ce sujet, il est regrettable qu’aujourd’hui le débat sur l’avenir et la transition écologique soit marqué par un double déni. D’un côté les techno-optimistes sont persuadés que le capitalisme extractiviste peut poursuivre sa logique sans aucune limite et sans jamais être remis en cause. Il suffirait, en quelque sorte, de planter des éoliennes et d’acheter des voitures électriques pour répondre aux défis environnementaux et organiser une transition sans douleur. Dans l’autre camp, les partisans de la décroissance sont également dans le déni, persuadés qu’un avenir radieux, post-capitaliste, est possible et que sa mise en œuvre ne serait qu’une affaire de volonté politique. Or, si dans un monde aux ressources limitées la décroissance constitue un avenir bien plus probable que la poursuite du système actuel, il est également peu vraisemblable qu’elle se fasse dans la bonne humeur et la cordialité. La décroissance, qu’elle soit voulue ou subie, conduira mécaniquement à un effondrement des conditions matérielles de nos existences et ses effets seront certainement dévastateurs pour les plus fragiles et notamment pour les femmes. C’est à ce second déni auquel s’attaque cet ouvrage, et c’est aussi en ce sens qu’il est indispensable.

David Cayla

Lire aussi...

La réforme des retraites démontre l’impuissance économique d’Emmanuel Macron

Le Retour de la question stratégique

La réforme des retraites démontre l’impuissance économique d’Emmanuel Macron

À quoi était censée servir cette réforme des retraites, finalement ? À sauver le système des retraites menacé d’asphyxie financière ? On peut en douter. D’après le gouvernement, son objectif était de répondre à un déficit prévu de 13,5 milliards d’euros par an en 2030, selon certains scénarios du Conseil d’orientation des retraites (COR) (1). Or, non seulement les amendements successifs concédés à LR font qu’il n’est pas certain que ce projet de réforme rapporte cette somme, mais surtout l’enjeu financier était de toute façon assez dérisoire à l’origine.

Crédits photo : LP/ Jean-Baptiste Quentin

Des déficits… et 86,5 milliards de cadeaux fiscaux

Que représente le montant des retraites versé chaque année ? 332 milliards d’euros en 2020 d’après la DRESS. Autrement dit, les 13,5 milliards d’euros de déficit ne représentent que 4% du volume total des prestations versées. Mais ce chiffre lui-même est contestable, car on ne peut comparer le déficit de 2030 avec les recettes de 2020. Si l’on tient compte de l’inflation et de la croissance, les salaires en 2030 seront en réalité très certainement plus élevés qu’en 2020. C’est la raison pour laquelle le COR ne calcule pas les déficits en milliards d’euros mais en pourcentage du PIB. Avec ce mode de présentation, les déficits dont il est question devraient représenter environ 0,4% du PIB de 2030.

Autrement dit, la crise politique majeure que nous traversons a pour objet de résoudre un déficit potentiel en 2030 équivalent à 1/12ème du déficit actuel des comptes publics (4,7% en 2022). Tout ça pour ça !

Le pire, c’est qu’au même moment le gouvernement, conformément à ses engagements en faveur de la diminution de la fiscalité des entreprises, décidait de supprimer la cotisation sur la valeur ajoutée des entreprises (CVAE), ce qui représente un coût net de 8 milliards d’euros annuel pour les finances publiques. Il poursuit en cela la politique engagée par François Hollande qui avait introduit un crédit d’impôt pour les entreprises – le fameux CICE – qui a coûté près de 20 milliards, avant que le gouvernement Valls n’augmente le paquet cadeau de 21 milliards avec le mal nommé « pacte de responsabilité et de solidarité ».

Ajoutons à ces sommes la transformation de l’impôt sur la fortune en impôt sur la fortune immobilière (coût net pour les finances publiques : 3,5 milliards d’euros) décidée en 2017, la suppression de la taxe d’habitation pour la résidence principale (14 milliards d’euros) et la baisse de l’impôt sur les sociétés qui est passé en quelques années de 33% à 25% (il était de 50% jusqu’au milieu des années 1980) et qui représente un manque à gagner d’environ 20 milliards d’euros en 2022. Si on fait le cumul de ces dépenses fiscales, on parvient à une perte annuelle pour les finances publiques de plus 86,5 milliards d’euros, soit environ 3,3% du PIB, dont l’immense majorité au profit des entreprises. Sans parler des subventions directes à ces mêmes entreprises qui se sont multipliées avant même la crise pandémique.

Financer la politique de l’offre

Il faut le dire et le répéter. Le déficit public actuel n’est en rien lié à la hausse des dépenses sociales, et encore moins au coût des services publics. Il résulte, au contraire, d’un choix politique mené avec constance, démarré par François Hollande et poursuivi par Emmanuel Macron : celui d’assécher systématiquement les ressources fiscales au nom de la compétitivité des entreprises.

Car c’est bien cela qui est en jeu. Pour poursuivre les cadeaux fiscaux aux entreprises tout en limitant ses déficits, l’État est contraint de trouver de nouvelles ressources ou d’alléger certaines dépenses. Trouver des ressources, ce fut la stratégie initialement employée avec la hausse de certaines taxes sur le tabac, l’alcool ou les carburants, ce qui revient à mettre à contribution les « gars qui fument des clopes et roulent au diesel » selon la formule de l’ancien porte-parole du gouvernement Benjamin Griveaux. Mais le mouvement des Gilets jaunes, fin 2018, mis fin brutalement cette option. À partir de cette date, l’État a donc mis en œuvre une autre stratégie, fondée sur des économies à réaliser sur les dépenses sociales. C’est ainsi que la réforme des retraites est revenue dans l’actualité, avant d’être interrompue par la pandémie du Covid. Souvenez-vous, à l’issue du premier Conseil de défense consacré à la pandémie, le gouvernement annonçait, à la surprise générale, l’utilisation du 49.3 pour faire passer en force une réforme dites « structurelle » des retraites. Une réforme qui, en réalité, avait bien pour but de dégager des économies.

Cette même année, le gouvernement avait annoncé des mesures d’économie sur l’assurance chômage pénalisant les saisonniers et les contrats courts. Puis, à la fin de l’année 2022, il engagea une nouvelle loi d’économie consistant à réduire la durée d’indemnisation des demandeurs d’emploi lorsque le taux de chômage diminue. C’est ainsi que les chômeurs furent mis à contribution des politiques d’aide aux entreprises.

L’échec patent de l’attractivité fiscale

Si l’on s’en tenait à cette analyse, on pourrait résumer ainsi la logique fondamentale de la réforme des retraites de 2023 : Diminuer les dépenses sociales pour financer les politiques de compétitivité menées depuis dix ans visant à augmenter le taux de marge des entreprises. Sur ce plan, il faut bien reconnaître que la stratégie fut un succès. Jamais les bénéfices réalisés par les entreprises n’ont été aussi élevés. Ainsi, les sociétés du CAC 40 ont dégagé 152 milliards d’euros de profit l’année dernière, un montant « sans précédent », note le journal Le Monde.

Le problème est que ces milliards ne « ruissellent » pas sur l’économie française. C’est là que se situe l’impuissance de Macron et de sa stratégie. Persuadé que, pour relancer l’activité et l’emploi, il suffit d’attirer les entreprises, Macron – et Hollande avant lui – ont engagé la France dans la course à l’attractivité fiscale. Pourtant, non seulement le taux de croissance de l’économie française est faiblard depuis 2012, mais en plus les entreprises industrielles continuent de fermer et de délocaliser. Le résultat, c’est que la balance commerciale française a connu en 2022 un déficit record de 164 milliards d’euros, le pire de son histoire, soulignait Les Echos. En somme, la stratégie de relocalisation défendue au nom de la « souveraineté économique » est un échec. En témoigne l’état de notre industrie pharmaceutique qui n’a cessé de décliner depuis 2008. Et si on constate dernièrement quelques projets de relocalisation d’usines produisant des médicaments, c’est essentiellement grâce à des aides sectorielles, c’est-à-dire à de nouvelles dépenses publiques, et non du fait de la politique fiscale.

L’impuissance économique de Macron

Pourquoi les entreprises industrielles continuent-elles de fuir la France malgré la multiplication des cadeaux fiscaux ? Voici la question que devraient enfin se poser le gouvernement et les députés Renaissance. La réponse est pourtant simple et tient en deux éléments. Le premier est que ces aides fiscales ne sont jamais conditionnées à des contreparties ni concentrées sur des secteurs particuliers. En arrosant très large, on donne en fait très peu à chacun, ce qui coûte cher aux finances publiques tout en produisant un effet pratiquement nul pour chaque entreprise prise individuellement. C’est ainsi que le CICE a davantage profité aux grandes surfaces qui sont protégées de la concurrence internationale qu’aux entreprises industrielles qui doivent l’affronter.

La deuxième raison est que, tous les pays menant la même politique d’attractivité, les cadeaux des uns annulent bien évidemment les effets de ceux des autres. Si la France dépense 20 milliards pour attirer les emplois sur son sol et que l’Allemagne dépense 40 milliards pour faire la même chose, alors la politique d’attractivité française sera annihilée par celle de l’Allemagne et le coût pour les finances publiques jamais compensé par des gains d’emploi. J’avais prédit à l’époque l’échec de cette guerre économique que se mènent les pays européens entre eux et on ne peut pas dire que les faits, depuis, m’aient donné tort.

L’impuissance de Macron, en fin de compte, c’est celle qui consiste à tenter d’infléchir la dynamique de la mondialisation et de la concurrence intra-européenne en faisant payer aux Français d’abord les coûts directs de la désindustrialisation et de la perte des emplois, puis en leur faisant payer une seconde fois ces mêmes coûts en tentant vainement d’atténuer leurs effets par la politique fiscale et les mesures d’austérité.

Cette stratégie est d’autant plus vouée à l’échec que les seules politiques de réindustrialisation qui ont prouvé leur efficacité dans l’histoire sont celles, justement, que Macron ne peut pas employer : une politique commerciale protectionniste, à l’image de l’Inflation reduction act (IRA) mis en œuvre cet automne par Biden aux États-Unis ; une politique industrielle active qui viserait par exemple à faire baisser le coût de l’énergie et des matières premières ou à réserver une partie de la commande publique à des entreprises nationales ; une politique de change et une politique monétaire adaptées aux besoins de nos entreprises industrielles.

Hélas, dans ces trois domaines la France n’est plus souveraine. Elle ne peut plus rétablir le contrôle des prix de l’énergie et des matières premières du fait des politiques de libéralisation ; elle est impuissante à corriger les dysfonctionnements pourtant flagrants du marché européen de l’électricité ; elle ne peut, au nom du respect de la concurrence, réserver une partie de sa commande publique à ses entreprises nationales ; elle ne décide plus de sa politique commerciale, déléguée de manière exclusive à la Commission européenne, laquelle multiplie les accords de libre-échange ; enfin, elle ne maîtrise plus sa monnaie et sa politique monétaire.

Ainsi, confronté à sa propre impuissance économique, il ne reste plus à Emmanuel Macron que des « solutions » qui n’en sont pas : continuer de faire payer aux Français une stratégie inepte incapable d’engendrer les effets escomptés. Et on peut malheureusement s’attendre à ce que cette politique soit poursuivie jusqu’à ce que le déclin économique et industriel de la France ne devienne irrattrapable.

David Cayla

Références

(1) https://www.cor-retraites.fr/sites/default/files/2022-12/RA_COR2022%20def.pdf

(2)Lorem

(3)Lorem

(4)Lorem

(5)Lorem

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

Faillite de la SVB : quand la stratégie de hausse des taux des banques centrales trouve ses limites

Chronique

Faillite de la SVB : quand la stratégie de hausse des taux des banques centrales trouve ses limites

La faillite, le 10 mars dernier, de la Silicon Valley Bank (SVB) est la conséquence directe du renchérissement des taux d’intérêt. Loin d’être un épiphénomène, cet événement nous révèle surtout un fait majeur : les économies des pays développées ne parviendront sans doute jamais à revenir à la situation des années 1990-2000, celle du néolibéralisme triomphant.
La politique monétariste à la Volcker et le risque d’un « chaos économique et financier »

Depuis le retour de l’inflation, réapparue à l’occasion de la fin de la crise sanitaire, puis renforcée par la guerre en Ukraine et ses conséquences sur le prix de l’énergie et des céréales, les banques centrales ont engagé une politique de hausse de leur taux d’intérêt.

Officiellement, cette hausse était une mesure visant, dans la plus pure tradition monétariste, à contrecarrer l’inflation. Pour les monétaristes, « L’inflation est toujours et partout un phénomène monétaire », selon l’expression de Milton Friedman, c’est-à-dire la conséquence d’un accroissement trop rapide de la masse monétaire, elle-même permise par un laxisme coupable des banques centrales. Selon cette approche, pour contrecarrer l’inflation il convient de réduire le rythme de création monétaire, c’est-à-dire de limiter le crédit bancaire. Et pour cela, il faut le rendre plus coûteux, donc augmenter les taux d’intérêt.

Lorsque les banques centrales se sont mises à hausser leur taux, un certain nombre d’économistes, plutôt hétérodoxes, ont manifesté leurs craintes que ces hausses ne soient à la fois trop rapides et surtout inefficaces pour combattre le mal qu’elles prétendent résoudre. De fait, entre janvier 2022 et février 2023, le taux d’escompte de la Réserve fédérale (Fed), est passé de 0,25% à 4,75%. Or, rien ne prouve que l’inflation actuelle soit d’origine monétaire, ni qu’elle soit la conséquence d’un excès de demande ou de « l’argent facile ». En réalité, l’inflation post-covid ressemble davantage à une conséquence de la désorganisation de l’offre et des chaines d’approvisionnement. Ainsi, augmenter les taux d’intérêt de manière trop importante pourrait avoir l’effet inverse de celui recherché. En limitant les capacités d’investissement des entreprises on renforce les difficultés de l’offre et on accentue les causes véritables de l’inflation qu’on prétend combattre.

Augmenter ou baisser les taux ? Les objectifs des banques centrales étaient peut-être plus subtils. Le problème avec les interprétations précédentes est que si le but des banques centrales était de lutter contre l’inflation, il était peu probable que des taux d’intérêt à 4,75% puissent y changer quoi que ce soit. En effet, pour évaluer le coût du crédit, ce qui compte n’est pas le taux d’intérêt nominal, mais le taux réel, c’est-à-dire l’écart entre le taux nominal et le taux d’inflation. De fait, pour un monétariste, restreindre l’accès au crédit suppose d’augmenter le taux réel, c’est-à-dire d’établir des taux d’intérêt nominaux à un niveau nettement supérieur au taux d’inflation.

Prenons un exemple historique. À l’époque où les idées de Milton Friedman étaient acceptées comme des vérités indiscutables, au début des années 1980, la Fed, alors sous la présidence de Paul Volcker, avait décidé de monter ses taux d’intérêt jusqu’à 20% alors que l’inflation était à 10%. Cela correspondait à un taux d’intérêt réel de 10%. Or, que constate-t-on aujourd’hui ? Les taux de la Réserve fédérale sont certes à 4,75%, mais l’inflation aux États-Unis était d’environ 6,4% en janvier dernier. Autrement dit, le taux d’intérêt réel qu’impose la Fed est… négatif ! On est donc très loin de la politique de Volcker ! Les hausses de taux étaient en trompe-l’œil et les États-Unis ne sont jamais réellement sortis d’une politique monétaire accommandante. En augmentant ses taux, la Fed a surtout cherché à limiter l’effondrement des taux réels en compensant la hausse de l’inflation par une hausse symétrique des taux directeurs… mais elle a toujours pris soin de les maintenir à un niveau inférieur au seuil d’inflation.

Dans mon livre Déclin en chute du néolibéralisme, dont la rédaction s’est achevée à l’été 2021, je m’étais déjà interrogé sur les conséquences du retour de l’inflation et sur les stratégies des banques centrales. Allaient-elles revenir au monétarisme de Volcker ou garderaient-elles une politique monétaire relativement accommodante ? Voici ce que j’écrivais à l’époque (p. 235) :

« Tant que l’inflation restait faible, les banquiers centraux pouvaient justifier des politiques monétaires expansives au nom de la « réparation » des marchés. À présent que l’inflation resurgit, ils vont devoir choisir entre pratiquer une politique à la Volcker – et provoquer un chaos économique et financier – ou admettre que le monétarisme ne peut plus servir de boussole pour guider leurs actions – ce qui les conduira à tâtonner pour tenter de mener des politiques monétaires pragmatiques. »

Soyons modérément optimistes et parions qu’il y a quelques chances pour que les banques centrales renoncent au dogmatisme.

Pourquoi estimais-je alors qu’une politique monétariste à la Volcker risquait d’engendre un « chaos économique et financier » ? Parce que la situation économique et financière des économies développées n’est plus du tout celle des années 1980. Les politiques de déréglementation financière ont conduit à inventer une multitude de nouveaux instruments financiers qui ont rendu l’endettement plus facile. La conséquence en fut une hausse globale de l’endettement public et privé qui est passé d’environ 150% du PIB à la fin des années 1970 aux États-Unis à plus de 350% du PIB au moment du déclenchement de la crise financière de 2007. Depuis, le taux d’endettement global a légèrement baissé en dépit d’une hausse ponctuelle au moment de la crise Covid (Figure 1).

Figure 1 : endettement sectoriel de l’économie américaine (1954-2022) en % du PIB. Source : Réserve fédérale. 

Ce que démontre ce graphique (la situation est similaire dans les pays européens), c’est que le niveau d’endettement de l’ensemble des secteurs économiques est bien trop élevé pour pouvoir absorber une hausse brutale des taux d’intérêt. La hausse des taux fragilise naturellement les débiteurs, notamment ceux qui empruntent à taux variable, mais aussi ceux qui empruntent à taux fixe et doivent se refinancer. Dans une telle situation, il n’est donc pas possible, non seulement d’avoir des taux d’intérêt réels de 10%, mais même d’aller vers des taux d’intérêt réels positifs.

C’est sans doute la raison pour laquelle les banques centrales ont, de fait, tâtonné, en augmentant leurs taux avec mesure, par paliers, en attendant de voir quand et où cela allait craquer.

Et de fait, l’économie américaine a connu un premier « craquage ». La faillite, le 10 mars dernier, de la Silicon Valley Bank (SVB) est la conséquence directe du renchérissement des taux d’intérêt. La SVB avait investi une grande partie des dépôts de ses clients (beaucoup de start-ups et d’entreprises de la Silicon Valley) en bons du Trésor américains. Or, du fait de la hausse des taux, les obligations achetées à l’époque où les taux d’intérêt étaient faibles ont perdu de la valeur. Du côté des entreprises de la Silicon Valley, les levées de fonds sont devenues plus difficiles en raison des problèmes spécifiques que connaît ce secteur depuis un an et du renchérissement mais aussi de la hausse du coût de l’argent qui a rendu les investisseurs plus frileux. Cet effet ciseaux (moins d’argent frais, et des réserves en obligation dont la valeur se dépréciait), a engendré des pertes pour la SVB qui ont éclaté au grand jour lorsque ses clients ont voulu retirer leurs fonds et que la banque fut contrainte de revendre à pertes les bons du Trésor qu’elle détenait.

Les leçons de la faillite de la Silicon Valley Bank (SVB)

En fin de compte, trois leçons peuvent être tirées de cet évènement.

La première est que la Fed semble avoir atteint les limites de sa politique de hausse des taux. De ce fait, il est probable qu’elle renonce, dans les mois qui viennent, à poursuivre sa stratégie de restriction monétaire pour éviter que d’autres faillites suivent celle de la SVB. Cela donnera un peu d’air à la BCE qui pourra elle-même alléger sa politique de hausse.

La deuxième leçon, sans doute la plus intéressante, est que les taux actuels restent inférieurs au taux d’inflation. Autrement dit, la « normalisation » des politiques monétaires espérée par les banquiers centraux en 2021 devient impossible. Si d’aventure l’inflation devait baisser franchement, les banquiers centraux seraient sans doute contraints de diminuer à leur tour leurs taux directeurs pour maintenir des taux réels proche de zéro. La politique des taux zéro, qui a marqué les politiques monétaires depuis 2008, n’est donc pas terminée, et on ne voit pas comment elle pourrait se terminer à moyen terme.

La troisième leçon est que la dynamique de « stagnation séculaire » dans laquelle les économies des pays développés s’étaient enfoncées les unes après les autres dans les années post-2008, et qui est caractérisée par des taux d’intérêt nuls, un faible niveau d’investissement et une croissance atone n’est sans doute pas terminée. Certains économistes tel Jean-Baptiste Michau estimaient en 2021 que le retour de l’inflation pourrait permettre d’en finir avec la croissance poussive des années antérieures. Force est de constater que ce n’est pas arrivé. La hausse des taux de profit des entreprises, permise par une inflation supérieure à la hausse des salaires, n’a pas engendré de relance de l’investissement. Et si l’emploi augmente en France, c’est surtout en raison de la diminution de la productivité du travail comme je l’expliquais récemment. La fin des hausses de taux marquerait le renoncement définitif à l’objectif de rebasculer en terrain de taux d’intérêt réels positifs, ce qui implique de renoncer à une rentabilité positive pour de nombreux actifs.

En somme, les économies des pays développées ne parviendront sans doute jamais à revenir à la situation des années 1990-2000, celle du néolibéralisme triomphant. Une époque où les banquiers centraux pouvaient se contenter de surveiller l’inflation et où les taux d’intérêt réels étaient faibles mais positifs. Aujourd’hui, la stabilité du système financier devient leur principale et unique préoccupation. Comme l’explique l’analyste financier Bruno Jacquier au journal Le Monde, « Si demain il y a un risque de voir la stabilité financière remise en cause, l’inflation ne sera plus du tout prioritaire : l’objectif sera de stabiliser le marché interbancaire, pour que les banques continuent de se prêter entre elles en se faisant confiance. Et tant pis si on doit rebaisser les taux et laisser déraper l’inflation. »

Dans le monde qui vient, la régulation de l’économie et de la finance exigera sans doute des interventions continues et massives des autorités publiques au sein des marchés. Les « lois du marchés » devront être de plus en plus contournées pour maintenir le système à flot. Il faudra donc repenser en profondeur le fonctionnement réel de l’économie. Car la réalité semble sortir de plus en plus souvent des modèles et des schémas auxquels les économistes sont habitués.

 

David Cayla

Lire aussi...

Le mystère de la productivité disparue du travail

Chronique

Le mystère de la productivité disparue du travail

Dans cette nouvelle chronique, David Cayla évoque la baisse de la productivité du travail en France. Il revient sur ses causes, pourquoi cela arrange le gouvernement, et surtout en quoi cela pourrait être inquiétant pour l’avenir et la croissance économique.

C’est apparemment une bonne nouvelle pour le gouvernement, mais elle inquiète les économistes. En France, au troisième trimestre 2022, la productivité du travail par salarié était inférieure de 6,4% à ce qu’elle devrait être, affirme une note de la DARES. Pire, elle était plus faible qu’en 2019, ou en 2015. Ainsi, d’après l’INSEE, une personne travaillant dans le secteur marchand produit 3,8% de richesses de moins qu’en 2019.

Pourquoi est-ce une bonne nouvelle pour le gouvernement ? Eh bien parce que cela signifie qu’en dépit d’une croissance faiblarde depuis la fin de la crise sanitaire, la France parvient tout de même à créer des centaines de milliers d’emplois sur un rythme d’environ 100 000 emplois nouveaux chaque trimestre. Dans un contexte où la population active n’augmente presque pas, cette « performance » permet de diminuer sans trop d’effort le chômage de manière accélérée. Depuis le quatrième trimestre 2019, environ 930 000 emplois ont été créés, ce qui a entrainé une forte diminution du chômage qui est passé de 8,2% fin 2019, à 7,3% au troisième trimestre 2022 (7,1% en France métropolitaine). L’économie française ne produit pas beaucoup plus de richesses aujourd’hui qu’il y a trois ans, mais elle le fait avec davantage d’emplois.

Le problème est que cette baisse soudaine de la productivité du travail n’est pas simple à expliquer, et c’est en cela qu’elle inquiète les économistes. Est-ce un phénomène passager où l’indice d’une sous-performance structurelle de l’économie française ? Remarquons d’abord qu’elle n’est pas due à la baisse du temps de travail par salarié engendrée par les mesures d’activités partielles lors de la crise sanitaire, car c’est surtout la productivité horaire qui diminue. De plus, la France connaît une situation assez unique parmi les économies similaires. En Allemagne, en Italie, au Royaume-Uni ou aux États-Unis, la productivité du travail s’est rétablie et dépasse son niveau d’avant la crise. Seule l’Espagne se trouve avec une productivité du travail inférieure à celle de 2019, mais dans ce pays cette diminution est nettement moindre qu’en France.

Ce qui est inquiétant c’est ce que la baisse de la productivité du travail pourrait signifier pour l’avenir : une compétitivité affaiblie, une déflation salariale, et sans doute la fin de la croissance économique, à moins d’augmenter le taux d’emploi – ce qu’essaie d’ailleurs de faire le gouvernement avec les réformes du régime de retraite et celle de l’assurance chômage. Autrement dit, la baisse de la productivité du travail pourrait être l’indicateur plus global d’une dégradation invisible de l’économie française.

Un problème conjoncturel ?

Reste que pour l’instant rien ne prouve que cette baisse soit durable. Plusieurs explications conjoncturelles pourraient l’expliquer. En premier lieu, la période pandémique, avec ses confinements et ses incertitudes, mais aussi ses mesures d’aides et de chômage partiel, a logiquement poussé les entreprises à préserver l’emploi, quitte à réduire ponctuellement la production. De plus, parmi les mesures engagées par le gouvernement, le plan « un jeune, une solution » a contribué à une très forte hausse des contrats d’alternance et d’apprentissage. Or, comme l’explique la note de la DARES, si ces emplois sont comptabilisés comme les autres, leur productivité est bien plus faible. De plus, il convient d’organiser l’encadrement des apprentis et des alternants, ce qui réduit la productivité des autres salariés. Mais en dépit de sa forte croissance, le développement de l’apprentissage et de l’alternance n’expliquerait qu’un cinquième de la baisse de la productivité du travail estime la DARES. Il faut donc chercher ailleurs.

Une hypothèse parfois avancée est celle des conséquences sanitaires directes de la pandémie de covid, avec son lot d’arrêts maladie, de covids longs, de burn-out et de dépression. Le principe même d’exiger l’isolement pendant une semaine ou dix jours des personnes infectées pas le covid a sans aucun doute eu des effets sur la productivité du travail, y compris sur la productivité horaire, car certaines équipes de travail se trouvèrent désorganisées par ces absences à répétition. C’est d’ailleurs sans doute la raison pour laquelle le gouvernement a récemment abrogé les mesures d’exception relatives à la gestion des arrêts de travail liés au covid.

Une autre hypothèse conjoncturelle qui pourrait expliquer la baisse de la productivité du travail est celle de la désorganisation dans laquelle s’est produite la reprise. Le manque de composants dans l’industrie automobile, ou de matériaux dans la construction, ont pu diminuer le niveau de production sans que l’emploi, ni même les heures travaillées, ne baissent dans les mêmes proportions. De plus, la pénurie de main d’œuvre dans certains secteurs a poussé certaines entreprises à garder une partie de leurs salariés surnuméraires pour éviter d’engager de coûteux et difficiles recrutements en attendant un retour d’activité.

Enfin, un dernier facteur spécifique à la France concerne la baisse de la productivité du travail dans le secteur de la production d’électricité, une conséquence de l’arrêt, en 2022, de nombreux réacteurs nucléaires.

Une conséquence de la désindustrialisation ?

Toutes ces explications pourraient rassurer. La baisse française de la productivité du travail ne serait que la conséquence d’une situation ponctuelle qui sera amenée à évoluer. Il y a cependant d’autres explications possibles, et certaines pourraient durer, voire se renforcer à l’avenir.

La première chose à noter est que le déclin industriel de la France s’est récemment approfondi, comme en témoigne le creusement du déficit commercial en 2022 qui a atteint des records en dépassant 160 milliards d’euros. Or, le niveau d’industrialisation d’un pays est directement lié à ses capacités exportatrices (on exporte trois à quatre fois plus de biens que de services), mais surtout à ses gains de productivité potentiels. De fait, de nombreux emplois de services ne permettent pas d’augmenter la productivité du travail. C’est le cas par exemple des emplois relationnels tels que l’enseignement, le soin, le spectacle vivant, mais aussi de nombreux autres emplois du secteur tertiaire… Un pianiste, aussi doué soit-il, ne peut passer moins de temps à jouer une sonate aujourd’hui qu’il y a 200 ans, et un enseignant doit toujours consacrer le même temps incompressible pour apprendre à lire à un enfant de six ans.

Ce qui permet des gains de productivité c’est, en général, l’emploi industriel, parce que ce sont des emplois plus facilement mécanisables. Ainsi, moins il y a d’emplois industriels dans un pays, plus il est difficile de faire progresser la productivité du travail. Cela ne signifie pas que les services ne soient jamais concernés. Les caisses automatiques sont un exemple bien connu d’automatisation du secteur tertiaire, mais ces dernières sont loin d’avoir remplacé tous les personnels de caisse, et les gains de productivité qu’elles permettent ne sont globalement pas si importants.

Plus fondamentalement, l’économie française s’est désindustrialisée, mais elle a aussi produit de nombreux emplois de service peu productifs, tels que les livreurs à domicile ou les services à la personne. Ces changements structurels de l’économie française pourraient expliquer plus largement, non pas la baisse de la productivité des trois dernières années, mais la faiblesse de sa croissance depuis une vingtaine d’année, que la baisse récente n’aurait fait que mettre en lumière.

Bullshit jobs et bureaucratisation

Une dernière explication à l’effritement structurel de la productivité du travail pourrait être liée aux transformations internes des entreprises et des administrations. Dans un article devenu viral publié en 2013, puis dans un ouvrage paru en 2019, l’anthropologue américain David Graeber affirme qu’une partie de notre économie serait gangrénée par l’expansion d’une couche parasitaire de cadres supérieurs ou intermédiaires occupant des « d’emplois à la cons » (bullshit jobs). Ces personnes seraient recrutées non pour leur capacité à produire des biens ou des services utiles, mais parce qu’elles rendent certains services à leurs recruteurs. Avec la hausse de la productivité du travail, expliquait Graeber, nous pourrions travailler beaucoup moins qu’au siècle dernier tout en profitant d’un niveau de vie tout à fait satisfaisant. Mais cette baisse du temps de travail serait incompatible avec le fonctionnement du capitalisme contemporain. De plus, la hausse du niveau général d’éducation pousse à créer des emplois de cadres. Autrement dit, pour Graeber, de nombreux emplois, parfois bien rémunérés n’existent qu’en raison du fonctionnement interne des bureaucraties publiques et privées, dont la particularité est de s’étendre et de s’auto-alimenter pour résoudre des problèmes qu’elle génère parfois toute seule. Les responsables projet, chargés de missions et superviseurs en tout genre, n’ont parfois d’autre utilité que de donner l’impression d’une action ou de « cocher des cases » en vue d’afficher des bilans ou d’écrire des rapports qui ne sont jamais lus.

La bureaucratisation de l’économie dans son ensemble est sans doute l’une des raisons structurelles pour laquelle la productivité du travail stagne et la souffrance au travail augmente depuis une vingtaine d’année en France et dans la plupart des pays développés. Plus fondamentalement, le manque d’attrait et de valorisation des métiers de « ceux qui font » au profit de « ceux qui pensent et qui décident » pousse à une hypertrophie de la hiérarchie dans son ensemble qui finit par se transformer en strate parasitaire. En France, certains services publics tels que l’enseignement, la santé et la recherche sont particulièrement touchés par ce phénomène. Mais cela concerne aussi le secteur marchand, voire l’action politique, lorsque la communication d’un élu finit par devenir plus importante que sa capacité à prendre des décisions et à étudier sérieusement ses dossiers.

Dans l’organisation contemporaine, une partie importante du temps de travail est tournée vers l’intérieur de l’entreprise, vers sa gestion, les réflexions sur sa structure et son évolution, au détriment de la production elle-même et de la réalisation de ses missions premières. La logique du management par projet conduit par exemple à multiplier les strates décisionnelles et pousse à entreprendre des réformes au détriment de l’action concrète et à recruter toujours davantage de personnels pour coordonner la mise en place de ces réformes, tout en consumant le temps de ceux dont le travail est tourné vers l’extérieur et qui assurent in fine l’essentiel de la production. Cette dynamique est renforcée par la multiplication des bilans et comptes-rendus que toute entreprise est amenée à produire pour ses actionnaires, ses financeurs, l’administration, ses clients ou même ses propres personnels, dans une boucle sans fin d’auto-évaluation permanente.

En fin de compte, étudier l’évolution de la productivité du travail nous permet d’apprendre beaucoup sur le fonctionnement et les dysfonctionnements de notre économie. Mais la productivité du travail, telle qu’elle est quantifiée, n’en est pas moins un indicateur contestable. Car on ne sait jamais quelle est la valeur réellement produite par le travail. Aussi, la question qui devrait nous occuper devrait être moins de comprendre comment évolue la productivité du travail et ce qu’elle implique sur l’emploi que de mieux connaitre ce qu’on produit collectivement et d’être capable de mesurer l’utilité véritable de notre travail et la fonction sociale qu’il remplit réellement.

David Cayla

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

Comment et pourquoi le marché de l’électricité a déraillé ?

Le Retour de la question stratégique

Comment et pourquoi le marché de l’électricité a déraillé ?

Interrogée par les députés européens le 8 juin dernier, la Présidente de la Commission européenne Ursula Von der Leyen a reconnu que le marché européen de l’électricité « ne fonctionne plus ». Fin août, elle s’est engagée à « une réforme structurelle du marché de l’électricité ». À l’heure où ces lignes sont écrites, les contours de cette réforme n’ont pas été dévoilés. Mais une analyse lucide montre que l’Union européenne s’est fourvoyée en créant un marché de l’électricité profondément dysfonctionnel qui engendre des prix instables et élevés au profit d’acteurs qui soit n’apportent aucune valeur sociale, soit bénéficient de rentes indues. C’est toute la théorie économique dominante qui est prise en défaut. Cette note vise à expliquer les causes de ces dysfonctionnements et à montrer pourquoi le système fondé sur des monopoles publics nationaux s’avère supérieur à un marché de l’électricité fondé sur une concurrence artificielle.

Note publiée initialement par les Economistes attérés. A retrouver ici.

« La conception du rôle de l’État a évolué dans la plupart des pays. L’État producteur est devenu État régulateur. Sous la pression des parties prenantes et faisant face à une contrainte budgétaire lâche (les déficits d’une entreprise allant gonfler le budget global ou la dette publique), les entreprises contrôlées par la puissance publique, à quelques exceptions près, ne produisent pas à des coûts bas des services de qualité. Autrefois juge et partie, l’État s’est donc souvent recentré sur son rôle de juge, par exemple sous la forme d’autorités sectorielles, sous le contrôle d’autorités de la concurrence, toutes deux autorités indépendantes. »

Jean Tirole, Références économiques, n°30, 2015. Ministère de l’écologie, du développement durable et de l’énergie.

La météo des prochaines semaines pourrait réserver quelques surprises. En cas de grand froid, pour faire face à une éventuelle surcharge du réseau électrique, le gouvernement a prévu la possibilité d’organiser des délestages tournants de 2 heures. Ces coupures pourraient s’avérer indispensables pour éviter un black-out, une panne générale d’électricité. La dernière fois que la France fut confrontée à un tel évènement, c’était le 19 décembre 1978. Au petit matin, la défaillance d’un câble haute tension à un moment où le réseau était très sollicité avait déclenché une coupure de près de quatre heures sur les trois quarts du territoire.

1978, c’est aussi une période charnière pour la stratégie électrique nationale. Le plan Messmer de nucléarisation, lancé en 1974, n’avait pas encore produit ses effets et la centrale de Fessenheim (dont la construction avait été lancée dès 1970) venait à peine d’entrer en service. L’essentiel de l’électricité française était donc majoritairement produit au fioul et au charbon alors que les investissements allaient prioritairement dans le nucléaire.

Depuis cette date, beaucoup de choses ont changé. Tout d’abord, la production électrique s’est diversifiée. Le nucléaire, qui est devenu la technologie dominante, représentait en 2019 70,6% de la production. Les autres modes de production d’électricité se partageaient de la manière suivante : l’hydraulique (11,2%), les centrales thermiques à combustion d’énergie fossile – très majoritairement du gaz – (7,9%), l’éolien (6,3%) et le solaire (2,2%)(1). Mais le principal changement est celui qui lui a succédé : la construction du marché européen de l’électricité. Ce dernier repose sur deux grands piliers : le développement des interconnexions entre les pays limitrophes qui permet de décloisonner les marchés nationaux et l’instauration de régimes de concurrence pour la production et la fourniture d’électricité. Pourtant, la libéralisation n’a pas rendu notre système électrique plus résilient et moins coûteux. C’est même le contraire qui nous saute aux yeux aujourd’hui : une forte hausse des prix (notamment pour les entreprises) et la menace de coupures. Il est nécessaire de comprendre comment nous en sommes arrivés là.

Pourquoi le marché de l’électricité a-t-il été libéralisé ?

La libéralisation du marché de l’électricité est le fruit d’un long processus d’harmonisation européen lancé en 1986 avec la signature de l’Acte unique, porté par Jacques Delors. Dans les années qui suivirent, la Commission européenne s’engagea dans la mise au point d’une vaste série de directives chargées de construire le marché unique européen sur le modèle d’un système de marchés en concurrence. Les services publics de nombreux pays qui fonctionnaient sur le principe du monopole public furent progressivement démantelés. Après la libéralisation du transport aérien (1987), des télécommunications (1998), de la livraison de colis (1999), de la recherche d’emploi (2003), des renseignements téléphoniques (2005) … et avant celle du courrier (2011) et du transport ferroviaire de voyageurs (2020), il y eut donc la libéralisation du marché de l’énergie (gaz et électricité). Celle-ci fut réalisée en trois temps. Pour les entreprises très consommatrices d’énergie, l’ouverture à la concurrence de la fourniture d’électricité fut réalisée dès 1999, puis le marché fut libéralisé pour l’ensemble des professionnels en 2004, et enfin ce fut le tour des particuliers en 2007.

Pourquoi l’Union européenne a-t-elle choisi de démanteler le régime des monopoles publics ? En premier lieu, pour une raison politique. Dès l’instauration de la Communauté européenne du charbon et de l’acier (CECA) en 1951, la construction européenne a cherché à développer des interdépendances économiques entre les pays membres. L’idée était de dépasser les frontières nationales en instaurant une entité supranationale plus vaste. Or, les monopoles nationaux segmentaient le grand marché européen que l’Acte unique entendait créer.

Mais organiser un vaste marché concurrentiel ne relevait pas seulement d’une question d’unité européenne ; elle reposait aussi sur une véritable doctrine inspirée de la pensée économique dominante. À quoi sert le marché ? Pour la plupart d’entre nous, c’est un lieu d’échanges et de négociations fondé sur l’autonomie des individus. Pour un économiste contemporain, le marché a un tout autre rôle, celui d’évaluer les besoins et la rareté et de donner un prix à nos ressources. Ainsi, créer un grand marché concurrentiel de l’électricité n’avait pas pour seul but de faire disparaître les frontières nationales mais visait surtout à faire disparaître le contrôle politique des prix de l’énergie au profit d’un système fondé sur les prix de marché.

C’est qu’il existe une véritable mythologie des prix de marché pour les économistes. Lancé dans les années 1920 par l’économiste autrichien Ludwig Von Mises, le débat sur le calcul économique est à la base de la pensée néolibérale contemporaine. Qu’est-ce qu’un calcul économique ? C’est une manière de trancher rationnellement un certain nombre de questions. Doit-on construire cette usine ? Établir des droits de douane ? Investir dans tel ou tel pays ? Afin de trouver une réponse à ces questions il faut quantifier les coûts et les bénéfices attendus puis arbitrer en conséquence. Le problème est que cette quantification dépend des prix. Or, si le prix de l’électricité, ou d’autres produits, est décidé par un gouvernement ou un monopole public, alors tout le raisonnement économique est biaisé. Pour imposer son choix, ou pour influencer les acteurs privés, un gouvernement peut faire varier certains prix qu’il contrôle dans un sens ou dans l’autre.

L’instauration d’un système de prix de marché en concurrence est une manière de diminuer l’usage qu’une autorité politique peut faire de son pouvoir discrétionnaire. Pour les néolibéraux, les prix de concurrence relèvent d’une forme de démocratie participative qui s’incarne dans les rapports de force entre offreurs et demandeurs. Ils sont d’autant plus pertinents qu’ils intègrent l’information cachée que détiennent les agents puisque toute transaction privée a une influence sur les mécanismes de formation des prix. En somme, les marchés fonctionneraient comme de gigantesques algorithmes, générant des prix sur la base de décisions prises de manière décentralisée. Les néolibéraux en déduisent qu’organiser une partie de la production à partir de monopoles publics prive le pilotage de l’économie d’un système de prix pertinents représentant les coûts réels des ressources et entraine l’impossibilité de faire des calculs économiques optimaux.(2) 

Les principes de fonctionnement du marché européen de l’électricité

Il est important de comprendre que l’idée de créer un marché concurrentiel de l’électricité n’est pas un acte volontaire de sabotage de l’industrie européenne conçu par un personnel politique incompétent. Cela procède avant tout d’une volonté de rationaliser l’organisation de l’économie. Pourtant, cette décision apparait, pour nombre des acteurs du secteur, comme idéologique et inefficace. C’est notamment le cas du physicien Yves Brechet, ancien Haut-commissaire à l’Énergie atomique. Le 29 novembre 2022, il était entendu par la commission d’enquête parlementaire sur la perte de souveraineté et d’indépendance énergétique de la France. Conspuant l’idéologie « ultra-libérale » selon lui qui a prévalu dans la construction du marché européen de l’électricité, il déclara que « c’est une erreur fondamentale de s’imaginer qu’on peut faire un marché d’un truc non stockable […]. On a fabriqué un truc qui est un outil de spéculation pure. On a fait gagner de l’argent à des gens qui n’ont pas produit un électron. »

L’existence de deux visions incompatibles, celle de l’ingénieur qui s’occupe de faire fonctionner des centrales nucléaires, et celle de l’économiste qui conçoit un marché efficace mérite d’être étudiée. Il faut aussi se demander pourquoi il est si difficile de mettre en place un marché concurrentiel dans le secteur de l’électricité. La raison en est la contradiction entre la logique abstraite des économistes et la logique industrielle qu’il y a derrière la production d’une centrale électrique.

Techniquement, la fourniture d’électricité relève pour partie de ce que les économistes appellent un « monopole naturel ». Ce terme a longtemps été utilisé pour caractériser les industries de réseau. Un réseau est en effet une production particulière qui est fondée sur une infrastructure très coûteuse dont l’utilisation n’a presque aucun coût. D’un point de vue économique, un monopole naturel présente une structure de coûts caractérisée par des coûts fixes élevés et des coûts marginaux très faibles. Par exemple, le réseau électrique repose sur la construction et l’entretien des lignes et la fourniture des compteurs électriques, tandis que le coût marginal, qui représente le coût d’utilisation de l’infrastructure pour l’acheminement de 1 kWh d’électricité supplémentaire est lui, pratiquement nul. Avec une telle structure de coûts, la concurrence est impossible, admet-on. Construire un réseau concurrent à celui d’EDF représenterait un énorme gaspillage de ressources et serait très inefficace : c’est donc un « monopole naturel ».

Ce problème étant connu, la logique proposée par les économistes néolibéraux pour introduire de la concurrence a été de diviser le marché de l’électricité en trois sous-secteurs.

  • La gestion et l’entretien du réseau resteraient sous la responsabilité d’un monopole public national. Deux filiales d’EDF ont été constituées à cette occasion. Le Réseau de transport d’électricité (RTE) qui s’occupe des lignes à haute tension et de la gestion du transport de l’électricité sur de longues distances, et Enedis, qui s’occupe de la distribution de l’électricité aux particuliers et des compteurs électriques.
  • La production d’électricité proprement dite. C’est ici qu’intervient une première forme de concurrence. En France, l’électricité est très majoritairement produite par EDF (79% en 2021) qui détient l’ensemble du parc nucléaire et exploite la grande majorité de la production hydroélectrique. Le deuxième acteur est Engie (environ 15% de la production nationale), anciennement GDF ; puis viennent d’autres acteurs privés dont TotalEnergies. La production d’électricité est donc concentrée et largement dominée par le producteur historique.
  • Les fournisseurs. Ces derniers achètent de l’électricité aux producteurs essentiellement grâce à des contrats de long terme et ponctuellement sur le marché « spot », c’est-à-dire au jour le jour. Ils fournissent et tarifient l’électricité à leurs clients. Alors que le réseau est un monopole et que la production est très concentrée, les fournisseurs d’électricité sont très nombreux. On en compte plus d’une quarantaine qui proposent des offres commerciales les plus variées. La part de marché des fournisseurs alternatifs (hors EDF et entreprises locales de distribution) est d’environ 37% d’après le ministère de l’Écologie(3).   

Cette rapide présentation explique comment la concurrence fut introduite au sein du marché de l’électricité. Il fut décidé de séparer la partie « monopole naturel », à savoir la gestion de l’acheminement et du réseau, des parties qui sont réputées pouvoir être ouvertes à la concurrence, la production et la commercialisation de l’électricité. Mais est-il vrai que la concurrence fonctionne sur les parties production et distribution comme le modèle le prétend ? Comment fonctionne-t-elle concrètement ?

Figure 1 : représentation schématique du fonctionnement du marché européen de l’électricité

Une concurrence artificielle

Pour bien comprendre les limites de ce modèle, commençons par une remarque : cette organisation du marché de l’électricité ressemble beaucoup aux marchés agricoles qui ont servi de modèle pour ce « market design »(4). Le marché de l’électricité repose en effet sur une commercialisation à deux niveaux. Le marché « de gros » organise les relations commerciales entre fournisseurs et producteurs, tandis qu’un commerce « au détail » relie les fournisseurs et les consommateurs.

Trois différences fondamentales distinguent néanmoins les marchés agricoles du marché de l’électricité. La première est que, sur le marché de l’électricité, les fournisseurs ne gèrent pas eux-mêmes la logistique et l’approvisionnement des consommateurs puisque c’est RTE et Enedis qui s’en chargent. Ils se limitent à tarifer à leurs clients l’électricité achetée en gros. La deuxième est que, sur un marché classique, l’agriculteur qui produit des fruits et des légumes n’a en général pas accès direct au client et ne peut vendre lui-même qu’une part marginale de sa production. À l’inverse, un producteur d’électricité peut être son propre fournisseur. La troisième différence, sans doute la plus fondamentale, est que l’électricité ne se stocke pratiquement pas et qu’à tout moment il faut que l’offre s’ajuste à la demande afin d’éviter un black-out. C’est RTE qui s’occupe d’organiser ces ajustements. Si les producteurs sont des entreprises privées, cette régulation passe par des variations de prix, seul moyen de convaincre les producteurs de relancer ou d’arrêter la production d’une centrale.

Ces différences amènent trois remarques. La première c’est qu’on peut s’interroger sur la pertinence d’avoir des fournisseurs non producteurs puisqu’ils n’apportent aucune valeur ajoutée au produit qu’ils vendent, contrairement au marchand de fruits et légumes sans lesquels les agriculteurs ne pourraient pas vendre. La deuxième est qu’un marché fondé sur une production d’électricité privée implique inévitablement que le prix de l’électricité varie à tout moment afin d’ajuster l’offre, d’éteindre ou de rallumer une centrale. Ainsi, poussé par les variations de prix, un gestionnaire de centrale électrique doit sans cesse arbitrer entre produire ou non. Ces centrales utilisées lors des pointes de consommation sont nécessairement des centrales thermiques ou hydroélectriques, car le solaire et l’éolien ne sont pas pilotables, tandis que les centrales nucléaires mettent trop de temps pour être mises en route et s’arrêter pour pouvoir s’ajuster aux fluctuations infra-journalières. Enfin, la menace du black-out pèse lourdement sur les choix du régulateur. L’électricité étant un bien essentiel dont la privation est inacceptable et le black-out s’avérant très coûteux, il existe un risque de capture de la part des producteurs qui peuvent facilement exiger un prix très élevé de la part du régulateur en période de forte tension. On retrouve, sur le marché de l’électricité, une asymétrie similaire à celle qui existe avec les grandes banques en cas de risque systémique.

Observons enfin que le marché de l’électricité se distingue de celui des fruits et légumes du fait d’une production d’électricité extrêmement concentrée, au contraire de la production agricole. La raison en est une structure de coûts qui tend à favoriser les producteurs les plus gros. En effet, la production d’énergie hydraulique ou nucléaire nécessite des investissements considérables alors que le coût marginal de production est relativement faible. Cette concentration nuit à l’organisation concurrentielle du marché de la production d’électricité et tend à favoriser l’opérateur historique. Afin de corriger ce déséquilibre, la Commission a demandé à la France de compenser cet avantage. Avec la loi Nome de 2010, le gouvernement français a donc imposé à EDF de vendre une partie de sa production d’électricité d’origine nucléaire à un prix relativement faible et prévisible ; c’est le mécanisme de l’ARENH (accès régulé à l’électricité nucléaire historique). Les fournisseurs alternatifs peuvent ainsi acheter 100 TWh par an d’électricité produite par EDF (un peu moins du quart de sa production annuelle) au prix de 42€ le MWh. En 2022, pour répondre à l’explosion du prix de l’électricité, ce mécanisme a été étendu dans l’urgence et 20TWh supplémentaires d’ARENH ont été accordés aux fournisseurs à un prix de 46,2€ de MWh. Cette extension s’est accompagnée de l’obligation de revendre à EDF les mêmes quantités d’électricité au prix de… 256,98 € le MWh. Ainsi, le gouvernement a « contraint » les fournisseurs alternatifs à faire une marge de 4,216 milliards d’euros au détriment d’EDF(5). Notons également que le code de l’énergie contraint EDF à racheter à un tarif supérieur au prix de marché l’électricité éolienne et solaire produite par des acteurs privés, notamment les ménages.

C’est qu’il en faut des régulations et des tarifs administrés pour soutenir artificiellement la concurrence ! Le plus étrange est qu’avec l’ARENH les autorités se soient surtout concentrées sur la concurrence des fournisseurs et non celle des producteurs. Elles ont accordé des avantages à des opérateurs qui ne produisent aucune valeur ajoutée sans parvenir vraiment à diversifier la production. De fait, malgré l’ouverture totale à la concurrence du marché, 95% de l’électricité produite l’est par les deux énergéticiens historiques (EDF et Engie, ex GDF). Ainsi, la concurrence sur le marché de l’électricité repose sur la survie artificielle de fournisseurs qu’on a cherché à soutenir au moment où ils étaient sur le point de faire faillite, incapables d’acheter aux tarifs du marché. Le pire est sans doute que cette subvention déguisée a été financée par EDF qui produit à elle seule près de 80% de l’électricité française.

Pour comprendre l’absurdité de ce résultat, il faut poser une autre question. Pourquoi est-il si difficile d’organiser une véritable concurrence chez les producteurs d’électricité ? Pour le comprendre il faut plonger dans les modèles économiques et dans les raisons pour lesquels ces derniers ne parviennent pas à rendre compte correctement de la logique industrielle sur laquelle repose le fonctionnement des centrales.

La complicité des économistes « mainstream »

Si vous demandez à un économiste quel est le prix « efficient » (optimal) d’un marché, il vous répondra sans hésiter que c’est celui qui s’établit au niveau du coût marginal, c’est-à-dire au coût de la dernière unité produite, indépendamment du coût fixe. Il ajoutera bien sûr que, dans les faits, il est rare qu’un prix de marché s’établisse vraiment à ce niveau car les marchés sont rarement en situation de concurrence parfaite et qu’il existe des coûts de transaction. Mais, dans l’idéal affirment-ils, un marché est efficient s’il tend vers ce prix.

Ce réflexe quasi pavlovien, « marché efficient signifie prix de marché égal au coût marginal » a été acquis dès les années de première et de terminale pour ceux qui ont suivi des cours de SES. Le matraquage s’est poursuivi en licence et en master avec des cours de microéconomie, puis ceux d’économie industrielle plus avancés dans lesquels la pensée de Jean Tirole est convoquée avec toute la déférence qu’elle mérite. Ainsi donc professe-t-on, l’efficience d’un marché est maximale lorsque le prix est égal au coût marginal de production.

L’un des exemples les plus symptomatique de cette manière de voir nous est donné par un récent article paru dans The Conversation(6). Deux économistes, Thomas Michael Mueller et Raphaël Fèvre racontent comment, après la seconde guerre mondiale, la constitution de monopoles publics dans le ferroviaire et l’énergie avait conduit les économistes à conseiller aux autorités d’instaurer des prix réglementés au niveau du coût marginal. « Un prix, c’est aussi de l’information, écrivent les auteurs de l’article. La tarification marginale évite le gaspillage de temps en ‘‘informant’’ les consommateurs du coût effectif de la ressource qu’ils utilisent au moment où ils l’emploient ».

Le sous-texte de ce raisonnement est que, qu’il soit organisé sous la forme d’un monopole public ou via un marché en concurrence, le résultat optimal est toujours le même. Le prix le plus pertinent est celui qui incite le consommateur à adopter le comportement qui fait le meilleur usage des ressources. Autrement dit, que la production soit le fait d’un monopole public ou d’un marché en concurrence, cela ne change pas le résultat et le prix idéal sera de toute façon le même. Pour le démontrer, les auteurs de l’article expliquent que, lorsqu’en 1945 il fut décidé de gérer les services publics sous la forme de monopole, des économistes tels que Maurice Allais pour la SNCF ou Marcel Boiteux pour EDF ont alors conseillé de pratiquer la tarification marginale. « Allais en concluait alors que la solution la plus efficace économiquement était de mimer des prix de marché libres en les imposant », écrivent les auteurs(7). Ils expliquent ainsi que c’est ce « concept », qui expliquerait la hausse très forte du prix de l’énergie en Europe. Le coût marginal ayant augmenté, les prix ont logiquement dû suivre.

Le problème est que ce raisonnement est triplement faux. Premièrement, il est faux de dire que le marché européen de l’électricité établit le prix au niveau du coût marginal de production de l’électricité ; deuxièmement, il est inexact d’affirmer que le prix optimal correspond toujours au coût marginal, en particulier sur le marché de l’électricité ; troisièmement, il n’est pas vrai que le prix optimal de l’électricité sera le même lorsque la production d’électricité est le fait d’un monopole public ou d’un marché en concurrence parfaite. Ce sont ces trois erreurs que colportent les économistes néolibéraux qu’il nous faut à présent étudier.

Pourquoi le prix du marché de l’électricité ne se situe pas au niveau du coût marginal ?

Lorsqu’il a fallu construire le marché européen de l’électricité, les autorités ont tenu à imposer le principe de la tarification au coût marginal, suivant en cela les recommandations des économistes. Rappelons que le marché de l’électricité est bien une construction artificielle, caractéristique de la doctrine néolibérale.

En ce qui concerne le marché de l’électricité européen, la question était de savoir comment le « forcer » à proposer un prix qui soit le plus proche du coût marginal de production. L’un des problèmes qu’il a fallu résoudre est que l’électricité est produite à partir de techniques très différentes. Comment peut-on avoir un prix unique égal au coût marginal alors que les coûts marginaux sont très différents d’une filière à l’autre ? Dans un ouvrage de référence paru en 2014(8), les principes fondamentaux de l’efficience d’un marché de l’électricité libéralisé sont discutés en détail. Pour les auteurs, la solution consiste à organiser le marché sur le principe du « merit order » ou « préséance économique ». L’idée est d’utiliser le prix pour mettre à contribution de manière prioritaire les modes de production dont les coûts marginaux sont les plus faibles puis, en fonction de la demande, de monter progressivement le prix pour inclure des centrales dont le coût marginal de production est de plus en plus élevé(9).

Rappelons que le prix réel de l’électricité que paie un fournisseur n’est pas le simple prix de marché puisque la majeure partie de l’électricité a été négociée au préalable dans le cadre de contrats à long terme passés avec les producteurs. Mais une partie de la demande d’électricité ne peut être anticipée parfaitement. Du fait de la nécessité d’ajuster l’offre à la demande, on a donc mis en place un marché « spot », c’est-à-dire au comptant, qui permet aux acteurs d’acheter ou de vendre l’électricité à l’instant t en fonction de leur situation. C’est sur ce marché spot que le prix est censé s’établir au niveau du coût marginal des producteurs.

Voici comment ce marché fonctionne. À tout moment, le problème du régulateur est de savoir s’il faut ou non appeler une nouvelle centrale à produire. Pour savoir laquelle appeler, on propose un certain prix. Les producteurs dont le coût marginal de production est supérieur à ce prix ne peuvent évidemment pas produire, car sinon ils produiraient à perte. Or, ce sont les centrales qui produisent à partir d’énergie fossile qui ont les coûts marginaux les plus élevés. Non seulement le gaz ou le charbon qu’elles utilisent comme combustible est coûteux, mais leurs gestionnaires doivent en plus payer un droit d’émission en achetant des quotas carbone. À l’inverse, les producteurs d’énergie renouvelable produisent à coût marginal nul puisque l’éolien et le solaire n’ont pas besoin de carburant pour fonctionner. L’hydroélectricité n’a pas besoin de carburant non plus, mais fonctionne avec un stock limité d’eau dans les barrages. Elle doit donc intégrer un coût d’opportunité. Enfin, dans l’industrie nucléaire, les coûts d’exploitation et de carburant sont très faibles et cette production n’émet pas de CO2. La filière nucléaire produit donc à des coûts marginaux inférieurs aux centrales à énergie fossile.

La figure 2 ci-dessous résume le principe de classement du merit order. Pour un prix de marché P1 correspondant à une consommation faible d’électricité (Q1) seules les énergies renouvelables et le nucléaire sont rentables ; le prix P2 correspond à une consommation de pointe modérée (Q2). Dans cette situation toutes les centrales sont rentables à l’exception de celles de la filière charbon qui ne sont exploitées que lors des pics de consommation les plus importants. La logique du merit order a donc pour effet, nous dit-on, d’exploiter en premier les centrales les moins coûteuses et les moins émettrices de carbone et tendrait donc à faire converger le prix du marché vers le coût marginal de la production de la dernière centrale appelée (voir par exemple cet article pour une présentation synthétique du fonctionnement de ce système). Le coût moyen de long terme qui inclut les coûts fixes et marginaux de l’ensemble des producteurs est représenté par la droite en rouge.

Figure 2 : représentation schématique du principe du merit order sur le marché « spot » de l’électricité

Ce raisonnement, cependant, n’est pas tout à fait exact. En pratique, aucun industriel n’a intérêt à vendre son électricité au coût marginal de production comme le laisse supposer ce schéma.

Imaginons un producteur qui décide d’investir dans une centrale à charbon. Il doit, pour cela, financer un outil de production coûteux et s’approvisionner en charbon au prix de marché. Sa centrale étant en bout de chaine, elle ne sera mise en service qu’au moment des pics de consommation d’électricité, c’est-à-dire seulement certains jours de l’année et à certaines heures. Comment peut-il être rentable s’il ne vend son électricité que quelques jours par an au coût marginal, c’est-à-dire au prix où il achète le charbon ? La théorie économique suppose qu’il y est poussé par la concurrence. Mais justement, au moment des pics de consommation toutes les centrales sont allumées et il n’existe pas suffisamment de capacité de production en réserve pour le concurrencer. Il peut donc, il doit donc s’il est rationnel et s’il souhaite faire une marge suffisante pour couvrir ses coûts d’investissement, exiger un prix bien supérieur à son coût marginal de production.

La théorie qui dit que les centrales en bout de chaine du merit order vendent au coût marginal est absurde. Elle suppose que l’exploitant accepte de produire à perte parce qu’il ne pourra jamais amortir ses coûts fixes. Elle suppose qu’il existe une concurrence parfaite quel que soit le niveau de production d’électricité. Bien entendu, tout industriel qui exploite une centrale à charbon et qui sait que, s’il ne produit pas, le réseau électrique risque le black-out se trouve en réalité avec un pouvoir de marché considérable. Dans ce cas, il a l’assurance de pouvoir exiger du régulateur un prix bien supérieur à son coût marginal. C’est pour cette raison qu’il existe des industriels qui sont prêts à investir dans la construction de centrales à charbon. Ils savent qu’ils vendront leur électricité bien au-delà du coût marginal les quelques jours de l’année où elles seront appelées à produire. Mais ce raisonnement est vrai pour tous les producteurs d’électricité. Si un producteur exploite une centrale à gaz et sait que son concurrent qui produit de l’électricité au charbon vend au-dessus de son coût marginal, il va lui aussi exiger un prix nettement plus élevé que son coût marginal pour produire. Et cela fonctionne ainsi à tout endroit de la chaine du merit order, ce qui signifie que le prix de marché est toujours supérieur au coût marginal du dernier producteur appelé. Affirmer autre chose est contraire aux raisonnements même de la microéconomie la plus classique et de la théorie des jeux(10).

Pourquoi le coût marginal ne peut pas être pas le prix efficient sur le marché de l’électricité ?

La théorie économique standard raconte une fable. Elle explique d’une part que le prix de marché s’établit toujours au coût marginal et d’autre part que la concurrence va pousser les entreprises à produire au niveau où elles sont les plus efficaces. Pour concilier ces deux affirmations, la microéconomie standard suppose que les entreprises produisent avec une structure de coûts très particulière : des coûts fixes faibles et un coût marginal qui décroit, puis croît à mesure que les volumes de production augmentent. La figure 3 ci-dessous présente les courbes de coût moyen et marginal classiques d’une entreprise.

Figure 3 : représentation d’une structure de coûts classique en microéconomie

La fonction de coût moyen d’une entreprise classique en microéconomie est représentée par une courbe convexe de la forme d’un U. Dans un premier temps, lorsque les volumes de production sont faibles, le coût moyen décroit car le coût marginal est inférieur au coût moyen. L’entreprise produit à rendements d’échelle croissants. Dans un second temps, le coût marginal augmente et devient supérieur au coût moyen. À partir de ce moment-là, l’entreprise entre dans une zone de rendements d’échelle décroissants, c’est-à-dire qu’elle est de moins en moins efficace à mesure qu’elle augmente les quantités produites.

Si la structure de coûts de l’entreprise est celle-là, il est assez facile de démontrer que l’entreprise produit tant qu’elle fait du profit, c’est-à-dire tant que le prix de marché est supérieur au coût marginal. On en déduit que si le prix de marché s’établit à P1, alors elle produira une quantité Q3. De plus, en régime de concurrence, le modèle montre que l’arrivée de nouveaux producteurs pousse le prix de marché à la baisse, ce qui conduit l’entreprise à diminuer sa production et à se rapprocher du volume de production où elle est le plus efficace, c’est-à-dire au niveau Q2 où son coût moyen est le plus faible.

Les conclusions du modèle standard sont les suivantes :

  • L’entreprise produit toujours au niveau où son coût marginal est égal au prix de marché. Ainsi, le prix de marché est toujours égal au coût marginal de production.
  • La concurrence diminue le prix de marché et incite les producteurs à être plus efficaces par la diminution du volume de production.

Remarquons que, dans ce cas de figure, l’entreprise peut facilement devenir plus efficace car elle se situe toujours dans la zone qui correspond à des rendements d’échelle décroissants. Les rendements décroissants sont eux-mêmes la conséquence d’une hypothèse du modèle, à savoir que le coût marginal augmente au-delà d’un certain seuil (ici Q1), c’est-à-dire qu’il devient de plus en plus coûteux pour une entreprise de produire une unité supplémentaire. L’hypothèse de la hausse des coûts marginaux est absolument indispensable au modèle. C’est typiquement ce qu’on appelle une hypothèse ad hoc(11).

Quelle est la véritable structure de coûts d’une centrale électrique ? Toute centrale suppose de lourds investissements préalables, c’est-à-dire des coûts fixes élevés (plus élevés toutefois pour une centrale nucléaire ou hydroélectrique que pour une centrale thermique). De plus, comme on l’a vu plus haut, le coût marginal de production dépend de l’achat de combustible et du paiement des droits d’émission. Est-il raisonnable de penser que le prix du combustible augmente au fur et à mesure que la centrale augmente sa production ? Rien ne permet d’affirmer une telle chose. En réalité, il y tout lieu de croire que le coût marginal de production d’une centrale thermique est toujours inférieur au coût moyen, tant en raison de l’importance des coûts fixes que du fait qu’il est peu probable que le combustible acheté au cours mondial fluctue en fonction des quantités achetées par une seule centrale. Autrement dit, pour une centrale électrique, il n’existe pas de niveau de production Q2 au-delà duquel la centrale passe en régime de rendements d’échelle décroissants.

Figure 4 : représentation schématique de la structure de coût d’une centrale thermique

La structure de coût d’une centrale ressemble donc à la figure 4 ci-dessus : un coût marginal constant et une courbe de coût moyen décroissante du fait de coûts fixes élevés répartis sur un volume de production de plus en plus important. Pour une centrale nucléaire, le coût moyen peut être deux à trois fois plus élevé que le coût marginal, tandis que pour une centrale solaire ou pour une éolienne, le coût marginal est nul.

Ce qu’il faut retenir de ce schéma c’est qu’une centrale électrique a toujours intérêt à produire au maximum de sa capacité, parce que c’est là qu’elle est la plus efficace. De plus, comme elle amortit ses coûts fixes sur sa production annuelle, elle a aussi intérêt à produire le plus de jours possibles dans l’année. Ce n’est cependant pas possible. Du fait du merit order, les centrales thermiques produisent le plus souvent au moment des pics de consommation.

Du fait de cette structure de coûts, il n’est donc pas possible pour une centrale électrique, quelle que soit sa filière, de produire à un prix proposé égal au coût marginal, étant donné que ce prix sera toujours inférieur à son coût moyen. Autrement dit, les conclusions de la microéconomie standard ne sont pas adaptées à la production d’électricité et il est donc impossible d’affirmer que, sur le marché de l’électricité, le prix optimal est celui qui se situe au coût marginal de production. L’erreur des économistes spécialistes du marché de l’électricité est de supposer des coûts marginaux croissants pour retrouver une structure de coûts correspondants à la figure 3 (voir Biggar et Hesamzadeh 2014, figure 4.1, op. cit. p. 95).

Pourquoi seul un monopole peut-il permettre des prix faibles et stables ?

Nous disposons à présent de tous les éléments pour répondre à la question la plus importante, celle de l’organisation optimale du marché de l’électricité. Les économistes admettent que la gestion et l’entretien du réseau relèvent d’un monopole naturel mais ils prétendent que la fourniture et la production d’électricité peut être organisée plus efficacement dans le cadre d’un marché concurrentiel. Laissons de côté la question de la fourniture d’électricité. Contentons-nous de rappeler qu’une activité économique qui ne produit ni n’achemine d’électricité ne crée aucune véritable valeur ajoutée et ne mérite donc pas d’exister. La question à laquelle il faut répondre est de savoir si la production d’électricité peut se faire de manière pertinente dans un marché ouvert à la concurrence.

Une première approche pour répondre est de remarquer que la structure de coûts d’une centrale est la même que celle d’un monopole naturel : des coûts fixes élevés, des coûts marginaux constants (figure 4). Ainsi, une centrale électrique produit avec des rendements d’échelle croissants jusqu’à ses capacités maximales de production. Pour autant, le système productif dans sa globalité fonctionne grâce à de nombreuses centrales qui ont chacune une structure de coûts spécifique. Or, le mécanisme du merit order tend à organiser la filière selon une logique de coût marginal croissant (figure 2). Ainsi, si toutes les centrales étaient détenues par un seul producteur, la structure de coûts de ce producteur serait la même que celle d’une entreprise du modèle standard. Le problème est que cette situation correspond à un monopole. On parvient donc à la conclusion paradoxale suivante : pour que le marché de l’électricité fonctionne avec une structure de coûts qui corresponde au modèle présenté dans la figure 3, il faudrait que toutes les centrales soient détenues par un seul producteur, c’est-à-dire que la production d’électricité soit réalisée par un monopole. Dans un système fondé sur la concurrence, chaque centrale doit être rentable et doit vendre à un prix supérieur à son coût marginal. En revanche, dans un système où toute l’électricité est produite par un seul producteur, ce dernier peut vendre au coût moyen, en suivant un système de péréquation qui fait que les centrales les plus rentables financent la production de celles qui sont moins efficaces et qui doivent être utilisées en période de pointe.

Afin de bien comprendre la différence entre le modèle concurrentiel et le modèle monopolistique, intéressons-nous aux effets de la hausse du prix du gaz consécutive à la guerre en Ukraine. L’invasion russe du 24 février 2022 a eu pour effet de bouleverser le merit order. La production d’électricité des centrales à gaz, qui étaient privilégiées car elles polluent moins que les centrales à charbon, est soudainement devenue la plus coûteuse de toutes. Les centrales à gaz sont donc passées derrière les centrales à charbon dans le merit order. Comme le gaz dispose de capacités de production importantes, il n’était pas possible de s’en priver pour répondre aux pics de consommation. Ainsi, en période de pic de consommation, le prix de l’électricité a dû suivre la hausse du prix du gaz afin de satisfaire une demande d’électricité qui, pourtant, n’avait pas augmenté (figure 5). Le principe du merit order a donc engendré une multiplication par deux du prix de l’électricité, même en France, alors que le coût moyen de la production a peu bougé puisque la production de la filière gaz est très minoritaire dans le mix de production d’électricité français (tableau 1).

Figure 5 : le merit order du marché de l’électricité après l’invasion russe

Le prix de l’électricité P3 correspond au prix auquel les gestionnaires de centrales à gaz acceptent désormais de produire. Il apparaît deux fois plus élevé que l’ancien prix P2 qui permettait de ne pas exploiter les centrales à charbon pour une demande Q2 d’électricité inchangée.

Le tableau 1 ci-dessous indique les coûts de l’électricité produite en fonction des filières en 2019(12). Un rapide calcul permet d’établir que le coût moyen de l’électricité produite en France était approximativement de 50€ le MWh. Cette structure de la production française implique que si le prix du gaz est multiplié par deux, comme cette filière représente moins de 8% de la production d’électricité, cela ne fait augmenter le coût de production moyen que d’environ 4€. Mais, de par son fonctionnement, le marché de l’électricité impose d’établir un prix qui soit suffisant pour que le gestionnaire de la centrale la plus coûteuse accepte de produire. Ainsi, le doublement du prix du gaz entraine automatiquement le doublement du prix de l’électricité.

Tableau 1 : Coût de l’électricité par filière et coût moyen pondéré en 2019 en France (estimations)

Filière

Coût du MWh

Part dans la production

Nucléaire historique

48,5 €

70,6%

Hydraulique de forte puissance

34-43 €

11,2%

Centrale à gaz à cycle combiné

50-66 €

7,9%

Éolien terrestre

50-71 €

6,3%

Photovoltaïque au sol

45-81 €

2,2%

Coût moyen pondéré

49,2

 

Avec une telle hausse de prix, les fournisseurs qui devaient acheter au comptant une partie de l’électricité afin d’approvisionner leurs clients protégés par des contrats de moyen terme étaient pris à la gorge. C’est pour éviter leur faillite que le gouvernement a décidé, dans l’urgence, d’étendre le mécanisme de l’ARENH et de les faire bénéficier d’une plus-value de près de 4 milliards d’euros.

Pourtant, les vrais gagnants ne sont pas les fournisseurs mais les producteurs. En effet, ceux qui exploitent des centrales qui ne fonctionnent pas au gaz peuvent vendre deux fois plus cher une électricité dont le coût de production n’a guère changé. C’est là que se trouvent les « superprofits » que l’exécutif s’est résolu à taxer. Il s’agit, d’après le gouvernement de taxer la « rente infra-marginale », c’est-à-dire la rente que réalisent les producteurs d’électricité dont le coût marginal est nettement plus faible que le prix de marché. Grâce à cette taxe, le gouvernement s’attend à une hausse de recettes fiscales de 11 milliards d’euros, ce qui compense en partie le coût du bouclier tarifaire (de l’ordre de 30 milliards). 

Le fait même que cette taxe ait dû être mise en place témoigne du dysfonctionnement du marché de l’électricité. Car qui assume, en fin de compte, le prix de cette taxe ? Ce ne sont pas les producteurs d’électricité mais bien les consommateurs, en particulier les entreprises qui ne bénéficient ni des tarifs régulés ni du bouclier tarifaire. Ainsi, cette taxe pèse lourdement sur les industriels qui sont de gros consommateurs d’électricité. Lorsqu’ils le peuvent, ils la répercutent sur leurs prix, ce qui nourrit l’inflation… mais parfois, ils sont contraints de fermer des unités de production, voire de délocaliser dans une région du monde où le coût de l’énergie est plus faible.

La preuve est faite que le système actuel engendre des prix élevés, instables, et déconnectés des coûts moyens de production de l’électricité. Le fond du problème est que, dans un système concurrentiel, le prix de marché doit permettre à l’acteur le moins efficace d’être rentable, ce qui fait qu’il se situe toujours au-dessus du coût moyen. À l’inverse, si la production d’électricité était le fait d’un monopole public, celui-ci pourrait se permettre de vendre l’électricité au coût moyen en faisant fonctionner ses centrales thermiques à perte au moment des pics de consommation, ces pertes étant rattrapées par un prix plus élevé que le coût moyen des centrales les plus productives. En retournant au principe du monopole public, les prix de l’électricité seraient donc à la fois plus stables et plus faibles qu’avec le système actuel, et il ne serait pas nécessaire de taxer les superprofits des producteurs privés.

Conclusion : les causes du sous-investissement et les effets de la réforme du marché carbone

Plus de vingt ans après le début de la libéralisation de l’électricité, il peut sembler étonnant que si peu d’acteurs privés aient investi en France dans la construction de centrales électriques. EDF, entreprise publique, produit encore environ 80% de l’électricité française. Engie, ancienne entreprise publique, en produit environ 15%. Comment expliquer cette frilosité des investisseurs ? La réponse est simple. Jusqu’à très récemment, le système français de production électrique était perçu comme étant en surcapacité. Or, un producteur privé d’électricité n’a aucun intérêt à investir dans une centrale à gaz, ou même dans une éolienne, si le système productif est en surcapacité. Pour qu’il puisse vendre son électricité au prix fort, il a besoin que le système électrique soit au bord du black-out. Ce n’est qu’à cette condition qu’un industriel en bout de chaine du merit order peut bénéficier d’un pouvoir de marché. De même, quelqu’un qui souhaite investir dans un parc d’éoliennes s’attend à des profits plus élevés dans les pays où les centrales à gaz et à charbon sont nombreuses et où les capacités de production sont faibles. La France, avec son parc nucléaire important, n’était donc pas un pays prioritaire pour un producteur d’électricité par rapport à l’Allemagne ou d’autres pays.

Enfin, notons que l’accord européen du 18 décembre 2022 sur le marché carbone(13), qui prévoit la fin des droits d’émission gratuits pour les industries fortement émettrices de CO2, va nécessairement conduire à un renchérissement du coût marginal des centrales à charbon et à gaz. De ce fait, si le marché européen de l’électricité n’est pas réformé d’ici la mise en œuvre du nouveau marché carbone, le prix de l’électricité risque d’augmenter encore plus fortement, y compris dans un pays comme la France dont l’électricité émet très peu de CO2. Il est donc plus qu’urgent de mettre fin à ce système.

Références

(1) Source : RTE – Bilan électrique 2019.

(2) Cette vision du marchée a été développée dans les années 1920-1930 par Ludwig von Mises et Friedrich Hayek dans le cadre du débat sur le calcul économique en régime socialiste. Elle a ensuite été intégrée à la pensée néoclassique, notamment à propos de l’hypothèse de l’efficience des marchés proposée par Eugene Fama en 1970. Voir D. Cayla, Déclin et chute du néolibéralisme, De Boeck Supérieur, 2022, pp. 81-88 et 159-160.

(3)« Commercialisation de l’électricité », Ministère de la Transition énergétique, 12/10/2022, en ligne.

(4)Le market design est une branche de l’économie qui entend définir et organiser un marché afin de tendre vers l’efficience.

(5) Commission de régulation de l’énergie, délibération n°2022-97 du 31 mars 2022, en ligne.

(6) T. M. Muller et R. Fèvre, « Fixer les prix de l’énergie : les leçons de l’après-guerre », The Conversation, 24/11/2022.

(7) En réalité, Allais, ne propose pas une pure tarification au coût marginal mais un tarif au « coût marginal majoré d’une quote-part des frais généraux calculée au prorata du coût marginal », c’est-à-dire un tarif supérieur au coût marginal permettant de couvrir les coûts fixes. Voir Alain Bonnafous (2020), « L’apport de Maurice Allais à l’économie des transports et aux principes de tarification », Bulletin de la SABIX.

(8) D. R. Biggar et M. R. Hesamzadeh (2014), The Economics of Electricity Markets, IEEE Press et Wiley.

(9) Le vidéaste Gilles Mitteau qui gère la chaine YouTube Heu?reka a réalisé récemment une série de vidéos de très bonne qualité sur le fonctionnement du marché de l’électricité.

(10) La théorie des jeux est une branche de la pensée économique qui s’intéresse aux comportement stratégiques fondés sur l’anticipation des comportements des autres acteurs.

(11) De nombreux économistes ont bien sûr critiqué la pertinence de cette structure de coûts. Les critiques les plus célèbres sont celles de John Clapham (1922), « Of Empty Economic Boxes », The Economic Journal, Vol. 32, No 127 et de Piero Sraffa (1926), « The Laws of Returns under Competitive Conditions », The Economic Journal, Vol. 36, No. 144.

(12) Sources : Coût des énergies renouvelables et de récupération 2019, ADEME pour le gaz (CGCC), l’éolien et le photovoltaïque. Nucléaire : Commission de régulation de l’énergie (2020), cité par le journal Contexte, le 10/09/2020. Hydraulique de forte puissance : Analyse des coûts du système de production électrique en France, Cour des comptes, 15/09/2021.

(13) « Climat : l’Union européenne réforme en profondeur son marché carbone », Franceinfo, 18/12/2022, en ligne.

Lire aussi...

Inflation : les gagnants, les perdants et les réponses peu convaincantes de la gauche

Chronique

Inflation : les gagnants, les perdants et les réponses peu convaincantes de la gauche

Avec une hausse des prix annuelle mesurée à plus de 6%, l’année 2022 fut incontestablement celle du retour de l’inflation. Un tel niveau n’avait plus été constaté en France depuis le début des années 1980. Dans sa chronique pour Le Temps des ruptures, David Cayla explique les conséquences de ce phénomène et pourquoi il n’est pas toujours pertinent de l’associer systématiquement à une baisse du pouvoir d’achat. Il montre aussi que les partis de gauche mériteraient de développer des réponses plus ambitieuses afin de transformer les rapports de force au sein du monde marchand, voire de privilégier la consommation collective et les services publics plutôt que de se focaliser sur le seul « pouvoir d’achat ».

L’inflation, dit-on, érode le pouvoir d’achat des ménages. Eh bien, contrairement aux apparences, ce n’est pas toujours vrai ! Dans une note de conjoncture publiée en octobre dernier, l’INSEE compare l’évolution de l’inflation avec celle du pouvoir d’achat des ménages des principaux pays européens. Les chiffres sont sans ambiguïté : alors que l’inflation est passée d’un niveau moyen de 1,5% en janvier 2021 à environ 5% en janvier 2022, puis à plus de 8% à partir de l’été 2022, le pouvoir d’achat est resté relativement stable. En janvier 2022, il avait progressé de 0,5% par rapport à l’année précédente en Allemagne, de 1,5% en Italie, de 0,5% en France. Il n’y a guère qu’en Espagne il a baissé d’environ 2%. Plus surprenant : alors que l’INSEE mesure une forte baisse du pouvoir d’achat en France au cours du 1er semestre 2022, elle s’attend à un rebond au second semestre en raison des mesures gouvernementales prises après l’élection et cela en dépit d’une hausse prévue de l’inflation.

Le pouvoir d’achat des ménages est globalement peu affecté par l’inflation. La raison de ce mystère est à la fois théorique et pratique. D’un point de vue théorique, les prix, qui sont des coûts pour les acheteurs, sont également des recettes pour les vendeurs. Ainsi, dans une économie fermée, ce que les uns perdent en achetant à des prix plus élevés, d’autres le gagnent en vendant plus cher. En fin de compte, au niveau de l’économie dans son ensemble, l’effet de l’inflation est nul.

Reste que, en pratique, un pays comme la France n’est pas une économie fermée. Le coût des produits pétroliers, très largement importés, ainsi que les prix des produits industriels dont la balance commerciale est déficitaire, pèsent forcément négativement sur le revenu de la nation dans son ensemble. L’inflation devrait donc avoir des effets négatifs sur le pouvoir d’achat moyen. Pourquoi ne retrouve-t-on pas cet effet dans les chiffres ? Cela est dû à la croissance économique et à la poursuite des aides de l’État dont les ménages et les entreprises ont bénéficié. Ainsi, la perte de revenus liée à la hausse des prix des produits importés est compensée d’une part par le maintien d’une dépense publique forte et d’autre part par le rebond de la croissance économique (le PIB est la somme des revenus).

D’après l’INSEE, la situation devrait être à peu près la même en 2023. En dépit d’une hausse de l’inflation, le pouvoir d’achat des ménages français devrait être stable. La croissance prévue de 2,6% (hausse de 2,6% des revenus primaires) serait consommée d’une part par le creusement du déficit commercial et d’autre part par la baisse du déficit public qui devrait passer de 6,4% du PIB en 2021 à environ 5% en 2022/2023.

Ce n’est pas l’inflation, c’est la distribution

Ces réflexions sur la stabilité du pouvoir d’achat des ménages en période d’inflation élevée ne signifient pas que l’inflation n’est pas un problème. Elle signifie plutôt que si l’inflation est un problème pour certaines catégories de ménages, elle représente une aubaine pour d’autres. Autrement dit, le problème de l’inflation n’est pas qu’elle appauvrit globalement les ménages (sauf pour l’inflation des produits importés) mais qu’elle réorganise brutalement tous les rapports de force au sein de l’économie. Derrière une moyenne qui ne change pas se cachent de nombreuses évolutions sectorielles et des conflits de répartition. Il est donc nécessaire de comprendre qui sont les gagnants et les perdants de l’inflation.

Lorsque l’inflation est nulle ou presque, comme c’était le cas dans les années 2010, les gagnants sont ceux dont les revenus progressent, les perdants ceux dont les revenus régressent. Comme il est très difficile de faire baisser nominalement les salaires et les revenus, les perdants étaient peu nombreux et les gagnants ne pouvaient donc pas beaucoup gagner.

À l’inverse, dans une économie où l’inflation dépasse les 6% par an, comme c’est le cas aujourd’hui, toute progression des revenus inférieure à ce seuil fait des perdants. Ainsi, la hausse du point d’indice de 3,5% pour les fonctionnaires décidée cet été représente en réalité une baisse de leur pouvoir d’achat supérieure à l’époque où le point d’indice était gelé alors que les prix n’augmentaient que de 1% par an. De même, la hausse des pensions du régime général de 4% ou celle de 5,12% des régimes complémentaires constituent en fait une baisse de pouvoir d’achat pour les retraités. Les salariés au SMIC sont protégés du fait de l’obligation légale d’indexer le salaire minimal sur l’inflation. Sur l’ensemble de l’année, ils ont ainsi bénéficié de trois hausses successives depuis le 1er janvier qui ont fait progresser le SMIC de 5,66% en dépit de l’absence de « coup de pouce » de la part du gouvernement. Au premier janvier 2023, le salaire minimum augmentera à nouveau de 1,81%.

Des perdants… et des gagnants

En fin de compte, les fonctionnaires sont perdants, les retraités sont perdants, la plupart des salariés, sauf les smicards, sont également perdants. Mais puisque, en dépit de ces perdants qui constituent clairement une majorité de la population, le pouvoir d’achat global des ménages est stable, on peut en déduire que d’autres sont gagnants, que ces gains sont concentrés sur une proportion minoritaire de ménages et qu’ils sont donc conséquents.

Qui sont ces gagnants ? Il est difficile de le savoir précisément. Le gouvernement se targue de la disparition de la redevance ; mais il est clair que ce gain de 138 euros pour ceux qui la payaient ne compense pas les pertes liées à l’effritement des revenus de la plupart des gens. Par exemple, un couple de retraités qui touche 2000 euros de pension et qui a perdu 2% de pouvoir d’achat a subi une perte 480 euros de pouvoir d’achat sur l’année, soit un montant bien plus élevé que le gain lié à la fin de la redevance. De même, pour un couple d’enseignants, dont le traitement n’a été revalorisé que de 3,5%, les pertes de revenus cumulés sur l’année sont largement supérieures à 1000 euros. Ce n’est pas la suppression de la redevance qui va changer fondamentalement la situation de ces ménages.

D’autres gains sont un peu plus conséquents. C’est le cas, par exemple, des ménages qui ont souscrits un emprunt à taux fixe, souvent dans le cadre d’un achat immobilier, ainsi que des ménages qui ont investi dans l’immobilier en contractant de lourds emprunts à taux fixe. Le poids des mensualités de remboursement diminue avec la hausse des revenus nominaux, même si cette hausse est inférieure à l’inflation(1). Certains agriculteurs ont pu profiter de la hausse des prix agricoles, notamment les céréaliers et ils font alors partie des gagnants. Des artisans ou sociétés de transport ont pu augmenter leurs tarifs à un niveau supérieur à l’inflation ; enfin, certains salariés dans les métiers en tension ont pu négocier des hausses substantielles.

Mais les plus grands gagnants se trouvent incontestablement parmi les entreprises et leurs propriétaires. Bien que beaucoup aient été affectées par la hausse des prix de l’énergie et la désorganisation des chaines d’approvisionnement, de nombreuses entreprises continuent d’engranger de confortables profits. De fait, d’après l’INSEE, les taux de marge des entreprises ont atteint un niveau record de 34,3% en 2021 et les revenus distribués aux actionnaires sous forme de dividendes ou de rachats d’action ont fortement augmenté.

La hausse du pouvoir d’achat n’est pas, en soi, un projet de gauche

Ce que nous apprennent ces chiffres c’est que, d’un point de vue politique, la hausse ou la baisse du pouvoir d’achat des ménages ne signifie rien en elle-même. La question centrale n’est pas de savoir si les ménages peuvent globalement consommer davantage, mais de savoir quels sont les gagnants et les perdants des nouveaux rapports de force économiques engendrés par l’inflation.

À ce titre, et contrairement à ce que disait Keynes, l’inflation ne signifie pas mécaniquement l’euthanasie des rentiers. Ce sont, de fait, ceux qui travaillent qui ont subi les effets négatifs de l’inflation, alors que les propriétaires du capital et les bailleurs se révèlent être les grands gagnants. Car l’inflation, au fond, c’est l’opportunité pour ceux qui disposent d’un rapport de force favorable d’augmenter les prix qui constituent leurs revenus plus fortement que la moyenne, alors que ceux qui sont en situation défavorable voient leurs coûts augmenter plus vite que la moyenne des prix.

Poussons le raisonnement plus loin. Un projet de gauche ne peut se limiter à défendre la hausse généralisée du pouvoir d’achat des ménages. D’un point du vue économique, le revenu de la nation (le PIB) se compose de trois grands ensembles. Le premier correspond aux sommes consacrées à l’investissement, c’est-à-dire au renouvellement et à l’accroissement du capital productif et des infrastructures (routes, bâtiments, industrie…) ; le deuxième est constitué de la consommation individuelle des ménages ; enfin, une partie du revenu national est socialisée via la fiscalité et consacrée à des dépenses d’intérêt général : c’est la consommation collective.

Le cœur d’un projet de la gauche c’est le progrès et l’égalité réelle. L’égalité peut être réalisée de deux manières :

  1. Par la redistribution fiscale et les revenus de transfert (les allocations, les retraites, les aides au logement…), qui constituent une redistribution au sein du deuxième ensemble sans affecter la part de chaque ensemble.
  2. Par les dépenses de consommation collective (le financement de la culture, des écoles, de la santé…), ce qui suppose de baisser la part du PIB consacrée à la consommation individuelle. Les études de l’INSEE montrent qu’en prenant en compte la distribution élargie, c’est-à-dire les effets des services publics sur le niveau de vie des ménages, la réduction des inégalités est deux fois plus importante que si on ne regarde que les revenus de transfert et la fiscalité directe.

Présenté ainsi, on voit bien ce que le thème de la hausse du pouvoir d’achat a de conservateur. Au pire, il signifie une augmentation de la consommation individuelle au détriment de l’investissement ou de la consommation collective ; au mieux, il implique une redistribution entre les ménages favorisés et défavorisés sans dégager de nouveaux moyens pour la consommation collective. Dans les deux cas, augmenter ou réorganiser le pouvoir d’achat suppose de détourner l’action des pouvoirs publics de l’un des objectifs fondamentaux de la gauche : favoriser et développer les services publics.

Pourquoi le débat à gauche a-t-il à ce point délaissé la consommation collective ? L’une des explications est que durant les années 1950 et 1960, la croissance du PIB par habitant était supérieure à 5%. Il était donc possible, à cette époque, de conjuguer à la fois la hausse de consommation individuelle et celle de la consommation collective. Or, depuis 2007, la croissance du PIB par habitant est pratiquement nulle (voir Figure 1). Cette situation pose un vrai problème pour les gouvernements. Alors que les besoins de dépenses collectives ne cessent de croitre en raison du vieillissement de la population et de la hausse du niveau éducatif de la jeunesse, une augmentation des moyens pour les services publics nécessiteraient d’augmenter la fiscalité et donc de diminuer le pouvoir d’achat des ménages.

Figure 1 – Evolution du PIB par habitant

Cette situation budgétaire est rendue plus difficile du fait d’une stratégie d’attractivité menée depuis 2007 (et renforcée en 2012 et 2017) en faveur des entreprises et du capital. En vertu de cette politique, les gouvernements successifs se sont mis à subventionner massivement le secteur productif par la baisse des impôts et des cotisations sociales. Ainsi, pour préserver le pouvoir d’achat des ménages, le gouvernement en est réduit à financer ses aides publiques aux entreprises en sacrifiant les services publics ou le niveau des retraites. C’est d’ailleurs pour compenser les coûts de sa politique fiscale en faveur des entreprises qu’Emmanuel Macron entend réformer les retraites.

Politique monétaire ou politique budgétaire ?

Sortir de l’ornière dans laquelle la gauche est tombée en se faisant la défenseuse du pouvoir d’achat, suppose de poser la question de la priorité des combats politiques à mener.

En ce sens, le slogan trouvé pour la marche du 16 octobre « contre la vie chère et l’inaction climatique » à laquelle se sont ralliés les quatre partis de la NUPES ainsi que de nombreuses associations et personnalités (dont la prix Nobel Annie Ernaux) pose question. D’une part, il est curieux d’associer dans un même slogan le combat écologique, qui suppose davantage de sobriété et la décroissance de nos consommations polluantes, avec une demande de hausse du pouvoir de consommer. D’autre part, il est problématique de mettre en avant « la vie chère », ce qui semble privilégier le droit à la consommation individuelle en laissant de côté la question de la consommation collective. De fait, parmi les six revendications mises en avant par l’Appel, aucune ne fait directement allusion aux services publics, et seuls les transports en commun sont mentionnés dans le cadre de la bifurcation écologique.

Mais à trop vouloir lutter contre la vie chère, et donc contre l’inflation, au lieu de mettre l’accent sur les effets de distribution engendrés par la hausse des prix, la gauche risque de nourrir les arguments de ceux pour lesquels la priorité devrait être de lutter contre l’inflation par la politique monétaire. Les banques centrales ont ainsi beau jeu de se présenter comme les garantes de la stabilité des prix. Elles haussent leurs taux directeurs, freinant le crédit et l’économie au risque d’engendrer une récession et une hausse du chômage.

À l’inverse, une politique de gauche devrait reconnaitre que le problème n’est pas l’inflation en elle-même mais le déséquilibre des rapports de forces entre les agents économiques qui profite à certains au détriment des autres. Dès lors, ce n’est pas la politique monétaire qui devrait être activée mais la politique budgétaire. L’objectif ne doit pas être de diminuer l’inflation, mais d’en compenser les coûts pour les ménages les plus fragiles. En ce sens, la taxe sur les « superprofits » est une mesure évidemment nécessaire, tout comme le rétablissement de l’indexation des salaires, des traitements, des pensions et des allocations sur l’évolution des prix.

Blocage des prix ou politique industrielle ?

Parmi les revendications de la marche du 16 octobre, on trouve l’idée d’un blocage des prix de l’énergie et des produits de première nécessité. En soi, le contrôle des prix est une proposition intéressante, mais elle pose la question de sa mise en œuvre et de son coût dans le cadre actuel d’un système économique ouvert fondé sur la concurrence. En effet, pour agir sur les prix des carburants, le gouvernement a été contraint de prévoir une ristourne pour les distributeurs, ce qui finit par coûter très cher au contribuable et complique l’équation budgétaire. Pour cette raison, la France Insoumise propose un blocage des prix sans compensation. Le problème est qu’une telle mesure serait une atteinte au droit de propriété et à coup sûr sanctionnée à la fois par le Conseil constitutionnel et les autorités européennes.

Plus fondamentalement, la régulation des prix suppose une réflexion approfondie sur la part du marchand et du non marchand dans l’économie. L’essence du marché, c’est d’être un lieu de négociation autonome au sein duquel les agents sont libres d’échanger aux prix qu’ils souhaitent. Bloquer les prix, c’est bloquer cette autonomie. Cela revient à sortir l’énergie et les biens de première nécessité du marché. Or, sortir du marché n’est possible que si un acteur public se charge d’organiser l’approvisionnement de la population. Autrement dit bloquer les prix c’est, fondamentalement, passer d’un système de consommation et de production individuel et privé à un système de production et de distribution collectif et au moins partiellement public. C’est d’ailleurs ce qu’avaient parfaitement compris les gouvernements d’après-guerre qui avaient nationalisé tout le secteur de l’énergie afin d’en contrôler les prix et qui, dans le cadre de la politique agricole, avaient instauré un régime de subvention des agriculteurs fondés sur des prix garantis.

Ainsi, en appeler au blocage des prix ne signifie pas grand-chose s’il n’y a pas derrière ce slogan une véritable stratégie visant à reprendre le contrôle et à réorganiser notre secteur productif. Cela s’appelle une politique industrielle. Et la seule manière de la mener pleinement est de sortir des règles actuelles du marché unique, de la concurrence et du libre-échange. Alors seulement, dans ce nouveau cadre institutionnel, la question de la régulation des prix pourra être posée de manière conséquente.

David Cayla

Références

(1) Imaginons un ménage multi-propriétaire qui rembourse des mensualités de 3000 euros par mois et qui perçoit 4000 euros de loyer. Son revenu mensuel net s’établit à 1000 euros par mois. Grâce à la hausse de 3,6% de l’indice de référence des loyers, il touchera désormais 4144 euros de loyers, soit un revenu net de 1144 euros, supérieur de 14,4% par rapport à celui de l’année précédente !

 

Lire aussi...

Proposition pour un nouveau modèle agricole

Chronique

Proposition pour un nouveau modèle agricole

La chronique de David Cayla
Aujourd’hui la France n’est pas autosuffisante et ne pourrait pas nourrir sa population en cas de crise mondiale. Repenser le modèle agricole en créant un secteur vivrier et un secteur tourné vers l’exportation est une piste explorée dans cette première chronique écrite par David Cayla.

Connaissez-vous le MODEF ? C’est le Mouvement de défense des exploitants familiaux, un syndicat agricole créé en 1959 pour défendre les intérêts des petits paysans, souvent fermiers et métayers, dont la FNSEA, alors en transition vers un modèle d’agriculture industrielle, s’était désintéressée. Clairement ancré à gauche, le MODEF fut pendant longtemps la principale organisation à s’opposer à la FNSEA. Mais la disparition de nombreuses petites exploitations familiales dans les années 1970 et 1980 finit par détruire sa base sociale. Dans les années 1990, l’émergence de la Confédération paysanne et de sa figure médiatique José Bové contribua à marginaliser politiquement le MODEF.

Pourtant le syndicat agricole existe toujours et entend bien faire entendre une voix singulière. Les 25 et 26 octobre, il tenait à Guéret son 19ème congrès dont le thème était « des prix garantis par l’État pour un revenu paysan ! » J’ai eu l’honneur d’y être invité aux côtés de l’agronome Gérard Choplin. Ce dernier a présenté aux congressistes l’enjeu de la souveraineté alimentaire. Pour ma part, je suis intervenu sur la question de la régulation des prix agricoles.

Une déshumanisation du métier

Devant la salle studieuse et des délégués venant de toute la France, j’ai commencé par dire que la garantie des prix agricoles ne relève pas du seul enjeu des revenus des agriculteurs. Certes, le système d’aides actuel, fondé sur des subventions versées à l’hectare est désastreux. Non seulement il est très injuste dans sa répartition, puisqu’il rémunère davantage les grandes exploitations que les petites, mais surtout il est démotivant car les agriculteurs ont le sentiment de toucher des primes déconnectées de leur travail effectif. De fait, 85% des subventions sont découplées de la production.

Pour ce qui est de la part des revenus liée aux prix de marché, le résultat est tout aussi injuste. Il est impossible pour le paysan de prévoir le prix auquel il vendra sa production au moment où il l’engage. D’après la théorie économique, les prix devraient être incitatifs. Mais l’agriculture suppose un engagement sur le temps long. Lorsqu’on a investi dans un verger ou un élevage de volailles, on ne peut subitement cultiver du colza ou des brebis parce que les prix ont changé. Non seulement les prix sont volatils et imprévisibles, mais ils sont liés à des facteurs exogènes, incontrôlables par la profession. La guerre en Ukraine et la sécheresse de cet été ont ainsi considérablement affectés le marché agricole. Mais la décision de mettre en culture du blé cet automne ne présage en rien du prix auquel ce blé sera vendu lorsqu’il sera moissonné en juillet.

Le travail agricole est très particulier. Il touche au vivant, il transforme les paysages et affecte l’environnement dans le bons ou le mauvais sens. Gérer un élevage, c’est du temps humain, c’est construire une relation particulière avec l’animal. Cultiver, c’est être confronté aux ravageurs, aux aléas de la météo, à la gestion à long terme de la terre et de ses propriétés. Comment accepter que ce travail puisse être rémunéré par des prix arbitraires, parfois inférieurs aux coûts de production ? Comment accepter la logique de standardisation que porte en lui le marché pour lequel le lait est du lait et le blé du blé quel que soit la manière dont le paysan s’est occupé de son exploitation ?

Le verdissement de la PAC qui entend rémunérer les bonnes pratiques et promouvoir les labélisations des exploitations ne diminue pas forcément ce sentiment d’arbitraire. Le processus de subvention s’est considérablement bureaucratisé, chaque action « verte » devant être évaluée par une inspection extérieure selon des critères décidés d’en haut. L’agriculteur devient peu à peu un technicien qui perd le goût de son travail et le sens du long terme.

Les documents du ministère de l’agriculture témoignent de ce phénomène de dépossession. Ainsi, pour bénéficier de l’écorégime, une aide prévue par le Plan Stratégique National qui engage la politique agricole française pour 2023-2027, les agriculteurs devront remplir un cahier des charges précis ou bénéficier d’une certification par un organisme indépendant. « Un bonus ‘‘haie’’ d’un montant de 7€/ha est par ailleurs accordé à tout bénéficiaire de l’écorégime […] détenant des haies certifiées ou labélisées comme gérées durablement sur au moins 6% de ses terres arables et de sa SAU [surface agricole utile] », précise le document du ministère(1). À la limite, pour toucher ces aides, il suffirait de construire une ferme « Potemkine ». Car, même s’il ne produit rien, l’agriculteur pourra bénéficier de subventions étant donné que les aides sont indépendantes du rendement réel de la ferme.

Un enjeu de souveraineté

Mais, disions-nous plus haut, les prix agricoles ne sont pas seulement un problème d’agriculteurs. L’agriculture, c’est la vie elle-même. En fin de compte, c’est ce qui nous nourrit et détermine notre souveraineté alimentaire. Or, la France, qui était la première puissance agricole européenne au début des années 1990 est en voie de déclassement. De manière générale, les rendements à l’hectare stagnent depuis vingt-cinq ans alors que les surfaces consacrées à l’agriculture diminuent. Ainsi, au début des années 1960, 63% du territoire français était exploité. C’est à peine 52% aujourd’hui. Avec moins de surface cultivée et des rendements qui stagnent, la production française diminue tendanciellement, ce qui fait que la balance commerciale agricole française se dégrade inéluctablement.

Les causes de ce déclin sont multiples. En premier lieu, le fait d’avoir découplé les aides du niveau de production avec les réformes de la PAC décidées au début des années 1990 n’incite pas à l’intensification de la production. De plus, les pratiques plus respectueuses de l’environnement qui tendent à limiter l’usage des pesticides et des engrais de synthèse diminuent aussi les rendements. Par exemple, le rendement du blé en agriculture biologique est environ 40% plus faible qu’en l’agriculture conventionnelle.

Mais cet effet n’est pas le seul en jeu. La baisse des surfaces cultivées est aussi directement liée à l’effondrement du nombre d’exploitations, victimes de faillites ou d’une impossibilité, pour beaucoup de paysans, à trouver un repreneur. La raison de cette désaffection est à trouver dans l’intensification de la concurrence. En s’élargissant aux pays d’Europe centrale et orientale dans les années 2000 l’Union européenne a mis en concurrence des modèles agricoles extrêmement différents. Les accords de libre-échange qui se sont par la suite multipliés avec le Canada, la Nouvelle Zélande ou l’Amérique du Sud ont déversé sur l’UE des tonnes de viande, de céréale et de soja à bas coût produits dans des régions où le prix du foncier agricole est bien plus faible qu’en Europe.

L’agriculture française a été forcée de s’adapter à cette intensification concurrentielle ; pour cela elle s’est spécialisée en se concentrant sur certaines cultures très mécanisées ou à haute valeur ajoutée comme le vin. En fin de compte, l’emploi agricole s’est effondré. D’après l’INSEE, la part des exploitants agricoles dans la population active est passée de 7,1% en 1982 à 1,5% en 2019. D’autre part, plus de la moitié de ces agriculteurs a dépassé les cinquante ans.

Une autre conséquence de cette spécialisation est que notre dépendance vis-à-vis des importations s’est accrue, en particulier pour le soja et les protéines végétales dédiés à l’alimentation du bétail dont plus de la moitié est importée. En fin de compte, l’intensification de la concurrence dans le secteur agricole a fragilisé notre modèle qui ne peut être compétitif que dans la mesure où il importe de l’étranger une bonne partie de ses engrais phosphatés, la nourriture de son bétail et de nombreux fruits et légumes destinés à l’alimentation humaine.

Inventer un nouveau modèle agricole

La politique des prix garantis a été progressivement abandonnée en Europe au cours des années 1990 pour deux raisons. La première, parce qu’elle incitait à la surproduction de produits de piètre qualité ; la seconde, parce qu’elle menaçait l’agriculture des pays en voie de développement en permettant aux agriculteurs européens de vendre à perte. À la suite des accords de Marrakech en 1994, l’Union européenne et les États-Unis se sont engagés à découpler les subventions agricoles des niveaux de production afin de ne pas déstabiliser les prix mondiaux. C’était le prix à payer pour préserver une agriculture exportatrice et ouverte aux marchés mondiaux.

Près de trente ans après cet accord commercial, le bilan est-il à la hauteur des espérances ? Il semble que non. Les subventions découplées et l’abandon de la régulation des prix ont intensifié le stress des agriculteurs quant à leurs revenus ; mais surtout, la gestion marchande et concurrentielle de l’agriculture a empêché toute politique visant à constituer des filières agricoles nationales véritablement intégrées. Or, les crises géopolitiques récentes ont montré que le système économique en général, et l’agriculture en particulier, doivent être résilients aux chocs d’une guerre ou d’une pandémie. Un pays comme la France devrait être capable de nourrir sa population si le commerce international s’effondrait pour une raison ou une autre. Or, aujourd’hui, la France a perdu cette capacité.

Contrôler les prix implique de réguler nos relations commerciales. Il n’est pas question de revenir aux pratiques prédatrices des années 1970-1980 qui ont fait de la France l’un des premiers exportateurs mondiaux de poulets congelés en batterie. Dans l’idéal, il faudrait diviser l’agriculture en deux sous-secteurs. Un secteur vivrier plus intensif en main d’œuvre, tourné vers le marché national, au sein duquel les prix seraient garantis, la concurrence régulée et le commerce international limité, et un secteur tourné vers l’exportation, qui fonctionnerait avec des aides découplées et vendrait aux prix mondiaux. La répartition du foncier agricole entre les deux sous-secteurs serait décidée nationalement en faisant en sorte que la production vivrière protégée soit suffisante pour couvrir l’essentiel de nos besoins alimentaires. Ainsi, les grandes exploitations agricoles spécialisées tournées vers l’international pourraient subsister, tout comme le modèle de petites exploitations familiales tournées vers la production vivrière locale.

Il me semble que nous avons, en France, les moyens de mettre en œuvre cette politique et d’apporter à chaque agriculteur le modèle agricole qui lui convient. L’enjeu politique sera évidemment de convaincre nos partenaires européens que l’agriculture ne doit plus être gérée exclusivement selon les mécanismes du marché et d’engager, dans les années qui viennent, une profonde réforme de la PAC permettant d’aller en ce sens.

David Cayla

 

Références

(1)« Fiche : Paiement découplés – Écorégime », document en ligne sur : https://agriculture.gouv.fr/les-paiements-directs-decouples

Lire aussi...

Le populisme de gauche a-t-il encore un avenir ?

Le Retour de la question stratégique

Le populisme de gauche a-t-il encore un avenir ?

Depuis le milieu des années 2010, inspirée par les exemples de Podemos ou de Syriza, ainsi que par des mouvements tels que Occupy Wall Street ou les Indignados, une partie de la gauche a conçu, puis mis en œuvre, une stratégie politique fondée sur le « populisme de gauche ». Son but était de répondre aux impasses de la gauche de gouvernement accusée de s’être compromise, au nom du « réalisme » et de la bonne gestion, en accompagnant et en légitimant le cadre néolibéral du capitalisme contemporain. Concrètement, le « populisme de gauche » entend renouveler en profondeur les pratiques et les discours de gauche pour répondre au mécontentement social. L’aspect populiste de cette doctrine s’incarne dans le désir de construire une nouvelle « frontière politique » fondée sur l’opposition peuple / élite, le premier étant construit politiquement à partir de luttes sociales variées, le second représentant « l’oligarchie » politique et économique.

Tel qu’il a été théorisé en 2018 par Chantal Mouffe (1), le populisme de gauche repose sur les principes suivants :

  1. Le rejet de la vision marxiste fondée sur l’opposition capital / travail. Pour Mouffe, la conception traditionnelle de la gauche n’est plus audible car cette dernière a longtemps limité sa définition du « peuple » à une conception économique et les luttes politiques à la défense d’une classe ouvrière essentialisée. À l’inverse, Mouffe insiste sur le fait que des luttes nouvelles sont advenues depuis les années 1970 : mouvements antiracistes, droits des LGBT, combats écologistes… Ces nouvelles revendications doivent être mieux prises en compte et articulées entre elles au sein des stratégies de gauche.
  2. S’appuyant sur la pensée de Gramsci, Mouffe considère que la société fonctionne sur la base d’une succession de phases d’hégémonies culturelles qui imposent une certaine vision du monde et s’inscrivent dans les institutions. Par exemple, avec l’arrivée de Thatcher dans les années 1980, l’hégémonie néolibérale aurait succédé à la phase de partage hégémonique caractéristique de l’époque keynésienne. Cette culture néolibérale se serait ensuite diffusée au sein de l’appareil d’État qui ne peut de ce fait être considéré comme un agent neutre politiquement.
  3. La crise financière de 2008-2009 a entrainé la déstabilisation de l’hégémonie néolibérale. Cette situation ouvre ce que Chantal Mouffe appelle un « moment populiste », une situation sociale qui permettrait d’instaurer une nouvelle hégémonie politique. Cette lutte pour l’hégémonie prend la forme d’un affrontement entre deux visions. Une vision réactionnaire (populisme de droite ou d’extrême droite) et une vision que Chantal Mouffe entend promouvoir : le populisme de gauche.
  4. Les leaders de la gauche doivent donc saisir cette opportunité en engageant une bataille culturelle rassemblant les mouvements de gauche et les revendications communautaires variées afin de « construire un peuple » sur le principe d’une « chaine d’équivalences » permettant d’articuler ensemble les revendications très variées des luttes s’opposant au néolibéralisme : écologistes, féministes, ouvriers, anti-autoritaires, anti-racistes…
  5. Ce rassemblement du « peuple » ainsi construit par la bataille culturelle permettrait d’engendrer un « nous » collectif fondé sur l’opposition avec le « eux » de « l’oligarchie ». L’établissement de cette nouvelle frontière peuple / élite doit être l’occasion de « radicaliser » une démocratie fondée sur des antagonismes qui sorte de « l’illusion du consensus »(2) caractéristique de l’ère libérale et de la gauche sociale-libérale.

À la fin de son livre, Chantal Mouffe fait part des discussions nourries qu’elle a eu avec un certain nombre d’intellectuels et de responsables politiques qui ont inspiré sa pensée. Jean-Luc Mélenchon et François Ruffin sont notamment cités. Ainsi, ce petit livre peut se lire comme la théorie qui a nourri la stratégie politique de la France Insoumise mais aussi comme une synthèse de la revitalisation politique tentée par ce mouvement. Si cette stratégie a connu des évolutions, bien décrites par le journaliste Hadrien Mathoux (3), elle n’en a pas moins continué de respecter la plupart des principes énoncés dans l’ouvrage de Mouffe.

Pourtant, la mise en œuvre pratique du populisme de gauche s’est avérée beaucoup plus difficile que ce que la théorie suggérait, et le succès électoral n’a pas toujours été au rendez-vous. Il est donc nécessaire d’établir un inventaire de cette stratégie et d’en décrire les limites.

Engager la bataille culturelle contre l’extrême droite

Il ne fait plus de doute que nous sommes entrés dans une ère identitaire. Les questions culturelles, sociétales et migratoires sont, depuis quelques années, au cœur du débat public et suscitent des réactions passionnées. Ce phénomène n’est pas totalement nouveau. Les grands débats sociétaux ont toujours été des terrains de violents affrontements politiques. L’IVG, la peine de mort, l’école, les questions religieuses ou plus récemment le mariage pour tous ont provoqué, et provoquent toujours, des débats de grande intensité entre la gauche et la droite.

Le point commun de ces débats est qu’ils touchent directement la vie concrète et sont immédiatement compréhensibles, ce qui permet facilement de se forger un avis. Ils impliquent aussi des systèmes de valeurs qui dépassent la question des intérêts personnels. De ce fait, ils marquent l’identité politique de ceux qui s’y adonnent. Pour cette raison, ce sont des débats d’identité politique.

L’émergence des réseaux sociaux a exacerbé ces sujets au détriment de ceux sur lesquels il est plus difficile de se construire une opinion, soit parce qu’ils sont techniques, soit parce qu’ils apparaissent éloignés de la vie concrète. Le fonctionnement même des réseaux sociaux, fondés sur la réaction et le partage, rend mécaniquement plus visibles les sujets marqueurs d’identité politique. S’enclenche alors une boucle de rétroaction : les sujets identitaires suscitent plus de réactions, les algorithmes les mettent en avant, et donc les responsables politiques et les journalistes les exploitent pour faire du buzz et se faire connaître, ce qui renforce la place de ces thématiques dans le débat public.

Cette transformation du système médiatique par les réseaux sociaux est vraie pour tous les forces politiques, mais les stratégies populistes en exacerbent les conséquences. C’est bien entendu le cas du populisme de droite qui met les questions identitaires ou des sujets telles que le « wokisme » au cœur de son discours. Le « America is back » de Donald Trump est le versant combatif de l’angoissant « la France disparaît » d’Éric Zemmour. Mais le populisme de gauche use des mêmes ressorts. La grille gramscienne remplaçant la grille marxiste, la « bataille culturelle » est vue comme le lieu privilégié de la bataille politique. Une bataille qui se joue sur les sujets marqueurs d’identité politique, l’objectif étant de conquérir l’hégémonie culturelle en attisant ce qui forge la culture de gauche au détriment du développement d’une idéologie structurée.

De fait, la stratégie du populisme de gauche tend à remplacer la bataille idéologique par la bataille culturelle. C’est au nom de cette logique que Jean-Luc Mélenchon et la France insoumise ont massivement investi les réseaux sociaux, en privilégiant les thèmes marqueurs d’identité politique au détriment des questions européennes ou industrielles, par exemple. Les discours de Mélenchon insistent sur la créolisation, le droit au genre, l’environnement ou le bien-être animal, montrent une forte hostilité à l’énergie nucléaire. Or, ces thèmes sont les miroirs de ceux avancés par le populisme de droite : « créolisation » contre « grand remplacement », « anti-nucléaire » contre « anti-éolien », « bien-être animal » contre « pro-chasse », « théorie du genre » contre « traditionalisme », « environnement » contre « productivisme »…

De fait, la stratégie du populisme de gauche tend à remplacer la bataille idéologique par la bataille culturelle.

Prenant acte de la crise du néolibéralisme, la campagne de Mélenchon ne fait pas du néolibéralisme son adversaire principal. Il tente de gagner la bataille d’après, en privilégiant l’affrontement « populisme de gauche » contre « populisme de droite » théorisé par Mouffe. Ainsi, Mélenchon multiplie les face-à-face avec Éric Zemmour, considéré comme le principal adversaire stratégique. De plus, les critiques qu’il adresse au gouvernement sont souvent issues du même registre que celui qu’on applique à l’extrême droite : « brutal », « autoritaire », « anti-démocratique »… Cela l’amène à renforcer ses propres thématiques identitaires et à délaisser (sans l’éliminer totalement) l’armature marxiste fondée sur les rapports économiques et les conflits de classes.

Un second aspect de la bataille culturelle telle qu’elle est théorisée par Mouffe concerne les affects. Ceux-ci auraient « un rôle décisif », selon elle. « C’est le défaut de compréhension de la dimension affective des processus d’identification qui, à mes yeux, explique en grande partie pourquoi la gauche, prisonnière d’un cadre rationaliste, est incapable de cerner la dynamique du politique », explique Mouffe (4). Privilégier les affects sur l’argumentation rationnelle serait la clé pour créer le sentiment d’adhésion militant sur lequel repose la conquête du pouvoir. Dans ce processus, le rôle du leader est central : « une volonté collective ne peut pas se former sans une certaine forme de cristallisation d’affects communs et les liens affectifs qui unissent un peuple à un chef charismatique peuvent jouer un rôle important dans ce processus », écrit Mouffe.

Cette conception explique le rôle très important qu’a pris la figure de Jean-Luc Mélenchon dans la campagne de la France Insoumise. Celle-ci commence par un plébiscite sous la forme d’un parrainage citoyen et se poursuit par la mise en scène constante du candidat dans des meetings très travaillés, conçus comme de grands spectacles. La personne de Mélenchon est omniprésente sur les réseaux sociaux, amplifiée par l’action coordonnée d’une armée de militants. Cette personnalisation s’explique, il est vrai, par la nature de nos institutions qui font de l’élection et de la fonction présidentielle les clés de voûte de la politique nationale. Mais reconnaissons que la mise en scène de la campagne présidentielle de la FI favorise la figure du chef au détriment de ses conseillers et des autres députés de son groupe parlementaire à la différence, par exemple, de la campagne de Valérie Pécresse qui apparaît presque systématiquement entourée par d’autre cadres de son parti lors de ses évènements médiatiques.

Pour résumer, la bataille culturelle gramscienne engagée dans le cadre du populisme de gauche, a tendance à privilégier les affects à la raison, le culturel à l’idéologique, et développe un discours qui vise à s’adresser davantage aux identités politiques qu’aux intérêts de classe afin de rassembler son camp.

Un discours ambigu vis-à-vis des institutions démocratiques 

Le populisme, tel que je l’ai identifié dans mon ouvrage(5) procède non d’un contenu programmatique particulier mais d’une situation sociale spécifique caractérisée par une montée de la défiance institutionnelle. Cette défiance est elle-même la conséquence des politiques néolibérales qui, en mettant l’État au service du marché, participent à l’affaiblissement et à la perte de crédibilité des institutions publiques. Sur ce point, mon diagnostic rejoint celui de Chantal Mouffe.

Partant du constat de cette défiance, ma proposition serait de transformer les pratiques politiques en sortant du cadre conceptuel néolibéral afin de remettre les institutions publiques à l’endroit, c’est-à-dire au service de bien-être général plutôt que de les orienter systématiquement en faveur de l’organisation d’un marché en concurrence. À mon sens, cette nouvelle politique suffirait à relégitimer le rôle des institutions et à désamorcer la contestation populiste.

La proposition de Chantal Mouffe est différente. Elle souhaite s’appuyer sur cette défiance pour transformer en profondeur le fonctionnement des démocraties libérales. Ainsi, elle entend profiter de ce « moment populiste » pour développer les antagonismes et susciter l’émergence d’une « démocratie radicale ».

Le populisme de gauche théorisé par Chantal Mouffe n’est pas celui du républicanisme hérité des lumières ou du Contrat social de Rousseau, qui implique une démocratie délibérative et s’impose face aux intérêts particuliers.

Le propos de Mouffe vis-à-vis des institutions est néanmoins ambigu. D’un côté elle défend le principe de la démocratie libérale et réaffirme l’importance de la démocratie représentative (contre la démocratie des mouvements sociaux et les processus de type tirage au sort) ; d’un autre côté elle semble ouverte à l’introduction de pratiques susceptibles de contourner et d’affaiblir les institutions démocratiques. Par exemple, Mouffe estime que le rôle de l’État n’est pas d’organiser et de gérer les services publics mais de « permettre aux citoyens de prendre en charge les services publics et de les organiser démocratiquement ». De même, elle estime qu’il faut éviter de construire un espace public fondé sur « une représentation totalisante qui nierait le pluralisme » en permettant aux « communautés particulières » d’exister et de participer aux décisions aux côtés de la « communauté politique » formée par les citoyens. La nature de ces communautés particulières n’est pas explicitée. Cette vision conduit Chantal Mouffe à promouvoir une démocratie plurielle dans laquelle des légitimités politiques pourraient se constituer en dehors du Parlement : « L’espace politique traditionnel du parlement n’est pas le seul lieu où peuvent être prises des décisions politiques ; si les institutions représentatives doivent garder ou retrouver un rôle majeur, d’autres formes de participation démocratique sont aussi nécessaires pour radicaliser la démocratie » juge-t-elle.

Le populisme de gauche théorisé par Chantal Mouffe n’est pas celui du républicanisme hérité des lumières ou du Contrat social de Rousseau, qui implique une démocratie délibérative et s’impose face aux intérêts particuliers. Les transformations institutionnelles qu’elle promeut reposent sur la multiplication de niveaux de légitimité en concurrence. Pour Mouffe, les espaces communautaires sont complémentaires de l’espace politique national et permettent sa revitalisation.

Ce discours fait écho au tournant plus favorable au communautarisme pris par la France Insoumise depuis 2017. Le laïcard intransigeant qu’était Jean-Luc Mélenchon au moment des attentat de 2015 contre Charlie Hebdo est devenu l’un des défenseurs de certaines revendications islamistes, notamment lorsqu’il participe en novembre 2019 à la « marche contre l’islamophobie » qui dénonçait comme « liberticides » les lois de 2004 et de 2011 sur les signes religieux à l’école et le port de la burqa dans l’espace public(6). Cette année fut aussi celle de la rupture avec le philosophe Henri Peña Ruiz (7), défenseur de la laïcité et du droit à la critique de l’Islam et dont les propos lors des universités d’été de la France insoumise furent l’objet d’une virulente polémique(8).

Plus largement, la vision portée par la France insoumise est marquée par une profonde défiance institutionnelle. Le principe du référendum révocatoire, qui est l’une des marques de fabrique des programmes proposés par les candidats de la FI repose sur l’idée que les représentants du peuple trahissent leur mandat une fois élus et qu’il faut donc prévoir un mécanisme de révocation. La charte que les candidats de la FI aux législatives de 2017 ont été contraints de signer relève de la même logique de défiance. Il était ainsi demandé aux candidats qu’ils renoncent à agir « selon leurs seuls choix personnels » afin de se mettre « au service de la mobilisation du peuple » et de refuser « les tares de la 5ème République »(9).

La stratégie populiste développe une approche extrêmement critique des principes qui fondent la démocratie représentative. Elle considère que la légitimité politique n’émane pas d’une instance délibérative telle que le Parlement mais des luttes portées par les minorités opprimées. Ces luttes sont censées s’agréger, se compléter et se renforcer collectivement. Cette attention particulière portée à l’agrégation des revendications hétéroclites est quelque peu paradoxale pour des mouvements qui se réclament de la gauche radicale, puisqu’elle n’est pas sans rappeler la stratégie proposée par le think tank social-démocrate Terra Nova qui proposait, en 2012, de reconstruire un électorat de gauche à partir d’un socle composé des jeunes, des urbains, des minorités des quartiers populaires, des femmes et des « non catholiques », au détriment de la classe ouvrière, dont les auteurs estimaient qu’elle était perdue pour la gauche et dans une phase de déclin démographique et électoral(10).

Ainsi, à force de vouloir revitaliser la démocratie en combinant ensemble des luttes hétérogènes au nom de la construction d’une « chaine d’équivalences », le populisme de gauche rejoint un imaginaire petit bourgeois, sensible aux injustices mais qui refuse de hiérarchiser les combats politiques en mettant sur le même plan une multitude de revendications communautaires. La limite de ce cette vision est d’être peu sensible à la notion d’intérêt général qui suppose de refuser certains combats au nom de la priorité à accorder à certaines revendications jugées plus importantes. Le ralliement de l’antispéciste Aymeric Caron à la campagne présidentielle de Jean-Luc Mélenchon est assez symptomatique de cet horizontalisme des luttes.

le crash politique de la crise covid

La préférence pour les affects plutôt que pour la rationalité, la défiance structurelle portée envers les institutions politiques et la stratégie consistant à considérer a priori comme légitimes toutes les luttes sociales portées par des communautés d’intérêts particuliers sans prendre la peine de développer une vision du monde structurée idéologiquement ont conduit certains militants de la France Insoumise à promouvoir un discours paranoïaque et à surfer sur des thèses complotistes lors de la pandémie de Covid-19.

La crise Covid peut être vue comme un extraordinaire révélateur politique. L’indifférence sociale, l’individualisme culturel et le mépris pour les services publics a logiquement conduit une partie de la droite libérale à minimiser les conséquences du covid et à promouvoir des stratégies visant à laisser prospérer le virus ou à n’imposer des contraintes qu’aux « populations à risque » sans qu’on sache toujours très bien comment les définir. Il n’est à ce titre pas étonnant que Didier Raoult, dont les accointances politiques avec la droite sont avérées depuis des années, soit devenu le chef de file des « rassuristes ». De même, les réactions libertariennes du journaliste Jean Quatremer fustigeant toutes les mesures sanitaires au nom des libertés individuelles ne sont pas si étonnantes pour ce défenseur du néolibéralisme Bruxellois. Enfin, le fait que les mouvements anti-masques et antivax soient noyautés par des groupuscules d’extrême-droite adeptes des théories complotistes est plus ou moins dans l’ordre des choses.

En revanche, les ambiguïtés de la France Insoumise vis-à-vis de la crise sanitaire témoignent d’une profonde confusion idéologique. Ma thèse est que cette confusion est la conséquence de la stratégie populiste.

La crise sanitaire et les confinements ont créé une grande angoisse. La gestion chaotique de la pandémie par le gouvernement ainsi que ses multiples revirements ont légitimement renforcé la défiance. Passé l’épisode de sidération, cette angoisse a suscité des mouvements de contestation contre les restrictions à la mobilité, contre les fermetures des lieux de socialisation, contre le port du masque et la politique vaccinale. Très vite, ces mouvements ont pris des formes populistes dans le sens où ils étaient nourris et se nourrissaient d’une défiance généralisée envers les autorités politiques, médicales, journalistiques et scientifiques et qu’ils faisaient preuve d’une grande virulence.

À gauche, l’ouvrage de Barbara Stiegler sur la gestion de la pandémie (11)a renforcé l’idée que la crise Covid a été instrumentalisée par le pouvoir pour provoquer l’enfermement des populations et le contrôle des libertés.

La philosophe, qui a rejoint le Parlement de l’Union populaire en décembre 2021, estime notamment que « ce virus ne peut avoir de conséquences graves, dans l’immense majorité des cas, que sur des organismes déjà affaiblis, soit par le grand âge, soit par des facteurs de comorbidité ». Cette affirmation, infirmée par le consensus médical, conduit Stiegler à écrire que nous ne vivrions pas une pandémie (« pan » étant un préfixe suggérant la totalité d’un ensemble), mais « en Pandémie », c’est-à-dire sur un continent qui entendrait gouverner la société sur le modèle chinois.

La gestion chaotique de la pandémie par le gouvernement ainsi que ses multiples revirements ont légitimement renforcé la défiance.

« Ce tout nouveau continent mental, avec sa langue, ses normes et son imaginaire, ce sont les dirigeants chinois qui ont été les premiers à l’explorer. C’est donc eux qui ont tout à nous apprendre, tandis que les Américains et leurs cousins britanniques n’ont rien vu venir. En Pandémie, c’est la Chine désormais qui domine. Non plus seulement économiquement. Mais aussi moralement, culturellement et politiquement.

Comme tout continent, la Pandémie a une langue qui se décline en idiomes nationaux. Mais ceux-ci traduisent des dispositifs inventés par la Chine : « confinement », « déconfinement » et « reconfinement », « traçage », « application » et « cas contacts ». C’est une esthétique nouvelle qui se dessine : « Un monde cybersécurisé où chaque individu est suspect (d’être malade), fiché, tracé, code-barrisé. Code vert : vous circulez. Code rouge : vous êtes arrêté-e. […] Comment passe-t-on du vert au rouge ? C’est automatique : si vous croisez des gens malades, une zone infestée, voire des idées douteuses ». (12)

Passons sur le fait que la gestion chinoise de la pandémie, fondée sur la stratégie « zéro covid », fut extrêmement différente de celle des États-Unis ou des pays européens. Ce qui est caractéristique de cette vision et qui témoigne de son aspect populiste est qu’elle implique une profonde défiance institutionnelle. Son discours s’appuie sur le schéma suivant :

  1. Le gouvernement sert les intérêts de l’oligarchie.
  2. L’oligarchie a pour projet de contrôler et d’asservir la population. Si elle n’a pas créé le virus, elle a profité de son apparition pour mette en œuvre un plan de contrôle de la société.
  3. Toutes les institutions qui participent à la gestion de la crise sanitaire et à la promotion du discours gouvernemental (les autorités médicales, les journalistes, les administrations des hôpitaux, les sociétés pharmaceutiques…) participent, consciemment ou non, à cette politique d’asservissement.

Dans cet univers mental, la lutte contre les outils « de contrôle » tels que les passes sanitaire ou vaccinal devient logiquement une priorité politique. En déplacement en Martinique, territoire durement touché par le Covid et où le taux de vaccination est particulièrement faible, la députée FI Mathilde Panot déclarait : « Au pouvoir, je le dis ici devant vous : nous mettrons fin à cette politique autoritaire de santé. Et le 13 janvier, lors de notre niche parlementaire […] nous allons présenter un texte qui demande de mettre fin au régime d’exception de santé, qui veut enlever le plein pouvoir sanitaire à Emmanuel Macron, et qui mettra fin au pass sanitaire et au pass vaccinal »(13). Notons que les expressions utilisées telles que « politique autoritaire de santé », « régime d’exception », « plein pouvoir sanitaire », renvoient à la stratégie d’extrême-droitisation de la politique gouvernementale exprimée plus haut.

Les appels à la mobilisation citoyenne contre les mesures sanitaires lancés par la France insoumise se doublent d’un principe de défiance vis-à-vis des vaccins, notamment les vaccins à ARN messager, pourtant les plus efficaces contre les formes graves de la maladie. « Je ne suis pas rassuré par un procédé qui est tout à fait nouveau et dont on ne connaît pas les conséquences. Je préfère les formes traditionnelles de vaccination », expliquait Jean-Luc Mélenchon au micro de LCI alors que la campagne de vaccination venait de débuter. « Je veux pouvoir choisir » et ne « pas être un cobaye » ajoutait-il(14). Un an plus tard, il apportait son soutien aux soignants guadeloupéens en grève contre l’obligation vaccinale et rencontrait le leader du mouvement Elie Domota, saluant ceux « qui ne se laissent pas mater ». Dans une interview donnée à la chaine locale Canal 10, il exprimait ses doutes sur d’éventuelles conséquences inflammatoires que pourraient avoir le vaccin dans une population contaminée par le chlordécone(15). Invité quelques semaines plus tard sur France Inter, Jean-Luc Mélenchon refusait d’appeler publiquement ses concitoyens à se faire vacciner, estimant qu’une telle prise de position de sa part aggraverait « la pagaille qui existe aujourd’hui dans les DOM ». « Le fait d’être contaminé n’empêche pas d’être contaminé et ne vous empêche pas de contaminer les autres » ajoutait-il avant de conclure : « Moi je suis vacciné, faites comme vous l’entendez. Mais ne faisons pas croire que la vaccination est la réponse unique. Et c’est ce que fait le gouvernement. Il passe son temps à dire : ‘‘si vous êtes vacciné il n’y aura plus de risque’’. Ce n’est pas vrai ! »(16).

Populisme de droite et populisme de gauche : un rapport différent aux institutions 

La manière dont la France Insoumise s’est emparée de la politique sanitaire illustre le double rapport que le populisme de gauche entretient avec institutions. D’une part les mouvements populistes se nourrissent de la défiance envers les institutions, d’autre part ils participent activement à alimenter cette défiance. Le discours sous-jacent de tout populisme, de droite ou de gauche, est que les institutions sont corrompues par une élite dont les intérêts sont contraires à ceux du peuple. Dès lors, le leader populiste est amené à décrire les responsables politiques, le gouvernement, mais aussi les médias, les autorités sanitaires, les revues scientifiques, les parti politiques traditionnels… comme étant à la solde d’un système oligarchique.

Ce projet traditionnel de la gauche, l’idée de développer une collaboration harmonieuse entre l’individu et les institutions, est mis en danger par la stratégie du populisme de gauche.

Le problème de cette vision est qu’elle rompt avec le rapport traditionnel que la gauche entretient vis-à-vis des institutions. La gauche est naturellement pro-État, pro-éducation publique, pro-système de santé généralisé, pro-science… Elle est donc spontanément favorable aux institutions. Plus précisément, le discours de gauche porte une vision des institutions qui n’est ni réactionnaire ni ultralibérale. À la différence de la vision réactionnaire, la vision de gauche estime que les individus n’ont pas à se soumettre aveuglément ni à se laisser dominer par des institutions sociales surplombantes (État, religion, traditions…). Dans l’approche rousseauiste, l’émancipation procède d’un contrat de reconnaissance réciproque entre la société et les individus. Ainsi, les institutions sociales tirent leur légitimité d’une conjugaison éclairée des volontés individuelles qui s’incarnent en elles. La vision de gauche se démarque également de celle des ultralibéraux pour lesquels la société se résume à l’addition d’individus ou de communautés mus par leurs intérêts propres. À l’inverse, la conception institutionnaliste de la gauche reconnait que l’individu pur est une fiction et que les communautés ne sont légitimes que si elles s’insèrent dans un ordre commun et acceptent les règles collectives.

Ce projet traditionnel de la gauche, l’idée de développer une collaboration harmonieuse entre l’individu et les institutions, est mis en danger par la stratégie du populisme de gauche. En développant une critique aveugle fondée sur la multiplication des antagonismes au nom de la conquête du pouvoir et de la lutte pour l’hégémonie, en cultivant « le bruit et la fureur » pour délégitimer les institutions sociales accusées d’être sous l’emprise hégémonique du néolibéralisme, la gauche populiste en vient à construire la même représentation du monde que celle des ultralibéraux. Elle produit un imaginaire dans lequel le monde serait essentiellement composé d’individus mus par leurs passions et leurs intérêts, un monde peuplé de personnes sans convictions partagées, sans idéologie, sans collectif, et dans lequel l’État n’émane pas d’une conception de l’intérêt général mais serait le pur instrument d’intérêts particuliers.

Tout projet démocratique suppose un minimum de confiance entre les citoyens. La gauche n’a pas d’avenir si son projet est de combattre les institutions qui sont au cœur de notre société. « Rassembler le peuple » est un slogan creux si on refuse d’admettre que le « peuple » n’est pas uniquement un rassemblement d’intérêts particuliers en lutte contre l’hégémonie néolibérale mais un ensemble cohérent d’individus qui ont développé des liens de confiances les uns envers les autres à travers des institutions sociales et qui partagent un destin commun. Si le peuple n’est qu’une collection d’intérêts, il n’est guère différent d’un tas de sable dont les grains sont désorganisés et s’amassent sans structure, sans classe et sans nation.

En fait, le populisme renforce systématiquement une vision du monde qui est spécifique à la droite. En dessinant un monde anomique dans lequel les individus seraient livrés à eux-mêmes, il légitime les conceptions réactionnaires qui entendent réunir le peuple sous des institutions transcendantes fondées sur la religion, les identités culturelles ou une vision fantasmée de l’histoire. Il participe aussi à renforcer le discours ultralibéral qui glorifie la liberté individuelle et nie la légitimité de toute organisation collective, en même temps que l’existence d’un bien commun. Ainsi, en développant une critique aveugle fondée sur les affects, le populisme de gauche tend à renforcer les visions réactionnaires ou libertariennes de la société. Loin de défendre les luttes sociales en proposant une vision cohérente, il nourrit les contestations de toute sorte, ce qui renforce la crise de confiance et affaiblit les bases de la démocratie.

Pour une gauche de la raison 

Il est important de reconnaît que les populismes ne sont pas apparus sans raison. La défiance institutionnelle actuelle s’explique par le fait que beaucoup d’institutions publiques ont été perverties de leur fonction initiales et que l’État lui-même a perdu en légitimité en se montrant impuissant à répondre aux enjeux sociaux et économiques qui ont été révélés par la crise de 2008, et qu’il apparaît également impuissant à répondre de manière satisfaisante à la question climatique. Le cadre européen et la mondialisation, qui soumettent l’économie française à une concurrence sans véritable régulation politique, ont poussé les gouvernements français à mener des politiques similaires, fondées sur des mesures d’attractivité au bénéfice du capital, en espérant attirer les investissements et les emplois. Ces mesures ont été payées par un accroissement de la fiscalité des ménages (notamment via la hausse des taxes sur la consommation), par la baisse des retraites, mais aussi par un affaiblissement des services publics. Le sentiment de défiance d’une grande partie de la population et le désintérêt grandissant qu’elle éprouve envers le fonctionnement de la démocratie sont les conséquences logiques de ces politiques qui semblent se mener contre les gens et non pour eux.

Un projet de gauche doit donc faire des choix. Et ces choix doivent être fondés sur la raison plutôt que sur les affects. Pour cela, il faut en revenir aux fondamentaux et commencer par admettre que la structuration politique d’une société est d’abord fondée sur des rapports sociaux, et que ces rapports sociaux s’inscrivent dans des rapports économiques.

Pour autant, il faut aussi reconnaître que le rassemblement des colères est insuffisant pour porter un véritable projet de gauche. On ne peut pas défendre et légitimer tous les mouvements d’opposition au néolibéralisme au prétexte de construire une « chaine d’équivalence ». On ne peut pas à la fois s’affirmer féministe et tolérer le voilement des petites filles ; on ne peut pas d’un côté défendre les personnels hospitaliers épuisés par le covid et de l’autre refuser d’appeler la population à se faire vacciner ; on ne peut pas s’opposer à l’intégration européenne tout en renonçant à défendre le cadre national ; on ne peut pas proposer de sortir du marché et de la mondialisation néolibérale sans penser les frontières économiques et la souveraineté nationale. Enfin, on ne peut pas articuler l’écologie et le social tout en adoptant une vision libertaire fondée sur la détestation de toutes contraintes et en promouvant les droits individuels à la consommation.

Un projet de gauche doit donc faire des choix. Et ces choix doivent être fondés sur la raison plutôt que sur les affects. Pour cela, il faut en revenir aux fondamentaux et commencer par admettre que la structuration politique d’une société est d’abord fondée sur des rapports sociaux, et que ces rapports sociaux s’inscrivent dans des rapports économiques. De ce fait, la politique ne peut se résumer au combat culturel. Elle doit d’abord repenser les contraintes et proposer une vision cohérente du monde au lieu de légitimer par avance les revendications de groupes d’intérêt diverses qui affirment s’opposer au néolibéralisme.

Développer cette pensée et promouvoir une vision cohérente suppose de renoncer à la mise en avant de thématiques qui ne servent qu’à renforcent les identités politiques, à faire du « like » sur les réseaux sociaux et à rassembler les militants de son camp. Ces pratiques relèvent peut-être d’une stratégie électorale efficace dans l’art de faire du buzz mais ne suffisent pas à développer et à promouvoir un projet politique. Pour cela il faut nécessairement en passer par la hiérarchisation des luttes, ce qui suppose de renoncer à certains objectifs afin d’en privilégier d’autres au nom de la raison et non au nom des intérêts des uns contre les intérêts des autres.

La bataille culturelle n’est pas dissociable de la bataille idéologique. Mais, plus fondamentalement, la bataille idéologique nécessite de s’appuyer sur une conception claire du bien commun et de l’intérêt général. Chantal Mouffe n’a pas tort d’affirmer que la politique est le terrain d’affrontement des antagonismes ; elle a raison de se méfier de l’illusion commode du consensus dans laquelle la gauche gestionnaire s’est fourvoyée. Rendre du sens à la politique, c’est bien réaffirmer l’existence de clivages structurants au sein de la société. Il n’en reste pas moins qu’une vision politique ne peut se passer d’un projet de société susceptible d’intégrer les adversaires du jour dans un nouvel espace collectif à construire.

Enfin, la gauche doit réaffirmer que son but est de construire de nouvelles institutions et d’instaurer un rapport de confiance entre ces institutions et les individus. Elle doit défendre la démocratie représentative et cesser de propager une vision du monde apocalyptique dans lequel prévaudrait la guerre de tous contre tous. Un tel tableau ne peut que susciter l’effroi et renforcer le besoin d’autorité et les visions paranoïaques qui sont au cœur du populisme de droite.

Références

(1)Mouffe, C. Pour un populisme de gauche, Albin Michel, 2018.

(2)Mouffe, C. L’Illusion du consensus, Albin Michel, 2016.

(3)Mathoux, H. Mélenchon : la chute. Comment La France insoumise s’est effondrée, Editions du Rocher, 2020.

(4)Toutes les citations sont extraites de Pour un populisme de gauche (2018).

(5)Cayla, D. Populisme et néolibéralisme, il est urgent de tout reconstruire, De Boeck Supérieur, 2020.

(6)Abel Mestre « LFI, accusée de complaisance avec le communautarisme, veut clarifier sa vision de la laïcité et de la République », Le Monde du 27/10/2020.

(7) https://twitter.com/jlmelenchon/status/1192796104183730176

(8) Pezet, J. Libération, Checknews, « Qu’a dit Henri Peña-Ruiz sur le ‘‘droit d’être islamophobe’’ lors de l’université d’été de La France insoumise ? », 26/08/2019, en ligne.

(9)« Charte des candidat·e·s de la France insoumise », en ligne sur https://lafranceinsoumise.fr/campagne-legislatives-2017/charte-candidat-e-s/

(10)Jeanbart B., Ferrand, O. Gauche : quelle majorité électorale pour 2012 ?, Terra Nova, en ligne sur https://tnova.fr.

(11)Stiegler, B. De la démocratie en pandémie : santé, recherche, éducation, Gallimard, Coll. Tract, 2021.

(12) B. Stiegler 2020, op. cit.

(13)Herreros, R. « « Mettre fin au pass vaccinal »: la promesse de Panot en pleine vague épidémique passe mal », Huffpost, 19/12/2021, en ligne.

(14)« Covid-19 : Jean-Luc Mélenchon Mélenchon ‘‘pas rassuré’’ par le vaccin Pfizer », Le Figaro / AFP, 10/01/2021, en ligne.

(15)Toussay, J. « Aux Antilles, Jean-Luc Mélenchon surfe sur la défiance liée au chlordécone », Huffpost, 19/12/2021, en ligne.

(16) « Sixième République, libertés fondamentales, Union européenne : Jean-Luc Mélenchon répond aux questions du 7/9 », France Inter, le 3/01/2022, en ligne.

Lire aussi...

Un tout petit effort pour ne rien rater …

Inscrivez-vous à notre newsletter