The Golden Notebook (Le carnet d’or) de Doris Lessing

The Golden Notebook (Le carnet d’or) de Doris Lessing

Doris Lessing, écrivaine incontournable de la littérature britannique, est encore trop peu connue en France. Le Carnet d’Or, (The Golden Notebook), est l’une de ses œuvres phares et permet de se plonger dans son écriture si particulière qui explore une multiplicité de thèmes et donne au roman une finesse dans la compréhension des rapports humains et des dynamiques sociales et politiques de l’époque.

© Roger Mayne / National Portrait Gallery, London

Doris Lessing, écrivaine incontournable de la littérature britannique, est encore trop peu connue en France. Le Carnet d’Or, (The Golden Notebook), est l’une de ses œuvres phares et permet de se plonger dans son écriture si particulière qui explore une multiplicité de thèmes et donne au roman une finesse dans la compréhension des rapports humains et des dynamiques sociales et politiques de l’époque.

Lorsqu’elle reçoit le Prix Nobel de littérature en 2007, Doris Lessing est qualifiée par l’académie suédoise de « conteuse épique de l’expérience féminine qui, avec scepticisme, ardeur et une force visionnaire, scrute une civilisation divisée ». L’un de ces premiers romans, Le Carnet d’Or (The Golden Notebook), publié en 1962, témoigne déjà de cette acuité et permet à l’autrice britannique de se hisser au rang des auteur∙e∙s de renommée internationale. Traduit une dizaine d’années plus tard chez Albin Michel, il est couronné du Prix Médicis étranger en 1976.

Le Carnet d’Or suit la trajectoire d’Anna Wulf, écrivaine et femme libre dans les années 50 londoniennes, qui fait face au syndrome de la page blanche. Elle s’efforce d’écrire dans quatre carnets personnels afin de ne pas sombrer dans le chaos. Un chaos issu de sa condition féminine, des contradictions politiques lié à son engagement dans le parti communiste, et plus simplement de son incapacité à trouver sa place dans une société et une époque données.

Une émancipation littéraire par la forme

Le livre a une forme particulière : c’est d’abord une nouvelle intitulée « Free Women » qui est entrecoupée des différentes entrées des quatre carnets d’Anna, elle-même l’héroïne de la nouvelle. Le contenu et la forme du livre sont entremêlés et les frontières se brouillent entre l’autrice Doris Lessing et l’écrivaine Anna Wulf. Chaque carnet contient un aspect de la personne d’Anna : le carnet noir pour l’écriture et sa vie d’écrivaine, le carnet rouge pour ses opinions politiques, le carnet jaune pour sa vie émotionnelle et le carnet bleu pour les évènements de la vie ordinaire. Ainsi divisée, elle se donne l’impression de maitriser son mal-être. Mais ce n’est qu’avec le dernier carnet, le carnet d’or, qu’elle réussira à se retrouver elle-même, à sortir de la folie dans laquelle elle sombre.

Ce roman, situé dans la « phase psychologique » de l’auteure (de 1956 à 1969), est avant tout un récit introspectif qui démêle la vie intime du personnage principal et dévoile ses faiblesses psychiques. La forme choisie du roman permet une appréhension et une compréhension holistique d’Anna Wulf. Ce personnage peut aussi être analysée comme l’alter-ego de Doris Lessing étant donné sa finesse de réflexion et son développement abouti. On pourrait croire à une autobiographie. Le livre est d’une intensité particulière, chaque phrase écrite développe une nouvelle idée de l’autrice, et participe ainsi à l’élaboration complexe de son personnage et de ses pensées. Le Carnet d’Or s’inscrit dans ce que la critique littéraire britannique Margareth Dabble décrit comme étant le domaine de la « fiction de l’espace intérieur », une fiction qui explore l’effondrement mental et sociétal de l’individu.

Un livre féministe ?

Doris Lessing utilise l’histoire et le personnage d’Anna Wulf pour décrire la condition et l’expérience féminine dans la société anglaise des années 50. L’écriture par une femme permet de mettre en avant des thèmes novateurs dans la fiction, tels la menstruation, la masturbation et le plaisir féminin dans les relations sexuelles. Lessing dépeint une femme libre ; économiquement, politiquement et sexuellement émancipée. Elle emploi un langage cru pour décrire ses relations sexuelles et utilise l’écriture « consciente » pour témoigner de l’expérience des douleurs psychiques et physiques liées aux règles. De façon marquant, l’expérience de cette femme dans les années cinquante résonne avec celles des femmes d’aujourd’hui. L’autrice apporte également une vision libre et ouverte des relations tout en démontrant les limites de celles-ci. Anna Wulf s’émancipe des codes sociétaux de l’époque en adoptant un mode de vie libertin en tant que femme divorcée, qui élève seule son enfant et qui multiplie les amants. Paradoxalement, elle se rend compte que sa vie de femme libre participe au système patriarcal dont elle essaye de s’extraire. Elle est l’amante d’homme mariés et représente pour eux l’objet sexuel et sensuel que leur femme n’est pas.

Jusqu’à la fin de sa vie, Doris Lessing s’est refusée à penser que son livre était une icône de la guerre des sexes et de l’émancipation féminine, description qui lui sera attribuée par beaucoup de critiques et de féministes de l’époque. Il est vrai que de le limiter à cela serait particulièrement réducteur : il est tout autant un roman sur l’écriture, sur les relations humaines, sur la politique et le communisme, elle y démontre les contradictions politiques et morales liés à l’enfermement des idées dans le contexte stalinien. C’est un roman social, qui cherche à partager l’expérience humaine, et dans ce cas, l’expérience féminine.

suivez-nous sur les réseaux

#LTR

A lire aussi…

Lire aussi...

La zone d’intérêt, Jonathan Glazer (2023)

La zone d’intérêt, Jonathan Glazer (2023)

Dix ans après la sortie de son film Under the Skin (2013), le dernier long-métrage du réalisateur britannique Jonathan Glazer est actuellement au cinéma – et c’est un succès public. La Zone d’Intérêt (2023) n’a pas manqué pour autant de susciter son lot de critiques, d’exciter quelques détracteurs et moralisateurs, ranimant aussi au passage le très intéressant débat sur la représentation de la Shoah au cinéma. À titre personnel, le Grand Prix du Festival de Cannes 2023 m’a littéralement sidéré, pétrifié. Aussi, c’est une chronique résolument enthousiaste qui suit ; les dénigreurs du film, passez votre chemin.

Si la personne de Rudolf Höss vous est inconnue, c’est une raison suffisante pour aller voir La Zone d’Intérêt. Nommé d’après l’espace d’environ 40 kilomètres carrés qui entoura le plus grand camp de concentration et d’extermination de l’État nazi à Auschwitz, le film nous expose le traintrain quotidien de la famille Höss. Depuis l’expulsion de Polonais et Juifs de ce territoire, du Interessengebiet en allemand, les Höss y mènent une vie bourgeoise tout ce qu’il y a de plus paisible. La vie rêvée de leur jeunesse, le bonheur du foyer familial dans une villa au jardin merveilleusement fleuri, dotée d’une piscine et même d’un toboggan pour les enfants. La vie rêvée certes. La vie promise aussi, par Hitler lui-même se rappelle Hedwig, l’épouse de Rudolf qui officie froidement en maîtresse de maison. Occuper leur « espace vital », leur Lebensraum, n’était-ce pas ce qu’on leur avait demandé, ce qu’on leur avait promis ? Lors de sa première visite, la mère d’Hedwig ne cache pas sa fierté et son bonheur pour la situation de sa fille. Flânant toutes les deux dans le jardin, celle-ci s’impatiente doucement de la pousse des plantes bordant le haut mur qui s’étend tout le long de la propriété et qui ne le recouvrent encore qu’insuffisamment à son goût. On peut le comprendre. Juste derrière ce mur, se dressent les bâtiments austères du complexe d’Auschwitz et leurs terribles cheminées dont Rudolf Höss a la charge. Bon père de famille, doux et attentionné, Höss fait par ailleurs preuve d’une détermination et d’un sérieux sans faille dans l’exercice de ses fonctions de commandant du camp d’Auschwitz. Il connaît bien son métier, et sait son importance dans la marche de la guerre menée par l’Allemagne nazie. C’est donc avec grand professionnalisme qu’il accueille chez lui, dans son salon, des industriels – tout aussi professionnels – venus lui présenter des plans de fours crématoires et leurs caractéristiques techniques. Pourtant, la politique d’extermination des Juifs s’intensifiant, certains doutent de sa capacité à bien administrer Auschwitz dans ces nouvelles conditions. Il est finalement envoyé à Oranienburg au nord de Berlin et remplacé au poste de commandement du camp. C’est un revers pour lui, bien qu’il parviendra sur demande de son épouse à conserver l’agréable villa de la zone d’intérêt pour sa famille. Le confort et les privilèges ont la peau dure… Convaincu d’avoir les épaules de l’emploi, il n’attend néanmoins qu’une chose : être renvoyé à Auschwitz pour mener à bien son travail et retrouver sa famille.

La première originalité de La Zone d’Intérêt tient évidemment à sa manière d’envisager, de présenter la Shoah : à savoir par le point de vue d’un de ses exécutants, de l’une des chevilles ouvrières du génocide des populations juives ; par l’angle du criminel nazi. Glazer explique qu’il voulait « que le spectateur soit mis en position de s’identifier non avec les victimes, mais avec les bourreaux »(1). A cet égard, le film ne manque pas sa cible, loin de là. Très rapidement et pour autant discrètement, presque à notre insu, le réalisateur nous introduit dans l’intimité familiale de Rudolf Höss. Cette introduction se fait d’autant plus facilement que sa famille apparaît à première vue relativement quelconque, rien de plus qu’une famille bourgeoise, bien rangée, dont les conditions du bonheur semblent réunies. À première vue encore – et j’insiste sur la chronologie, le père laisse presque une bonne impression ; c’est avec une voix charmante qu’il s’adresse à sa femme et à ses enfants ; c’est un personnage calme, reposant ; finalement presque banal… À dessein ou non, je n’en sais rien, le film conduit à s’interroger sur le concept de « banalité du mal » développé par Hanna Arendt lors du procès Eichmann en 1961. Pour autant, l’absence de pensée, d’autocritique que la philosophe relève en la personne d’Adolf Eichmann semble inapplicable au commandant du camp d’Auschwitz. Höss est un national-socialiste et antisémite convaincu, pleinement conscient de sa mission génocidaire. Dans son autobiographie rédigée dans l’attente de son procès au sortir de la guerre, il dit même avoir conçu des doutes quant à la « solution finale », doutes qu’il ne pouvait se permettre d’exprimer(2). S’il exécutait certes les ordres de la hiérarchie nazie, il est d’une évidence irrésistible que ce fou furieux savait pertinemment ce qu’il accomplissait à Auschwitz, c’est un truisme que de l’affirmer. L’idée d’Arendt et la mise en scène de Glazer ont toutefois tous deux, à mon sens, le mérite de souligner l’existence humaine de ces monstres, leur apparente normalité, rendant ainsi l’indicible de la Shoah moins inaccessible, moins insaisissable. D’une certaine façon, cette approche le rend bien plus terrifiant. Le survivant polonais d’Auschwitz Józef Paczyński, décédé en 2015, fut le coiffeur de Höss durant sa détention au camp de concentration ; selon ses propres mots : « Höss était un homme tout à fait normal »(3).

La deuxième originalité du film réside dans sa forme. C’est elle qui constitue en réalité le tour de force de Glazer. C’est elle qui progressivement, pas à pas, scène après scène, élimine, dégorge, expulse la normalité, la banalité du visage de l’officier nazi et de celui de sa femme ; qui ruine l’apparence de paisibilité, la parodie de bonheur du petit microcosme Höss de la zone d’intérêt ; pour, finalement, en afficher toute la monstruosité. C’est un tour de force car, pour y parvenir, le réalisateur ne recourt à aucun des ressorts « classiques », pourrait-on dire, de la représentation des horreurs de la Shoah. Encore une fois, le film se concentre quasi exclusivement sur la vie professionnelle et familiale du commandant Höss. En première analyse, les victimes, Juifs et autres détenus du camp d’Auschwitz ne semblent tout simplement pas être le sujet. D’ailleurs, et c’est éloquent, le terme juif n’est prononcé pour la première fois que tardivement, dans la bouche d’Hedwig, et pour désigner d’une façon tout à fait anecdotique ces personnes enfermées et assassinées derrière le mur de son jardin ; ces voisins, de fait. Ces victimes et l’indicible de leur condition finiront pourtant par être omniprésents. Pour ce faire, Glazer convoque une multitude d’outils cinématographiques, tous dirigés au service d’un effet de style : la suggestion ; le hors-champ. Aucune des atrocités perpétrées dans le camp d’Auschwitz n’est directement portée à l’écran ; pourtant, tout, en permanence, les suggère. Le dispositif sonore avant tout. Les banalités du quotidien de la famille Höss sont accompagnés d’un brouhaha continu émanant de l’autre côté du mur et ponctué des sourdes détonations de fusils, des réprimandes et menaces des kapos, des cris des victimes, du bourdonnement des fours, du hurlement lancinant des sirènes… Toute une série de détails participent ainsi à l’effet de suggestion. Tandis que les domestiques sont autorisés à choisir un vêtement d’une pile d’habits apportée un beau jour à la villa, Hedwig elle se prélasse devant son miroir dans une belle fourrure. On recycle sans vergogne les effets personnels des déportés. Sans surprise d’une certaine façon, quand on voit l’un des fils jouer avec des couronnes métalliques. À bien y regarder d’ailleurs, ces enfants ne semblent pas des plus épanouis. Le dispositif scénographique et le travail des caméras visent eux aussi la même fin suggestive. Le domicile familial est ainsi examiné sous toutes ses coutures. Les caméras nous emmènent dans toutes les pièces, à toute heure de la journée, avec un calme et une méthode qui ne peuvent laisser indifférent, pourvu qu’on y prête attention. On finit par comprendre que dans la zone d’intérêt on tue des Juifs comme on administre sa maison ; on les tue avec la même attention minutieuse qu’on porte à son jardin ; on les tue avec la même méthode routinière qu’on emploie pour éteindre les lumières de sa maison. On finit par être happé par cette suggestion provoquée et permanente. Elle nous dérange, elle nous embarrasse, elle nous terrifie. Le message est bien présent ; autant que le malaise.

Alors certes, on identifie bien vite l’usage de l’hors-champ et son développement tout au long du film peut susciter certaines longueurs. La sophistication et la grande maîtrise de l’art du cinéma qui l’accompagnent n’en demeurent pas moins remarquables. Et quant à Sandra Hüller et Christian Fiedel, leur jeu est tout simplement stupéfiant. Pour finir, La Zone d’Intérêt de Jonathan Glazer a une dernière vertu : celle de relancer le fort intéressant débat sur la représentation de la Shoah au cinéma. Que peut-on peut montrer de l’horreur absolue du génocide perpétré par le régime nazi ? Peut-on seulement le faire ? Et si l’on décide de le faire, comment le fait-on ? En réalité, les films qui traitent de cette déchirure de l’Histoire sont désormais légion et la controverse reste ouverte. C’est là sans doute une bonne chose. Du pionnier Nuit et Brouillard (1956) d’Alain Resnais, de l’immense Shoah (1985) de Claude Lanzmann en passant par le multi-oscarisé La Liste de Schindler (1993) de Steven Spielberg, tant de films se sont risqués à porter l’indicible à l’écran. Je suppose que rares sont ceux qui s’en sont seulement approchés. Dans mon expérience personnelle, La Zone d’Intérêt est de ces quelques films tant son style suggestif et malaisant regorge de puissance évocatrice. C’est pourquoi la critique que j’ai pu voir poindre selon laquelle il s’agirait d’un film dangereux, ne montrant pas ce qu’il serait plus que jamais nécessaire de montrer, est tout à fait ridicule et antiartistique. Glazer n’esthétise aucunement la Shoah, pas plus qu’il ne la relativise ou en tire une quelconque fiction. En cela, il s’inscrit d’ailleurs d’une certaine façon dans l’héritage lanzmannien, selon lequel « la mort de milliers de Juifs dans les crématoires défie à la lettre toute représentation, défie toute fiction ». Avec une approche artistique originale, il ne tait rien de l’horreur de la Shoah mais l’expose différemment. Son film et son parti pris sont donc tout à fait légitimes. Alors que Claude Bloch, un des derniers rescapés français d’Auschwitz est décédé le 31 décembre dernier, La Zone d’Intérêt est un succès bienvenu. À voir absolument. 

Références

(1)V. son entretien dans Le Monde : https://www.lemonde.fr/culture/article/2024/01/30/jonathan-glazer-cineaste-de-la-zone-d-interet-nous-avons-besoin-que-le-genocide-ne-soit-pas-un-moment-calcifie-de-l-histoire_6213820_3246.html.

(2) Un passage cité par le média allemand NDR : https://www.ndr.de/geschichte/auschwitz_und_ich/Rudolf-Hoess-Der-Lagerkommandant-von-Auschwitz,hoess102.html ; l’autobiographie est publiée en version française aux éditions La Découverte : https://www.editionsladecouverte.fr/le_commandant_d_auschwitz_parle-9782707144997

(3) Cf. l’article de NDR. 

suivez-nous sur les réseaux

#LTR

A lire aussi…

Lire aussi...

L’irrésistible ascension de l’extrême droite en Europe

L’irrésistible ascension de l’extrême droite en Europe

Pourquoi l’extrême droite monte-t-elle partout en Europe ? À quelques mois des élections européennes où elle pourrait à nouveau se renforcer au Parlement de Strasbourg, David Cayla pose un diagnostic sombre et invite les dirigeants européens à renoncer à leurs dogmes et à remettre les États, et donc la démocratie, au centre des grands choix économiques.

Photo : Reuters

Elle est loin l’époque où, à l’aube des élections européennes de 1999, les journalistes s’enthousiasmaient sur les ambitions sociales de « l’Europe rose ». 11 pays sur les 15 que comptait alors l’Union européenne étaient dirigés par des coalitions menées par des socialistes ou des sociaux-démocrates. Mené par Lionel Jospin, Gerhart Schröder, Tony Blair et Massimo D’Alema le Parti socialiste européen (PSE) dominait le Parlement européen avec 215 sièges sur 626. Un accord avec le Parti populaire européen (PPE), qui disposait de 181 députés, lui assurait de détenir la présidence du Parlement pendant la moitié d’une législature.

Cet accord est toujours en vigueur. Après chaque élection européenne, PSE et PPE ont pris l’habitude de se partager systématiquement la présidence du Parlement. Pourtant, cet accord pourrait ne pas être reconduit à l’issue du prochain scrutin. Le poids des deux principaux groupes politiques n’a cessé de diminuer. En 1999, PSE et PPE représentaient presque 66% des députés. Vingt ans plus tard, ils n’en représentent plus que 38,7%. Certes, la refondation des centristes en 2019, sous l’impulsion d’Emmanuel Macron, explique en partie cette baisse. Mais c’est surtout la hausse du nombre de députés d’extrême droite qui caractérise les derniers scrutins européens.

Jusqu’aux élections de 2014, la part des députés européens d’extrême droite était restée relativement faible, autour des 10%. De plus, la plupart d’entre eux siégeaient avec les non-inscrits ce qui atténuait leur poids institutionnel. En élisant un nombre record de 130 députés d’extrême droite, soit 17,3% du Parlement, les élections de 2014 furent un premier tournant. Après le départ des députés Britanniques en 2020, une partie de l’extrême droite s’est rassemblée au sein du groupe « Identité et Démocratie », dans lequel on compte les députés français du Rassemblement national, les Allemands d’Alternative für Deutschland (AfD) et les Italiens de la Lega. Ce groupe totalise une soixantaine de sièges. Un autre groupe conservateur et eurosceptique plus ancien, les Conservateurs et réformistes européens (ECR) inclut le parti polonais Droit et justice (Pis), le parti de Giorgia Meloni Fratelli d’Italia, le parti espagnol Vox et les Démocrates de Suède. Il compte 66 députés. Si l’on ajoute les députés non-inscrits d’extrême droite (les douze députés du Fidesz hongrois, Aube dorée, le Parti populaire Notre Slovaquie, quelques députés anciennement RN en déshérence…), c’est plus de 150 députés d’extrême droite, soit plus de 20% des 705 parlementaires, qui sont représentés au Parlement de Strasbourg.

Si l’on se fie aux sondages et aux résultats des dernières élections nationales, l’extrême droite est en train de devenir l’un des courants de pensée dominant en Europe. Les dernières élections en Suède, en Finlande, en Italie, en Slovaquie et aux Pays-Bas ont toutes été marquées par la montée de l’extrême droite. À chaque fois, un mouvement d’extrême droite est parvenu à entrer dans une coalition majoritaire. Si l’Espagne et la Pologne font figure d’exception, il convient de les relativiser. Les élections générales espagnoles de juillet dernier ont abouti à une victoire fragile du Premier ministre socialiste sortant. La montée de la droite, et surtout la perspective d’une alliance entre le Parti populaire et Vox ont montré que l’extrême droite est prête à diriger l’Espagne. Quant à la Pologne, même si le PiS, usé par huit années de pouvoir, a dû concéder une défaite face à une coalition libérale hétéroclite, il reste de loin le premier parti de Pologne. La gauche, quant à elle, est réduite à 26 députés sur 460.

Il y a deux manières de réfléchir à la montée de l’extrême droite. La première est d’étudier les conséquences politiques et institutionnelles d’une extrême droite susceptible de représenter plus d’un quart des députés européens à l’issue des élections de juin prochain. Pourrait-elle, comme dans d’autres pays, s’allier avec la droite traditionnelle sur modèle de l’alliance PSE/PPE ? Quelles conséquences une telle coalition pourrait-elle avoir sur le fonctionnement de la Commission européenne, sur les négociations du prochain budget européen ou sur les ambitions climatiques de l’UE ? L’autre approche est de s’interroger sur les causes de l’inexorable montée électorale des partis d’extrême droite et sur les raisons pour lesquelles on constate un renforcement des sentiments identitaires. C’est cette seconde approche qu’il faut privilégier. Pour cela, il convient d’étudier trois phénomènes. Le premier est celui de la dynamique fédérale européenne incarnée la Présidente de la Commission Ursula von der Leyen ; le deuxième est celui de l’exacerbation des rivalités économiques intra-européennes engendrées par le marché unique européen. Enfin, il faut aussi s’interroger sut les conséquences politiques les migrations intra- et extra- européennes dans la montée du repli identitaire.

Une réponse à un fédéralisme de façade ?

Depuis son élection à la Présidence de la Commission européenne, Ursula von der Leyen s’est montrée très active médiatiquement et très volontarisme dans la mise en œuvre de la politique européenne. Elle s’est beaucoup déplacée, en particulier en Ukraine après l’invasion russe, et en Israël après l’attaque du 7 octobre. Très favorable à une politique d’intégration renforcée, elle s’était prononcée en 2011, alors qu’elle était ministre du Travail du gouvernement Merkel, en faveur de la création des « États-Unis d’Europe ». Cette vision fédéraliste s’est retrouvée dans son action qui a souvent dépassé le cadre des prérogatives de l’UE. Ainsi, dès sa prise de fonction, en décembre 2019, elle lançait le « Green deal », une initiative en faveur de la transition climatique. En juin 2020, après des semaines de rivalité entre pays européens dans la gestion de la crise Covid, elle organisait l’achat groupé de vaccins auprès des laboratoires pharmaceutiques. Enfin, quelques semaines plus tard, l’Union européenne s’entendait pour organiser un vaste plan de relance d’un montant total de 750 milliards d’euros afin d’aider les pays les plus touchés par la crise sanitaire. Baptisé « NextGenerationUE » le volume financier du plan est important. Il représente 70% du budget pluriannuel européen. Une partie (360 milliards d’euros) est constituée d’une enveloppe de prêts à faible taux intérêt ; elle fut peu utilisée. L’autre partie représente des subventions d’un montant total de 390 milliards d’euros avec une clé de répartition permettant à certains pays comme la Grèce, l’Espagne, l’Italie ou les pays d’Europe centrale et orientale, de bénéficier d’aides conséquentes (Figure 1).

Figure 1 : Montant des subventions du plan de relance européen rapportées au PIB de 2022[1]

La grande originalité du plan de relance européen est d’être financé par un emprunt communautaire gagé sur des recettes fiscales futures. Il faudra donc s’attendre à ce que le budget européen augmente fortement pour la période 2028-2035 (le budget européen est décidé pour sept ans) puisqu’il faudra rembourser l’emprunt tout en continuant de financer les politiques européennes. La Commission parie sur de nouvelles recettes fiscales, ce qui constitue un enjeu – délicat – à traiter pour la prochaine législature.

Comment von der Leyen est-elle parvenue à avancer dans la voie d’un fédéralisme budgétaire et fiscal ? Avant la crise sanitaire, le gouvernement allemand s’opposait de toute ses forces à l’idée d’un emprunt commun ; Angela Merkel avait même assuré en 2012 que tant qu’elle vivrait jamais il n’y aurait d’« eurobonds ». De même, la création d’une Europe des transferts où les pays d’Europe du Nord financeraient les économies d’Europe du Sud paraissait inenvisageable.

Pour comprendre comment les pays dit « frugaux » ont pu accepter un tel plan il faut rappeler qu’il n’est pas sans limite ni condition. D’une part, il s’agit d’un plan exceptionnel qui n’a pas vocation à se répéter. On est donc loin de la mise en œuvre d’une « Europe des transferts » soutenue par la France et les pays du Sud. D’autre part, il est mis en œuvre dans un contexte où l’Union européenne supervise de plus en plus strictement les politiques budgétaires nationales. L’épisode italien de l’automne 2018 au cours duquel le gouvernement de Paolo Conte, soutenu par le Mouvement Cinq étoiles et la Lega, dû revoir sa copie en dépit d’un déficit prévu de 2,4% (inférieur à celui de la France) a laissé des traces. Depuis la mise en place du Semestre européen en 2011 et du Pacte budgétaire en 2012, la Commission surveille les trajectoires budgétaires de chaque État et peut décider de sanctionner ceux qui s’écartent de leurs engagements, même si entretemps le gouvernement a changé. Dans ce contexte, l’existence d’un plan de relance européen constitue l’assurance, pour les pays les plus attachés à l’austérité, d’avoir un levier diplomatique envers les gouvernements tentés d’y renoncer. Cette conception du plan de relance n’est pas qu’une hypothèse. La Hongrie s’est vue exclue des financements européens en raison de ses manquements à l’État de droit. Le tournant pro-européen de Giorgia Meloni n’est sans doute pas étranger au fait que l’Italie doit recevoir près de 70 milliards d’euros de subventions européennes.

La deuxième raison pour laquelle les pays du Nord, et l’Allemagne en particulier, ont accepté de financer les pays du Sud tient à leur stratégie commerciale. Le modèle de l’économie allemande est menacé par le retour du protectionnisme aux États-Unis et par l’antagonisme croissant vis-à-vis de la Chine. L’Allemagne cherche donc à s’assurer des débouchés en Europe, ce qui suppose de soutenir les économies des pays du Sud.

Enfin si, sur le plan budgétaire, le plan européen semble renforcer la solidarité intra-européenne ainsi qu’une forme de fédéralisme, il constitue dans le même temps une régression communautaire. En effet, la mise en œuvre du plan repose essentiellement sur des logiques nationales. Chaque pays décide de la manière dont il entend dépenser l’argent européen, le contrôle ne se fait qu’a postériori et de manière technique. Ce sont donc des projets essentiellement nationaux que finance l’Union européenne, projets qui peuvent se contredire entre eux. Par exemple, la France et l’Allemagne ont toutes deux décidé d’utiliser les fonds européens pour développer leurs filières hydrogène. Mais les plans allemands et français sont concurrentiels puisqu’ils visent à attirer les investissements des mêmes entreprises. De même, le plan de relance français contient 10 milliards d’euros de baisse d’impôt pour les entreprises, ce qui signifie que l’Europe finance en partie la concurrence fiscale entre États membres.

La même logique de régression communautaire prévaut dans le budget européen 2021-2027 adopté au même moment. La part consacrée aux fonds de cohésion, qui visent à lutter contre les inégalités régionales a été réduite d’environ 11 %, et l’enveloppe de la politique agricole commune a été rabotée. De plus, la part des subventions agricoles allouées nationalement s’est accrue au détriment de la part européenne. Ainsi, les deux politiques emblématiques de la dimension fédérale de l’UE ont été réduites et seront pour partie nationalisée.

En fin de compte, le développement d’un nouvel outil de fédéralisme budgétaire (le plan NextGenerationUE) cache une série de régressions fédérales : le renforcement d’une supervision bureaucratique (et non politique) des budgets nationaux, l’absence de projets collectifs financés par l’argent européen, et une forme de renationalisation dans l’usage des fonds communautaires. Le grand absent de ces réformes est… le Parlement européen qui a de moins en moins son mot à dire sur la manière dont est utilisé le budget qu’il est censé contrôler. Tout se joue entre la Commission européenne, le Conseil et les gouvernements nationaux.

Le marché unique renforce les antagonismes

Du point de vue politique, le plan de relance européen ne peut engendrer qu’une série d’incompréhensions et de frustrations. Les populations des pays riches peuvent légitimement penser qu’elles sont mises à contribution des dépenses des pays d’Europe de l’Est et du Sud, tandis que les populations des pays bénéficiaires peuvent avoir le sentiment d’être prises dans un chantage à la subvention. Dans les deux cas, au lieu de renforcer les liens de solidarité entre pays contributeurs et pays bénéficiaires, ce plan tend à exacerber les tensions nationales. Il n’est donc pas surprenant de constater une hausse de l’influence électorale de l’extrême droite.

On ne peut pourtant pas comprendre l’exacerbation des rivalités nationales sans étudier la manière dont le fonctionnement de l’UE renforce les antagonismes. Dans un article de 2019, j’ai étudié les causes de la crise des dettes souveraines de 2010-2015 et j’ai montré que, contrairement au discours tenu par les dirigeants européens, l’origine de la crise n’est pas seulement la conséquence de défaillances nationales. À en croire les autorités européennes, la crise serait double. Certains pays comme l’Irlande, l’Espagne ou Chypre, n’auraient pas su encadrer leur système bancaire et financier, tandis que d’autres, la Grèce ou le Portugal, voire l’Italie, n’auraient pas su gérer leur politique budgétaire. En réponse à ce diagnostic, l’UE a créé l’Union bancaire, qui consiste à faire superviser directement des banques les plus importantes par la Banque centrale européenne et elle a renforcé le contrôle des politiques budgétaires nationales.

Le problème est que les autorités européennes ont dès le départ refusé d’envisager une seconde option, celui d’une même crise structurelle d’échelle européenne. Pour comprendre cette interprétation, il faut revenir sur les caractéristiques du marché unique européen. Sous l’impulsion décisive de Jacques Delors, la CEE a pris un tournant fondamental en 1986 avec la signature de l’Acte unique. Combiné au traité de Maastricht et mis en œuvre au cours des années 1990, ce traité a consisté à créer un grand marché européen du capital et du travail qui s’est rajouté au marché commun, qui était fondé sur la libre circulation des biens et des services.

En instaurant la libre circulation des facteurs de production, le marché unique a modifié en profondeur les équilibres économiques. Jusqu’à la fin des années 1980, chaque pays disposait de son propre système productif tout en bénéficiant d’une mise en commun de la demande européenne. Les marchandises produites nationalement pouvaient être concurrencées par celles d’autres pays, mais les États contrôlaient la manière dont elles étaient produites et pouvaient mener des politiques industrielles de manière autonome. Les marchés des capitaux et du travail étaient cloisonnés au sein des frontières nationales, ce qui faisait que l’épargne d’un pays finançait en priorité ses propres besoins d’investissement et que les entreprises ne pouvaient pas aussi facilement contourner les droits sociaux en délocalisant ou en faisant appel au détachement.

Avec l’instauration du marché unique, les facteurs de production, et non simplement les marchandises, se sont mis à circuler librement au sein de l’espace européen. L’épargne nationale peut alors financer les besoins d’investissement de n’importe quel pays européen. Les règles de la concurrence ont été renforcées afin d’interdire aux États de mener des politiques industrielles autonomes. Ces derniers ont donc été plongés dans un bain de concurrence « libre et non faussée » visant à attirer les investissements productifs. Un taux de rentabilité de 5% qui, auparavant, apparaissait suffisant pour financer la construction d’une usine, est perçu désormais comme insuffisamment profitable si les conditions de production d’un autre pays voisin permettent 7 à 8% de rentabilité. Le marché unique a ainsi mis en concurrence, non plus les marchandises, mais les systèmes productifs eux-mêmes. Cela a poussé les gouvernements européens à mener des politiques « d’attractivité » afin d’attirer les investissements. Ils se sont mis à augmenter les taux de profits en réduisant les coûts salariaux et la fiscalité pesant sur les entreprises. Certains pays comme l’Irlande et le Luxembourg, puis les Pays-Bas, Malte, Chypre, et depuis peu le Portugal, ont profité de la taille modérée de leurs économies pour pratiquer des politiques de dumping fiscal et attirer une partie des investissements sur leur territoire.

Le problème est que chaque pays ne dispose pas des mêmes atouts géographiques et historiques. On sait, depuis que l’économiste Alfred Marshall en a formulé l’idée à la fin du XIXème siècle[2], que l’industrie a tendance à s’agglomérer. En se concentrant au sein d’un territoire, les investissements industriels tendent à développer des facteurs de production territoriaux spécifiques (infrastructure de transport, main d’œuvre qualifiée, centre de formation et de recherche, etc.) qui rendent chaque entreprise plus performante. Ce développement combiné d’entreprises industrielles et de facteurs de production territoriaux produit un effet d’entrainement qui fait que les territoires les plus industrialisés sont avantagés lorsqu’ils sont mis en concurrence avec des territoires peu industrialisés. Le résultat de cette dynamique est que, à l’échelle du continent européen, la création du marché unique a eu tendance à favoriser la progression d’activité dans les pays les plus industrialisés au détriment des autres. L’industrie européenne s’est donc agglomérée autour de ses bassins industriels historiques connectés aux grands ports de la mer du Nord, eux-mêmes à l’exutoire de voies de communication efficaces. À l’inverse, les pays périphériques d’Europe du Sud et de l’Ouest, mais également la Finlande, se sont largement désindustrialisés.

Dans mon article de 2019, je montrais que c’est cette perte de substance industrielle, engendrée par la création du marché unique européen dans les années 1990, qui est la cause première des déséquilibres financiers à l’origine de la crise des dettes souveraines. En perdant leurs capacités industrielles, les pays éloignés géographiquement du cœur industriel de l’Europe ont perdu leurs capacités à exporter et sont devenus dépendants financièrement des pays du cœur.

Le tableau 1 ci-dessous montre les effets à long terme de cette dynamique de polarisation engendrée par le marché unique. On remarque que les pays qui ont le plus perdu d’emplois manufacturiers (Roumanie, Finlande, Portugal, Grèce, Bulgarie…) se situent tous en périphérie, tandis les pays dont l’industrie a été le mieux préservée se situent autour de l’Allemagne, à l’exception de l’Irlande. Pour ce pays, la dynamique locale de l’emploi est le fruit de la stratégie fiscale très agressive menée depuis des décennies.

Pays perdants

Pays intermédiaires

Pays gagnants

Roumanie (-35,9%)

Belgique (-18,4%)

Hongrie (-12,7%)

Finlande (-34,3%)

République Tchèque (-18,1%)

Allemagne (-7%)

Portugal (-32,8%)

Slovaquie (-18,1%)

Autriche (+1%)

France (-25%)

Suède (-18,1%)

Pologne (+1,2%)

Grèce (-24,1%)

Italie (-16,4%)

Irlande (+1,7%)

Bulgarie (-22,3%)

Espagne (-15,1%)

 

Tableau 1 : Évolution de l’emploi manufacturier de 2000 à 2022 (pays de plus de 5 millions d’habitants)[3]

Afin de comprendre les chiffres indiqués dans le tableau 1, il faut avoir en tête que, sur une période de plus de vingt ans, il est normal que le volume global de travail diminue dans l’industrie manufacturière. Du fait des progrès de la productivité du travail, les pays dont l’emploi industriel a diminué de moins de 15-20% ne se sont pas véritablement désindustrialisés, contrairement aux pays dont l’emploi a baissé de plus de 20% (colonne de gauche) et qui ont clairement perdu en capacités productives. Le tableau montre aussi que les effets de la géographie, même s’ils sont dominants à long terme, ne sont pas les seuls à devoir être pris en compte. Le coût horaire du travail, plus faible en Espagne (22,9€) qu’en France (41,1€), explique sans doute pourquoi ce pays s’en sort un peu mieux que la France sur le plan de l’emploi manufacturier. De même, le coût horaire du travail plus élevé en République tchèque (16,2€) qu’en Pologne (12,2€) explique pourquoi l’économie polonaise attire davantage les investissements industriels, bien que les deux pays soient situés à proximité de l’Allemagne[4]. Enfin, il est à noter que l’Autriche dispose de fleuves navigables et de canaux qui lui permettent d’accéder au Rhin et au port de Rotterdam.

Les migrations intra- et extra- européennes déstabilisent les sociétés

La réorganisation industrielle de l’Union européenne est au cœur de sa dynamique économique et financière, mais elle a aussi des effets structurels sur l’emploi et la démographie. Confrontés à la désindustrialisation, les pays d’Europe périphérique sont contraints de se spécialiser dans des activités à rendements décroissants comme le tourisme, ou de soutenir leur activité économique par le biais de la demande et de l’endettement. Même au sein des pays « gagnants », les effets de spécialisation ne sont pas symétriques. Si l’Allemagne parvient à préserver, sur son territoire, la production de biens à haute valeur ajouté et les emplois qualifiés qui vont avec, ce n’est pas le cas de la Pologne dont l’industrie tend à se spécialiser dans l’assemblage ou dans la production de composants à bas coûts.

En fin de compte, la réorganisation globale de l’économie européenne, poussée par les forces du marché, déstabilise les populations. En devenant une nation d’ouvriers travaillant dans les entreprises sous-traitantes de l’industrie allemande, les Polonais développent une conscience de classe qui se conjugue mal avec la vision éthérée de l’économie promue par les autorités européennes. De son côté, en devenant une nation d’ingénieurs, l’Allemagne attire les chercheurs et les diplômés des autres pays européens. La spécialisation économique participe à transformer les sociétés. Alors que l’Allemagne était en déclin démographique jusqu’à la fin des années 2000, son solde migratoire s’est mis à exploser dans la période récente, en faisant plus que compenser le déficit de son solde naturel. De 2010 à 2022, la population allemande a bénéficié d’un solde migratoire cumulé de plus de 6,5 millions de personnes, le plus souvent en âge de travailler et issues d’autres pays européens. Dans le même temps, d’autres pays se dépeuplent et voient partir leur jeunesse éduquée. La Roumanie a perdu plus de 2 millions d’habitants entre 2000 et 2022 du fait du solde migratoire. En Pologne, si le solde migratoire s’est stabilisé à partir de 2016, cela est dû en grande partie à l’immigration ukrainienne, qui précède l’exode déclenché par la guerre, et qui comble les besoins de l’économie en emplois peu qualifiés dans l’agriculture et l’industrie. Cette immigration récente ne peut masquer le départ toujours conséquent de la jeunesse diplômée, attirée par les salaires de l’Ouest. Quant à la Grèce, elle a payé un lourd tribut démographique à la crise économie. Son solde migratoire, excédentaire entre 2000 et 2009, est devenu déficitaire, l’amenant à perdre plus de 300 000 habitants entre 2010 et 2022[5].

Ces flux migratoires conséquents, liés à la spécialisation des économies européennes, ont nécessairement des conséquences sociales et politiques. Dans un ouvrage publié en 2017, le politologue bulgare Ivan Krastev fait le constat d’une profonde fracture entre l’est et l’ouest de l’Europe sur les questions migratoires. À l’est, le sentiment national est récent et fragile du fait de l’histoire, ces pays ayant longtemps été dominés par de vastes empires. De plus, la manière dont certains pays se vident de leurs forces vives engendre un sentiment de frustration qui nourrit la défiance et le populisme d’extrême droite. Symétriquement, un pays comme l’Allemagne, peu habitué à organiser l’intégration de ses populations migrantes, est confronté aujourd’hui à une immigration historique qui nécessiterait un financement massif de logements et d’infrastructures publiques dans ses principaux centres urbains. Mais empêché par des règles budgétaires très strictes, le niveau d’investissement de l’économie allemande est très loin d’être suffisant, ce qui entraine une dégradation des services publics et une pénurie de logements qui pèse sur l’ensemble de la population allemande et contribue au succès de l’Afd.

Un échec économique global qui alimente le populisme d’extrême droite

Quel que soit le résultat des élections européennes de juin prochain, on ne peut que faire le constat de l’essoufflement du modèle économique de l’UE. Lorsque, dans les années 1980 et 1990, les autorités européennes décidèrent de rompre avec certaines caractéristiques héritées de l’après-guerre (le tarif extérieur commun, la politique des prix garantis dans l’agriculture, la préservation des services publics…) pour adhérer pleinement aux principes du « Consensus de Washington » et créer un vaste marché autour de la monnaie unique, ils ont créé des institutions durables qui ont largement transformé le continent. Les systèmes sociaux et fiscaux ont été brutalement mis en concurrence et les gouvernements nationaux ont perdu les capacités d’orienter leurs économies nationales. Cela a engendré, dans l’ensemble des pays européens, une profonde frustration démocratique qui détruit peu à peu la légitimité de leurs institutions.

Ces derniers mois, l’échec du modèle économique européen est devenu patent. La crise de l’énergie et du marché européen de l’électricité ont mis à jour les limites du management par la concurrence et la croyance infaillible dans la vérité du prix de marché ; la crise inflationniste a elle démontré que la monnaie unique est loin de garantir la stabilité des prix, contrairement à ce que proclament les traités européens ; la rivalité entre la Chine et l’Occident, et le tournant protectionniste pris par les États-Unis montre que la stratégie libre-échangiste de l’UE est de plus en décalage avec la réalité du monde ; enfin, la guerre en Ukraine et l’incapacité des pays européens à approvisionner l’armée ukrainienne en munitions montre les limites de son industrie et sa faible capacité à se réorganiser.

Fille ainée du néolibéralisme, l’UE a bâti un modèle non pas sur des principes de solidarité et de coopération, mais sur la concurrence, le libre-échange et la libre circulation du capital. Ce modèle déstabilise les populations et les sociétés, mais il a surtout démontré qu’il est peu efficace pour produire des richesses.  Le fait d’avoir confié la gestion de l’économie aux marchés plutôt qu’aux responsables politiques s’avère être une erreur stratégique. Dans une récente chronique au Monde, le journaliste Arnaud Leparmentier constate que l’écart entre les économies européennes et américaine n’avait cessé de se creuser au cours des dernières années, à tel point que le niveau de vie moyen au États-Unis est désormais 80% supérieur à ce qu’il est au sein de la zone euro. Le gouvernement américain est d’ailleurs en train de réorienter profondément le modèle économique des États-Unis en remettant l’État au centre du jeu. Les dépenses publiques augmentent, quitte à laisser filer les déficits, et cela fonctionne ! Au troisième trimestre 2023, la croissance de l’économie américaine s’est montée à 4,9%, tandis que le chômage n’est qu’à 3,7%. La Réserve fédérale annonce le retour d’une politique de baisse des taux d’intérêt.

Pendant ce temps, l’UE, dont la croissance est atone et où l’extrême droite menace, est confrontée à un choix fondamental. Soit elle transforme son modèle et accepte de remettre en question ses dogmes néolibéraux… soit elle prend le risque d’être bientôt gouvernée par l’extrême droit

 

Références

[1] Source : « RRF: Update of the maximum financial contribution », Commission européenne, 30 juin 2022 et Eurostat (pour le PIB). Calculs de l’auteur.

[2] Alfred Marshal, Principes d’économie politique, édition numérique, 1890 [1906].

[3] Source : Eurostat. Consulté le 4 janvier 2024. Les pays de faible population ont été écartés du fait de leur sensibilité à des variations ponctuelles d’emploi.

[4] Notons également que la Pologne, contrairement à la République Tchèque, dispose d’un accès direct à la mer du Nord. Source pour les coûts horaires du travail : Insee Référence, Emploi, chômage, revenus du travail, Édition 2023, INSEE, 2023.

[5] Source : Eurostat. Consulté le 4/01/2024.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

A lire aussi…

L’hégémonie américaine est loin d’être terminée

Affaiblie par le trumpisme, contestée par l’alliance stratégique nouée entre la Chine et la Russie, la diplomatie américaine semble de moins en moins dominante et capable de maintenir la pax americana. Cette faiblesse diplomatique démontre-t-elle que l’hégémonie des États-Unis prend fin et que le XXIe siècle verra l’avènement d’une nouvelle hiérarchie mondiale ? Dans sa chronique mensuelle, David Cayla estime que, sur le plan économique, rien ne permet d’affirmer que l’hégémonie américaine soit menacée.

Lire la suite »

Peut-on financer la transition écologique par l’émission de monnaie « sans dette » ?

Un certain nombre de personnalités et d’économistes affirme que les montants faramineux nécessaires pour organiser la transition écologique pourraient être payés sans coût en instaurant un mécanisme de création d’une monnaie « libre », sans endettement. Dans sa chronique mensuelle, David Cayla conteste cette solution et met en garde la gauche contre les promesses illusoires qui entendent nier le coût pour les ménages du financement de la transition.

Lire la suite »

Comment les prix de l’énergie sont devenus fous

Dans son dernier ouvrage sorti le 6 octobre dernier, Aurélien Bernier brosse le portrait d’une crise énergétique, conséquence non de l’invasion russe de l’Ukraine, mais bien de l’aveuglement et du dogmatisme de nos classes dirigeantes, lesquelles n’ont eu de cesse de détruire le service public de l’énergie au nom de la libéralisation, du marché unique et de la concurrence libre et non faussée. Le résultat est que les Européens disposent d’un système de production et de distribution de l’énergie coûteux, opaque et inefficace.

Lire la suite »

Lire aussi...

A la ligne – Joseph Ponthus

A la ligne – Joseph Ponthus

Chef-d’œuvre de la littérature française contemporaine, A la ligne – Feuillets d’usine, publié en 2019, permet d’entrevoir une réalité peu connue et peu médiatisée, celle des ouvriers d’usine et d’abattoir, à travers le récit poétique et autobiographique de l’écrivain Joseph Ponthus, mort prématurément en 2021.

Chef-d’œuvre de la littérature française contemporaine, A la ligne – Feuillets d’usine, publié en 2019, permet d’entrevoir une réalité peu connue et peu médiatisée, celle des ouvriers d’usine et d’abattoir, à travers le récit poétique et autobiographique de l’écrivain Joseph Ponthus, mort prématurément en 2021.

A la ligne – Feuillets d’usine rapporte le quotidien d’un intérimaire qui embauche dans les usines et abattoirs bretons. Journal intime et poétique de l’auteur, ce récit témoigne de l’expérience épuisante et déshumanisante du travail ouvrier. Originaire de Reims où il réalise des études littéraires, il devient ensuite éducateur spécialisé à Nanterre. Il suit sa femme à Lorient où il échoue à trouver du travail dans son secteur, ce qui le mène à s’inscrire en agence d’intérim et à devenir ouvrier d’usine, puis d’abattoir.

Non pas par choix idéologique ni pour quelque expérience sociologique, Joseph Ponthus travaille à l’usine par besoin et nécessité d’emploi. Il ne s’inscrit pas dans la lignée de Simone Weil, venue chercher sur les lignes de production l’incarnation totale de la condition ouvrière (« Journal d’usine », La Condition Ouvrière, 1934-35), ni dans celle des intellectuels de gauche qui « s’établissaient » en usine dans les années 1960-70s, tel le philosophe Robert Linhart (L’Etabli, 1978). Pour Ponthus, l’usine est un moyen de faire vivre son ménage. «Je n’y allais pas pour faire un reportage / Encore moins préparer la révolution / Non / L’usine c’est pour les sous / Un boulot alimentaire / Comme on dit / Parce que mon épouse en a marre de me voir traîner dans le canapé en attente d’une embauche dans mon secteur / Alors c’est / L’agroalimentaire / L’agro / Comme ils disent / Une usine bretonne de production et de transformation et de cuisson et de tout ça de poissons et de crevettes / Je n’y vais pas pour écrire / Mais pour les sous ».

Ce récit autobiographique est en vers libre et sans ponctuation : le∙la lecteur∙trice va à ligne, pendant que l’auteur, le travailleur, se rend à la ligne de production. Rempli à la fois d’humour, de poésie et de colère, ce livre est d’une vitalité remarquable. Son écriture et fine, maline, il joue sur les mots : à l’abattoir, « Dimanche / Jour du Seigneur / La semaine / Jours des saigneurs », chez lui, « A la maison / Le quotidien / Le ménage à faire / Quand je ne le fais pas / Ça pèse sur mon ménage ». Les citations et références foisonnent. Son récit est une chasse aux trésors, les vers d’Apollinaire succèdent aux écrits de Perec, les chansons de Brel répondent aux paroles de Trenet.

Joseph Ponthus parle de l’usine comme d’une déflagration physique et morale. « L’usine bouleverse mon corps / Mes certitudes / Ce que je croyais savoir du travail et du repos / De la fatigue / De la joie / De l’humanité », puis « Je ne trouve pas le temps d’écrire / Trop de boulot / Trop de fatigue ». Le livre tient de son besoin de vivre, de son besoin de se raccrocher à quelque chose de plus grand, de plus profond, de plus humain. L’écriture est vitale, sans elle il devient cinglé, « piégé par les machines ». La journée, durant ses huit heures de rang sur les lignes de production, il s’entoure d’Apollinaire, de Céline, d’Aragon, de Cendrars, de Dumas… Tous les soirs, l’écriture l’attend, malgré la fatigue et l’épuisement, tel une échappatoire.

Il écrit pour tenir le coup, il écrit pour ne pas oublier. Le décor nocturne, froid, industriel, le bruit des machines, l’odeur des poissons, de la mort, des carcasses de vaches, le rythme des pauses clopes et du café. L’usine c’est aussi la solidarité ouvrière, les grèves : « Mes bras auront tenu / J’espère que la grève tiendra tout autant / En avant Marx ». C’est l’humour, les chansons, les souvenirs des livres, des auteurs. « Je reviens à Barbara / ‘Je ne suis pas poète / Je suis une femme qui chante’ / Se plaisait-elle à répéter / Pas de poésie non plus à l’usine / Nous somme au mieux des gens qui chantons en travaillant ». Par sa plume, Joseph Ponthus décrit une réalité qui peut sembler révolue, celle d’ouvriers tels des machines qui travaillent à la chaîne, méprisés par les petits-chefs.

Antithétique, A la ligne est à la fois individuel et universel. L’autobiographie, témoignage unique, permet ici la description d’une réalité vécue par d’autres. Les citations et allusions littéraires et culturelles remettent l’individu dans un contexte universel, dans une réalité culturelle partagée. L’usine, expérience déshumanisante, n’a pas raison de l’écrivain. Ponthus par sa force et son acharnement à écrire malgré tout, refuse la perte de son humanité.

« Il y a qu’il n’y aura jamais / De / Point final / A la ligne ». Joseph Ponthus termine son récit par ces mots. L’absence de point final, de fin de récit, évoque le travail interminable, répétitif et épuisant de l’usine. On a envie de reprendre le livre, de recommencer, de se replonger dans cette ode poétique.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

A lire aussi…

Anticor souhaite renforcer l’éthique dans les institutions européennes

À l’approche des élections européennes de juin 2024, l’association Anticor, reconnue pour son engagement contre la corruption et pour la transparence de la vie publique, a mis en avant plusieurs propositions visant à renforcer l’intégrité et la transparence au sein de l’Union européenne. Ces mesures ciblent à la fois les candidats aux élections et les eurodéputés en exercice, dans l’espoir d’améliorer la confiance des citoyens dans les institutions démocratiques.

Lire la suite »

Intelligence artificielle et open data : les initiatives innovantes d’Anticor pour lutter contre la corruption

Fondée sur les principes de transparence, d’intégrité et de justice, Anticor est une associa-tion française qui se positionne en première ligne de la lutte contre la corruption. Créée avec la volonté de promouvoir une gouvernance publique éthique, Anticor adopte des ap-proches innovantes pour déceler et prévenir les pratiques corrompues. Utilisant les leviers de l’intelligence artificielle et de l’open data, l’association s’engage dans le développement de deux projets ambitieux visant à améliorer la transparence et à faciliter la détection de fraudes dans la gestion des affaires publiques.

Lire la suite »

Lire aussi...

BATTLE ROYALE de Kinji Fukasaku, une dystopie macabre dans un Japon décadent

Chronique

BATTLE ROYALE de Kinji Fukasaku, une dystopie macabre dans un Japon décadent

Aux origines de jeux vidéo tels que Call of Duty ou de la série de films Hunger Games, on trouve le film culte et testamentaire du réalisateur nippon Kinji Fukasaku : Battle Royale. Une dystopie nihiliste et macabre dans un Japon décadent et en perte de repères, désignée par Quentin Tarantino comme l’un des films qu’il aurait lui-même aimé faire.

De Battle Royale je ne savais rien, si ce n’est qu’il est communément décrit comme un film culte. Si j’avais déjà dû croiser le nom de Fukasaku quelque part, je n’y associais aucun film en particulier. Logique puisqu’en réalité je ne connais pas grand-chose du cinéma japonais – pourtant si riche. Je me souviens toutefois bien de ma première (vraie) rencontre avec celui-ci : c’était à la Cinémathèque française pour une séance à 1€ dans le cadre d’une rétrospective de l’œuvre d’Akira Kurosawa (1910-1998). J’y découvrais le quasi mythique Rashômon (1950) d’un réalisateur surnommé « l’Empereur » par ses pairs et dont la Cinémathèque nous dit qu’il ouvrit alors les portes de l’Occident au cinéma japonais… Rien que ça. J’étais évidemment conquis, à tel point que je m’empressais d’y retourner pour voir le monumental Ran (1985), une séance inoubliable. Bref, voilà pour la première rencontre.

La deuxième, c’est le superbe cinéma associatif Videodrome 2(1) de Marseille qui me l’a proposée en diffusant le fameux Battle Royale de Fukasaku, adaptation d’un roman du même nom de Kōshun Takami (1999), dans le cadre d’une programmation consacrée aux teens movies. Celles et ceux qui ne connaissent pas encore le film ont peut-être entendu parler du genre de jeu vidéo qui en a adopté le nom (PUBG, Fortnite ou encore Call of Duty en sont quelques exemples). Ceux-là auront compris que, de la Battle Royale de Fukasaku, les spectateurs eux-mêmes ne reviennent pas indemnes.

Le ton est donné dès les premières secondes du générique qui s’ouvre sur le rythme trépidant et sinistre du Dies Irae du Requiem de Verdi. Une messe des morts en guise d’introduction… Sous les coups lourds de la grosse caisse et des timbales, on suit une cohorte de journalistes surexcités se ruer vers un groupe de militaires dans un tohu-bohu complet. On aperçoit alors, progressivement, l’objet de toute cette agitation : une jeune fille, doudou à la main, recouverte de sang et souriant diaboliquement de toutes ses dents. La voici, la survivante de la dernière Battle Royale, jeu de survie grandeur nature décrété par les pouvoirs publics dans un Japon futuriste, décadent et en perte de repères. C’est là l’ultime recours pensé pour contrer l’effondrement de l’autorité des adultes sur la jeunesse dans un contexte de crise politique, économique et morale. Tous les ans, une classe d’élèves tirée au sort est conduite sur une île déserte où les jeunes gens disposent précisément de trois jours pour s’entretuer, un seul d’entre eux pouvant repartir vivant de cet infâme massacre. Cette fois-ci, c’est l’ancienne classe du professeur Kitano qui est choisie, ce dernier s’étant retiré de l’enseignement après avoir été attaqué au couteau par l’un de ses élèves. Pensant partir pour leur voyage de fin d’année, les adolescents se réveilleront dans un semblant de salle de classe pour des retrouvailles lugubres avec Kitano. Une fois les règles du jeu posées et quelques exemples faits, chacun recevra un grand sac contenant quelques vivres, une carte et une arme – allant du fusil-mitrailleur au taser en passant par la hache, la serpette ou encore un couvercle pour casserole. Que le jeu commence…

Le thème de la violence est omniprésent dans ce film testamentaire de Kinji Fukasaku, âgée de 70 ans lors de sa sortie et décédé en 2003 au début du tournage d’une suite qui ne connaîtra pas la même célébrité. Le réalisateur japonais affronta d’ailleurs cette violence dès son adolescence alors qu’il travaille dans une usine d’armement pendant la Seconde Guerre mondiale. Explorant et travaillant le sujet au fil de sa carrière, c’est avec l’expérience d’un réalisateur célèbre de films yakuzas qu’il porte la violence à son paroxysme dans Battle Royale. Elle se loge partout ! Dans les combats évidemment, où une violence déjà débridée se trouve encore exaltée par l’adolescence de ses sujets. Dans la musique, avec la violence orchestrale et vocale de Verdi en ouverture. Dans le choix des plans et la représentation des adultes également. Dans les histoires personnelles des élèves encore, tous peu ou prou aux prises avec un passé ou un présent traumatiques.

Derrière ce chaos de violence, Fukasaku met en scène ainsi les émois de l’adolescence – autre grand thème du film. Un fil conducteur qu’il développe – parfois avec un humour savoureux – à travers les multiples personnalités des élèves interprétés avec talent par un groupe de jeunes acteurs. Parmi les meilleurs clichés, on retrouve ainsi l’adolescent puceau qui, sentant sa fin approcher se met en quête de l’ultime expérience sexuelle – au risque d’une émasculation impitoyable… Les filles ne sont pas en reste et certaines, se prêtant finalement de bon cœur au jeu, en profitent pour liquider des querelles de jalousie.  

Tout bien pesé, Battle Royale est un film réussi dont le vif succès ne réside pas seulement dans le suspens angoissé d’un thriller bien ficelé. Il s’explique sans doute aussi par la critique, lancée en toile de fond, des vices et risques de la société japonaise et d’une éventuelle « guerre des générations » opposant jeunes et adultes. « Qu’est-ce qu’un adulte pourrait dire à un enfant maintenant ? » s’interroge Takeshi Kitano à la fin du film. L’acteur, réalisateur et artiste au identités multiples est enfin l’une des raisons certaines du succès du film tant Kitano excelle dans le rôle du professeur blasé à mort et tyrannique.

Pour ma part, je me souviendrai du Battle Royale de Fukasaku comme d’un fier représentant de l’art de la discordance, parvenant à superposer certains des plus beaux airs de la musique classique à des scènes d’une violence inouïe, pour un résultat d’une beauté dérangeante. En cela, ce film m’a immanquablement fait penser au chef-d’œuvre (à mes yeux) de Werner Herzog, Leçons de ténèbres (1992), à cela près que le réalisateur allemand y filme des scènes bien réelles. Battle Royale est grotesque et génial à la fois. À voir absolument.

Références

(1)https://www.videodrome2.fr.

Lire aussi...

The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)
La dérive machiste des Passport Bros

Hiroshima, mon amour, Marguerite Duras

Chronique

Hiroshima, mon amour, Marguerite Duras

Si « Hiroshima, mon amour » est avant tout connu pour être un film d’Alain Resnais sorti en 1959, le scénario est quant à lui issu de l’imagination de Marguerite Duras. Gallimard, ne s’y trompant pas, publie dès l’année suivante les dialogues tirés du long-métrage. S’y retracent les amours entre une actrice française qui a subi les affres de l’épuration et un architecte japonais dont la famille s’est retrouvée balayée par la bombe atomique.

Mon camarade de la chronique cinéma voudra bien me pardonner, mais je souhaiterais moins ici présenter le film d’Alain Resnais que le scénario de Marguerite Duras. C’est à travers la transcription des dialogues, compilés dans un Folio poche très accessible, que j’ai découvert cette merveille pleine de poésie. Le réalisateur n’en pensait pas moins, lui qui disait à la future Prix Goncourt « Faites de la littérature. Oubliez la caméra ».

Car bien qu’André Malraux, alors ministre de la Culture, ait qualifié « Hiroshima, mon amour » de « plus beau film que j’ai jamais vu », il peut paraître à bien des égards un brin monotone, ou à tout le moins contemplatif. Se concentrer uniquement sur les dialogues, ce qu’offre le livre, permet de faire un pas de côté sur la mise en scène. Ils mettent en lumière le fond du film, le fond de divers problèmes abordés par nos deux protagonistes.

Le premier, un architecte japonais dont toute la famille a été tuée par la bombe nucléaire, rencontre une actrice française venue tourner un film sur Hiroshima. A première vue, rien ne les rapproche, et pourtant, les confessions de la seconde créent au fil de l’eau une convergence de vues. Son adolescence, qu’elle vécut à Nevers, est marquée par un bombardement allié dans sa ville qui provoqua la mort de 163 personnes. Parmi elles, un Allemand, son Allemand, son premier amour qu’elle aimait éperdument. Dans la chambre d’hôtel, le Japonais et son Allemand se confondent, lorsqu’elle voit la main du premier, c’est celle du second, ensanglanté par le bombardement américain, qui ressurgit à sa mémoire. A la Libération, celle qui s’était épris de l’ennemi héréditaire est tondue, marque de la honte dans tout son village. Alors lorsqu’elle apprend, quatorze ans plus tard, qu’à Hiroshima les cheveux des femmes tombaient par poignées, elle comprend.

Elle comprend que, de Nevers à Hiroshima, c’est la même histoire. Les amours déchirées par la guerre, quel que soit le camp. Et l’autrice de confirmer : « Nous avons voulu faire un film sur l’amour. Nous avons voulu peindre les pires conditions de l’amour, les conditions les plus communément blâmées, les plus répréhensibles, les plus inadmissibles. Un même aveuglement règne du fait de la guerre sur Nevers et sur Hiroshima ». Pourtant, entre victimes de la barbarie, victimes de la mort de l’être ou des êtres aimés, un fossé mémoriel reste à combler. L’architecte japonais fait comprendre à l’actrice française, et ce à de multiples reprises, qu’elle ne comprendra jamais.

ELLE

— J’ai vu les actualités. Le deuxième jour, dit l’Histoire, je ne l’ai pas inventé, dès le deuxième jour, des espèces animales précises ont ressurgi des profondeurs de la terre et des cendres. Des chiens ont été photographiés. Pour toujours. Je les ai vus. J’ai vu les actualités. Je les ai vues. Du premier jour. Du deuxième jour. Du troisième jour.

LUI (il lui coupe la parole).

— Tu n’as rien vu. Rien. Chien amputé. Gens, enfants. Plaies. Enfants brulés hurlant.

 

 

ELLE (bas)

— Ecoute… Je sais… Je sais tout. Ça a continué.

LUI

— Rien. Tu ne sais rien

 

Elle ne sait rien parce qu’elle n’y était pas. L’indicible tient lieu de tentative de parole, tentative mélodramatique qui systématiquement échoue. Il est impossible de témoigner, impossible de parler, et quand elle s’y essaye, son amant japonais lui fait comprendre que, non, elle ne le peut. L’on retrouve cette même mémoire traumatique, mutique surtout, chez les survivants de la Shoah. Les survivants sont, finalement, condamnés à témoigner de l’impossibilité de témoigner.

Chaque protagoniste, en s’essayant à sa propre narration, accouche de sa propre histoire. Ou plutôt, de sa propre mémoire, car les images ne reviennent pas dans un ordre chronologique, historique, mais selon ce qui se déroule, pour chacun des protagonistes, au présent. Ici mémoire et histoire se croisent sans s’embrasser. La mémoire fait figure de troisième protagoniste. Sans l’oubli, elle serait bien trop lourde à porter. Mais avec l’oubli, le drame peut recommencer.

Lire aussi...

The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)
La dérive machiste des Passport Bros

L’hégémonie américaine est loin d’être terminée

Chronique

L’hégémonie américaine est loin d’être terminée

Affaiblie par le trumpisme, contestée par l’alliance stratégique nouée entre la Chine et la Russie, la diplomatie américaine semble de moins en moins dominante et capable de maintenir la pax americana. Cette faiblesse diplomatique démontre-t-elle que l’hégémonie des États-Unis prend fin et que le XXIe siècle verra l’avènement d’une nouvelle hiérarchie mondiale ? Dans sa chronique mensuelle, David Cayla estime que, sur le plan économique, rien ne permet d’affirmer que l’hégémonie américaine soit menacée.

En publiant Après l’empire en 2002, Emmanuel Todd annonçait la « décomposition » du système américain. Selon lui, l’agressivité montrée par Washington à la suite des attentats du 11 septembre 2001 et les invasions successives de l’Afghanistan et de l’Irak ne reflétaient pas l’hyperpuissance des États-Unis, mais sa fragilité. Les causes de cette fragilité ? L’émergence de rivaux stratégiques tels que la Chine, la Russie, voire l’Union européenne que Todd estimait alors en voie d’émancipation ; les difficultés de plus en plus importantes que rencontraient les États-Unis pour rester les « gendarmes du monde » ; une économie désindustrialisée et dépendante de ses importations en produits manufacturés ; et enfin l’exacerbation de tensions sociales et raciales qui menaçait les fondements démocratiques de la première puissance mondiale. Todd pronostiquait que le monde s’harmoniserait et se passerait progressivement de la tutelle américaine du fait de la transition démographique et de l’alphabétisation généralisée. Après une phase de transition susceptible d’accentuer les conflits, le XXIe siècle pourrait s’avérer plus pacifiste et l’hégémonie américaine devenir obsolète.

Plus de vingt ans ont passé depuis la sortie de cet ouvrage et le moins qu’on puisse dire est que l’idée d’un affaiblissement de l’hégémonie américaine fait toujours l’actualité. Entretemps, une crise économique et financière d’une ampleur exceptionnelle a ravagé Wall Street, Donald Trump a été élu, le Capitole fut envahi par des émeutiers d’extrême droite, les États-Unis se sont retirés d’Irak et d’Afghanistan sans être parvenus à atteindre leurs objectifs politiques, et la balance commerciale américaine continue d’afficher un profond déficit. Sur le plan international, la situation n’est guère meilleure pour le « gendarme du monde ». Les conflits en Ukraine et au Proche-Orient démontrent l’impuissance de Washington à enrayer l’agressivité de ses rivaux (la Russie) comme celle de ses alliés (Israël).

Pour la plupart des observateurs, les États-Unis seraient en train de vivre au XXIe siècle ce que les Britanniques ont vécu au XXe. Après avoir régné sur le monde en profitant de son avance industrielle, le Royaume-Uni était entré dans une phase de déclin au début du XXe siècle, passant le flambeau du leadership mondial aux Américains. Si l’histoire se répète, deux scénarios sont possibles. Soit une autre puissance telle que la Chine, l’Inde, voire l’Union européenne devient le prochain hégémon, soit aucune puissance ne se détache et le monde entrera alors dans une phase multipolaire de puissances rivales. Récemment, un troisième scénario a été proposé, celui d’une nouvelle guerre froide entre le « Sud global » (qui inclut la Chine, l’Inde, la Russie, le Brésil, l’Iran…) et les pays occidentaux au sens large (Amérique du Nord, Europe non russe, Japon, Corée du Sud, Australie et Nouvelle Zélande).

Tous ces scénarios reposent sur un postulat qui n’est jamais démontré tant il apparaît évident : la fin de l’hégémonie américaine.

Le monde est-il vraiment en train de se dédollariser ?

Il est vrai que sur le plan économique, la puissance américaine semble en déclin, du moins relativement aux autres pays. En 1970, le PIB américain représentait près du tiers du PIB mondial (31,4%). Cinquante et un an plus tard, en 2021, il n’en représentait plus que 24,1%[1]. Signe de ce déclin, de plus en plus de pays tendent à se passer du dollar dans leurs transactions commerciales, soit parce qu’ils y sont contraints du fait des sanctions (Russie, Iran…), soit pour des raisons politiques et diplomatiques. Même des alliés historiques de Washington comme l’Egypte et l’Arabie Saoudite souhaitent abandonner le dollar pour commercer entre eux. De son côté, la Chine fait tout pour développer son autonomie commerciale en finançant et en rachetant, dans le cadre des Nouvelles routes de la soie, des infrastructures portuaires et ferroviaires, créant ainsi à son avantage de nouvelles dépendances dans les pays en voie de développement…  ainsi que dans quelques pays européens.

Ce processus de dédollarisation est-il amené à s’étendre et reflète-t-il la fin de l’hégémonie américaine ? Pour répondre à cette question il convient de rappeler que la monnaie a plusieurs usages. Elle peut être utilisée comme moyen de paiement, mais elle peut aussi servir de réserve de valeurs via l’achat d’actifs financiers. Or, si le dollar est un peu moins utilisé comme moyen d’échange, cela n’implique pas nécessairement que son poids dans les réserves de change diminue. Au deuxième trimestre 2023, les actifs libellés en dollar représentaient près de 60% des réserves de change des banques centrales selon le FMI. Une part qui s’est érodée en vingt ans puisque le dollar représentait un peu plus de 70% des réserves de change en 1999. La monnaie américaine reste donc hégémonique dans les réserves. En comparaison, l’euro n’en représente qu’environ 20% alors que l’UE est la première puissance commerciale mondiale. Quant au renminbi chinois sa part n’est que de 2,45% et elle a eu plutôt tendance à décliner dans la dernière période.

Autrement dit, même si le dollar est moins présent dans les échanges internationaux (il est tout de même utilisé dans un peu plus de 40% des transactions internationales) il continue d’être privilégié pour l’épargne. Il y a deux raisons à cela. La première est que Wall Street reste, de loin, la première place financière au monde. La force de la finance américaine vient du fait que son économie s’endette massivement et peut donc proposer un volume d’actifs financiers très attractif, avec des taux d’intérêt souvent plus élevés qu’en Europe. La seconde raison pour laquelle les épargnants préfèrent acheter des actifs en dollars est que les États-Unis sont un État de droit où l’investisseur est plus protégé qu’ailleurs, en particulier en comparaison de pays où le droit a tendance à se plier aux injonctions politiques, comme en Chine ou en Russie.

Une économie américaine fortement désindustrialisée

En matière économique et industrielle peut-on dire que les États-Unis sont en déclin ? Dans son ouvrage, Emmanuel Todd soulignait son considérable affaiblissement industriel. Sur ce point, le diagnostic est incontestable. Le secteur manufacturier américain représente moins de 12% du PIB et moins de 10% de l’emploi total, ce qui fait des États-Unis l’un des pays les plus désindustrialisés au monde (graphique 1).

Graphique 1 : Évolution de l’emploi du secteur manufacturier aux États-Unis (2000-2023).

Plusieurs conséquences découlent de cette sous-industrialisation. La première est le déficit de la balance des biens qui caractérise l’économie américaine depuis plus de cinquante ans et qui représente aujourd’hui entre 4 et 5% de son PIB. Ce déficit est problématique, car il signifie que la première puissance mondiale est dépendante du reste du monde pour une grande partie de ses biens de consommation et de production. Il implique aussi une dépendance financière puisque, chaque année, les Américains doivent s’endetter pour financer leurs besoins de consommation. Autre conséquence délétère, les problèmes sociaux et politiques entrainés par la perte d’emplois qui étaient souvent plus stables et mieux rémunérés que la moyenne. Le succès de Trump dans les États anciennement industrialisés de la région des Grands lacs en témoigne[2]. Enfin cette désindustrialisation handicape les États-Unis dans la mise en œuvre de la transition écologique. Il faudrait que les industriels puissent investir dans des équipements décarbonés, mais cela suppose qu’ils en aient les moyens, ce qui est loin d’être évident compte-tenu de leur affaiblissement général.

Le déclin industriel américain ressemble à celui qui a touché le Royaume-Uni à la fin du XIXe siècle. Il convient cependant de le relativiser. D’abord, parce que même avec 11% du PIB, le secteur manufacturier américain représente un volume d’activité respectivement 3,8 et 3,3 fois plus important que celui de l’Allemagne et du Japon. Seule la Chine, ou la zone euro dans son ensemble, pourraient rivaliser avec la puissance de l’industrie américaine[3]. Par ailleurs, comme le montre le graphique 1, la baisse de l’emploi manufacturier semble enrayée depuis la crise de 2009. C’est sans doute le fruit des pratiques commerciales protectionnistes et d’une politique industrielle plus ambitieuse portée par Washington.

Une avance technologique et scientifique qui s’est renforcée

Ce qui fait la force de l’économie américaine n’est pas la résilience partielle de son industrie, mais plutôt sa capacité à maintenir un écart conséquent avec le reste du monde dans les secteurs les plus avancés sur le plan technologique. Chaque année, près d’un million d’étudiants, parmi les plus brillants, partent étudier aux États-Unis. D’autres obtiennent un permis de travail et s’installent définitivement. Cette émigration concerne plus particulièrement les hauts diplômes et s’affirme davantage dans les secteurs scientifiques et technologiques, à tel point que, dans les domaines des sciences dures et de l’ingénierie, près de la moitié des contrats postdoctoraux américains sont occupés par des étrangers. Les autorités américaines pratiquent de longue date une politique d’immigration choisie qui draine les meilleurs cerveaux.  Conséquence de cette politique, le nombre de travailleurs étrangers travaillant dans les secteurs technologiques (STEM[4]) a plus que doublé en 20 ans, passant de 1,2 millions en 2000 à 2,5 millions en 2019. Les travailleurs d’origine étrangère représentent désormais 23,1% de la force de travail dans les STEM, contre 16,4% en 2000.

Ces dernières décennies, ce sont des États-Unis qu’ont émergé les sociétés les plus innovantes. C’est vrai dans la pharmacie (Pfizer et Moderna), dans le domaine spatial (Blue Origin, SpaceX), dans l’intelligence artificielle (Open AI, Deepmind) et même dans la voiture électrique (Tesla). Le territoire américain accueille les sièges sociaux de presque tous les géants du numérique. C’est le cas des GAFAM (Google, Apple, Facebook, Amazon, Microsoft), mais aussi des sociétés qui ont émergé plus récemment telles que Netflix, Uber, Airbnb ou Zoom. En fait, lors des deux dernières décennies, les batailles dans le secteur numérique ont pratiquement toutes été remportées par des sociétés américaines. Microsoft a conjuré les menaces de Libre Office et de Linux, Apple a pris la place de Nokia comme entreprise leader de la téléphonie mobile, YouTube a balayé Dailymotion, Google s’est imposé comme la référence des moteurs de recherche, la Fnac n’a pas résisté face à Amazon. Quelques rares entreprises européennes ont subsisté comme Spotify ou Booking ; mais il s’agit d’exceptions et ce sont pour la plupart des sociétés relativement anciennes. Enfin, les États-Unis dominent plus que jamais le secteur culturel. Les séries, les films et les franchises américaines de type Marvel se partagent les écrans, et on ne peut que constater que les stars de la musique qui ont émergé depuis le début des années 2000 (Lana Del Rey, Taylor Swift, Beyoncé, Billie Eilish …), sont la plupart du temps originaires d’outre-Atlantique. Même la pop anglaise a pratiquement disparu des classements mondiaux d’écoute musicale, ce qui était loin d’être le cas, ne serait-ce que dans les années 1990[5].

À la fin du XIXe siècle, l’une des difficultés rencontrées par les Britanniques était qu’ils ne parvenaient pas à s’imposer dans les technologies de la deuxième révolution industrielle : les appareils électriques, la chimie, l’automobile. Aujourd’hui, on ne peut que constater que l’économie américaine s’est parfaitement adaptée au tournant technologique du XXIe siècle et on ne voit pas quel pays pourrait lui contester la suprématie dans ces secteurs.

Ainsi, même si elle est devenue moins industrielle, l’économie américaine parvient à compenser ce handicap en dégageant d’importants revenus dans les secteurs numérique et culturel. Le déficit commercial de la balance des biens est de ce fait en partie compensé par d’importants excédents dans la balance des services et des revenus primaires (graphique 2). Ces revenus sont clairement la conséquence des rentes numériques et des droits de propriété intellectuelle générés par les investissements dans les activités technologiques, la culture et le numérique. Notons qu’une partie de ces revenus ne sont pas rapatriés pour des raisons fiscales. On peut donc penser que les revenus réels sont supérieurs à ce qu’indiquent les chiffres officiels.

Graphique 2 : Évolution de la balance courante des États-Unis en pourcentage du PIB (1989-2022)

Un dynamisme démographique et économique incontestable

Pour terminer l’état des lieux de la puissance américaine il convient d’étudier une dernière composante indispensable à la perpétuation d’un hégémon : la dynamique démographique. À première vue, on pourrait croire que la démographie étatsunienne pèse peu par rapport à celle de la Chine. Comment 340 millions d’Américains pourraient durablement dominer une Chine de 1,4 milliards d’habitants et rester hégémoniques sur une planète où vivront bientôt 9 milliards d’êtres humains ? C’est très simple. La population américaine croît rapidement. Ces vingt dernières années, elle a augmenté de 50 millions d’habitants, en grande partie grâce à l’immigration. Sur cette même période, la Russie a vu sa population légèrement décliner ; un déclin démographique qui pourrait s’accélérer à l’avenir en raison d’un indice de fécondité d’environ 1,5 enfants par femme. En Chine, la politique de l’enfant unique a, depuis plusieurs décennies, fortement réduit l’indice de fécondité à un niveau qui ne permet plus de renouveler les générations. La population chinoise en âge de travailler, qui est déjà en train de décroître, devrait être inférieure de 220 millions en 2050 par rapport à ce qu’elle est aujourd’hui d’après l’INED. À cette date, la population des États-Unis devrait approcher les 400 millions.

Alors que, en cette fin d’année 2023, la zone euro entre en récession et que la plupart des pays développés décrochent depuis 20 ans en termes de richesse par habitant par rapport aux États-Unis (graphique 3) la question à se poser ne devrait pas être celle du déclin de l’empire américain, mais plutôt celle de savoir pourquoi l’Europe, dans son ensemble, s’avère incapable d’afficher un dynamisme économique comparable à celui des États-Unis, et de comprendre pourquoi le PIB par habitant de la zone euro y est presque deux fois plus faible[6]. En octobre dernier le Financial Time le constatait crument : « l’avance de l’économie américaine sur celle de l’Europe […] devrait perdurer en 2024 et au-delà ». Autrement dit, l’hégémonie américaine est loin d’être terminée.

Graphique 3 : Évolution du PIB par habitant en parité de pouvoir d’achat (PPA) des principaux pays développés.

David Cayla

Références

[1] Source : Statistiques de l’ONU. PIB à prix courants, en dollars.

[2] La question sociale et le niveau extrêmement élevé des inégalités eux États-Unis pose naturellement la question de la permanence de la démocratie aux États-Unis que Todd soulevait dans son ouvrage. Il est néanmoins difficile de la traiter dans le cadre de cet article. Notons tout de même qu’en cas de réélection de Donald Trump, la stabilité de la société américaine et donc sa capacité à préserver son hégémonie pourraient être menacées.

[3] Le secteur manufacturier américain représente 11% d’un PIB de 25 460 milliards de dollars, soit une production de valeur ajoutée annuelle de 2800 milliards de dollars. En comparaison l’industrie allemande dans son ensemble représente 733 milliards de dollars, celle du Japon 846 milliards et celle de la Chine 5029 milliards. Ajoutons que le niveau technologique de la production industrielle chinoise est très inférieur à celui des trois précédents. Source : Banque mondiale : https://data.worldbank.org/indicator

[4] STEM est l’acronyme pour « science, technology, engineering, and mathematics ».

[5] On ne trouve aucun artiste européen dans le classement Spotify 2023 des dix artistes les plus écoutés sur la plateforme. Deux sont canadiens, deux sont colombiens, un est mexicain. Les cinq autres sont tous originaires des États-Unis.

[6] D’après la Banque mondiale, le PIB par habitant de la zone euro était de 40 755$ en 2022, contre 76 399$ pour les États-Unis. Autrement dit, un Américain bénéficie en moyenne d’un revenu annuel supérieur de 87% à celui d’un habitant de la zone euro. Évalué en parité de pouvoir d’achat pour supprimer les effets du taux de change, cet écart diminue à 35%.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)
La dérive machiste des Passport Bros

PLEIN SOLEIL, RENÉ CLÉMENT (1960)

Chronique

PLEIN SOLEIL, RENÉ CLÉMENT (1960)

Avis aux nostalgiques de l’été ! Quelle que soit la saison, Plein Soleil est un voyage vers l’Italie, vers les flots enivrants de la Méditerranée et son soleil chaud. Le film culte de René Clément est aussi l’acte de naissance d’une icône du septième art : Alain Delon. Révélé et consacré par Plein Soleil, l’acteur né y apparaît déjà au sommet de son talent.

L’automne étant désormais bien entamé, l’hiver s’approche dangereusement. Pour les éternels nostalgiques de la belle saison, la perspective est difficile sinon pénible. Il n’est pourtant jamais trop tard pour s’échapper des rigueurs de l’arrière-saison, du moins pour s’y employer. Étant nettement de ces nostalgiques, j’ai ressassé mes souvenirs encore ensoleillés de cet été et j’ai eu vite fait d’en saisir un en particulier. La projection dans la Cour carré du Louvre, dans une atmosphère crépusculaire, du film culte de René Clément : Plein Soleil.

Organisée à l’initiative du Festival Paradiso(1), cette séance fut d’abord l’occasion de renouer avec le cinéma en plein air et sa convivialité, que je ne pensais pas si bien établi à Paris et en France par ailleurs. Elle fut surtout une invitation au voyage, en direction de l’Italie, pour suivre les pérégrinations d’un trio fameux du septième art, aussi libre comme l’air que profondément malsain. L’intrigue, René Clément la puise dans le polar Monsieur Ripley (1950) de la romancière américaine Patricia Highsmith et il choisit, pour l’incarner, trois jeunes acteurs depuis lors entrés dans la postérité, l’un d’eux plus que tout autre. À 24 ans, Alain Delon se révèle en effet totalement dans le rôle de Tom Ripley. Individu a priori sans importance, il est engagé par un milliardaire américain pour ramener son fils Philippe Greenleaf – joué par Maurice Ronet – parti pour des vacances mondaines et semble-t-il sans fin en Italie. Tantôt bouffon, tantôt confident, Tom est l’homme à tout faire de l’existence oisive de Philippe et fait rapidement office de conciliateur dans sa relation tourmentée avec sa maîtresse Marge, interprétée par l’actrice et chanteuse Marie Laforêt, décédée en 2019. Le cadre du thriller est posé : un ambitieux subordonné et avide, un nanti frivole et imprudent, une amante fragile et convoitée. Au fil des allées et venues, de Rome à Taormine, et de traversées plus ou moins heureuses sur le magnifique voilier de Philippe, le désir aveugle de Tom se fait grandissant, excité par les humiliations qu’il subit. Sans tarder, une pensée terrible s’impose à son esprit : s’emparer de la place de Philippe. À lui l’argent, le voilier, Marge et les vacances ! Après tout, il les a suffisamment côtoyés pour s’approprier leurs façons précieuses. Parler en maître ? il apprendra. Contrefaire des signatures ? il s’entrainera.

Quelle que soit la saison, Plein Soleil est donc un voyage vers les flots enivrants, parfois inquiétants de la Méditerranée. S’y plonger, c’est aussi remonter aux plus belles années d’une collaboration artistique féconde entre la France et l’Italie, un mariage cinématographique dont découle la production commune d’environ 2000 films(2)  ! Italophone, Alain Delon y contribuera largement puisqu’après Plein Soleil, alors que sa carrière s’envole, il enchaînera les grands succès franco-italiens : Rocco et ses frères de Luchino Visconti (1960), L’Éclipse de Michelangelo Antonioni (1962), Mélodie en sous-sol d’Henri Verneuil (1963), Le Guépard de Visconti encore (1963), Le Samouraï de Jean-Pierre Melville (1967), La Piscine de Jacques Deray (1968), Le Clan des Siciliens d’Henri Verneuil de nouveau (1969), ou encore Borsalino de Jacques Deray (1970). Une liste non exhaustive… Franco-italien, Plein Soleil ne l’est pas uniquement par sa production puisque c’est l’immense Nino Rota qui en composera la bande originale. La musique du compositeur de Fellini et de Visconti, de celui qui imprimera dans la mémoire auditive populaire les airs lancinants de la trilogie de Coppola Le Parrain, magnifie déjà dans Plein Soleil les scènes, les visages et les émotions. Et quand les images s’effacent, que les souvenirs s’estompent, ce sont les mélodies qui parfois demeurent et nous accompagnent nostalgiquement.

Nostalgique… Alain Delon doit l’être certainement lorsqu’il repense à ces années glorieuses et leur ribambelle de rencontres et de collaborations. De la vie folle qui sera la sienne, Plein Soleil est l’acte de naissance. Trois ans plus tôt, il n’est encore « que dalle », si ce n’est un quidam revenu d’Indochine. En 1960, il est connu du monde entier ! Cette notoriété, Delon ne l’a pas volée, il l’a conquise bien conscient de son talent et de sa beauté altière. Initialement prévu pour jouer le rôle de Philippe Greenleaf dans Plein Soleil, il parviendra à décrocher celui de Tom Ripley, convaincu d’être le meilleur à cette place. Paradoxalement, à l’entendre, cette vie de conquêtes s’est faite tout naturellement, comme l’application d’un conseil simple prophétique que lui donnera le réalisateur Yves Allégret dans son premier film : « Ne joue pas. Regarde comme tu regardes. Parle comme tu parles. Écoute comme tu écoutes. Fais tout comme tu le fais. Sois toi, ne joues pas, vis ! »(3).  

L’acteur né aime à dire qu’il a été un premier violon dirigé par des Karajan, référence au chef d’orchestre mythique de l’orchestre philharmonique de Berlin, Herbert von Karajan. Voilà une métaphore qu’on veut bien lui accorder. Les polémiques et propos déplorables n’y changeront rien. Alain Delon est et demeure une icône absolue du cinéma français, un premier violon qui aura interprété parmi les plus belles partitions. Plein Soleil est son premier solo.

Références

(1) https://www.mk2festivalparadiso.com/fr.

(2)  V. https://www.liberation.fr/debats/2019/10/09/france-italie-un-mariage-tres-cinematographique_1756579/ qui revient sur le premier accord officiel de coproduction cinématographique entre la France et l’Italie du 19 octobre 1949.

(3)  Cité dans https://www.radiofrance.fr/franceinter/podcasts/france-inter/alain-delon-le-monstre-sacre-7676489.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)
La dérive machiste des Passport Bros

Peut-on financer la transition écologique par l’émission de monnaie « sans dette » ?

Chronique

Peut-on financer la transition écologique par l’émission de monnaie « sans dette » ?

Un certain nombre de personnalités et d’économistes affirme que les montants faramineux nécessaires pour organiser la transition écologique pourraient être payés sans coût en instaurant un mécanisme de création d’une monnaie « libre », sans endettement. Dans sa chronique mensuelle, David Cayla conteste cette solution et met en garde la gauche contre les promesses illusoires qui entendent nier le coût pour les ménages du financement de la transition.

En février 2021, en pleine pandémie de Covid, 150 économistes et personnalités européennes, dont Thomas Piketty et l’ancien ministre belge Paul Magnette, signaient une tribune dans Le Monde ainsi que dans d’autres journaux pour demander à la BCE d’annuler la part de la dette publique qu’elle détenait en échange d’un montant similaire d’investissements « dans la reconstruction écologique et sociale ». La proposition avait tournée court, Christine Lagarde ayant répondu dès le lendemain qu’une telle mesure était « inenvisageable » et qu’elle violerait les traités européens.

Savoir si annuler la dette publique détenue par la BCE est contraire ou non aux traités est une question à laquelle il est difficile de répondre tant que les autorités compétentes (en l’occurrence la Cour de justice de l’Union européenne) ne l’ont pas tranchée. Ce qui est certain, en revanche, c’est que les traités garantissent à la BCE une parfaite indépendance dans l’application d’un mandat dont l’élément principal est la stabilité des prix. De ce fait, lorsque l’inflation en zone euro a franchi la barre des 2% au cours de l’été 2021, il n’était plus du tout question d’exiger de la BCE d’assouplir sa politique monétaire.

Le reflux de l’inflation qu’on constate depuis quelques mois pourrait-il être l’occasion de relancer ce débat ? Cela semble être le cas puisque plusieurs voix se sont faites à nouveau entendre récemment à ce sujet.

Interrogé lors de la matinale de France Inter le 19 octobre dernier à l’occasion de la sortie de son dernier ouvrage, le banquier d’affaire Matthieu Pigasse estime par exemple que la seule manière de répondre aux besoins sociaux et écologiques serait « de faire plus de création monétaire ».

« Une part très importante de la dette publique française, de l’ordre d’un tiers, est détenue par la BCE et la Banque de France. Cette dette pourrait très facilement être annulée sans aucun effet négatif économique ou financier. […] On peut créer plus de monnaie pour financer les grands programmes d’investissement, pour la transition énergétique, pour le climat ou pour construire des écoles ou des hôpitaux d’une part, et d’autre part pour distribuer un revenu minimum. C’est ce qui a été fait pendant la crise du COVID. Le fameux ‘‘quoi qu’il en coûte’’, les centaines de milliards qui ont été versés sur l’économie française l’ont été en réalité non par de la dette mais par de la création monétaire. »

Quelques jours plus tard, dans une chronique publiée par Le Monde, l’économiste Jézabel Couppey-Soubeyran, cosignataire de la tribune de 2021 renchérissait dans la même logique en citant justement Pigasse. Comment faire pour financer les investissements non rentables de la transition écologique tels que la collecte des déchets océaniques ou la création de réserves de biodiversité, s’interroge-t-elle ? Le creusement de la dette ou la hausse de la fiscalité n’étant selon elle pas possible, « c’est donc vers une forme nouvelle de création monétaire, sans dette, qu’il faut se tourner pour financer l’indispensable non rentable ».

Le raisonnement est similaire, enfin, pour Nicolas Dufrêne, fonctionnaire à l’Assemblé nationale et directeur de l’Institut Rousseau, également cité par Couppey-Soubeyran. Dans La Dette au XXIe siècle. Comment s’en libérer (Odile Jacob), il dénonce « le discours parfois dogmatique de la gauche selon lequel il est nécessaire de taxer les riches et les entreprises pour faire du social » (p. 175). Dufrêne estime également que creuser la dette publique serait insoutenable, puisque la charge de la dette pourrait, selon lui, dépasser les 100 milliards d’euros à l’horizon 2030 (p. 44), on comprend assez vite qu’il faut trouver d’autres moyens pour financer la transition écologique et le bien être social. Et pour ce faire, la « solution » est simple : créer de la monnaie et annuler les dettes publiques détenues par la BCE. En effet, pour Dufrêne, « l’annulation est indolore » et permettrait de mettre en œuvre un « plan d’investissement gratuit » (p. 189).

De l’argent magique à l’économie magique

La lecture du livre de Dufrêne est édifiante. Son auteur est manifestement persuadé d’avoir trouvé la martingale économique ultime. Les conservateurs qui critiquent son idée seraient des esprits étroits, incapables de penser « en dehors du cadre ». « La monnaie est une institution sociale, elle est donc un peu ‘‘magique’’ par nature puisqu’elle repose sur la confiance du corps social et non sur des limites physique » écrit-il (p. 178). Dès lors, il suffirait de « permettre au Parlement de décider d’une introduction régulière d’une certaine somme de monnaie libre de dette de manière ciblée sur des tâches d’intérêt général » pour « redonner ses lettres de noblesse à la politique économique » (p. 179). « Soyons audacieux » s’enflamme-t-il plus loin dans la même page : « À terme, il ne serait pas impossible d’imaginer une complète disparition de l’impôt comme moyen de financer les dépenses publiques ».

Mazette ! La logique est imparable. Puisque la création monétaire est susceptible de financer tout ce dont nous avons besoin, et puisqu’on peut créer de la monnaie sans limite et autant qu’on le juge nécessaire, alors laissons le Parlement financer tout ce dont rêve la gauche.

« Une fois le mécanisme rodé, il pourra monter en puissance et prendre une part plus importante dans le financement des dépenses publiques, voire des dépenses sociales. Il pourra alors servir de socle à des projets ambitieux dont la simple évocation se heurte pour l’instant à des considérations insurmontables, au regard de leur coût potentiel sur les finances publiques : un revenu universel, une garantie d’emploi généralisé, une sécurité sociale de l’alimentation permettant à chacun de se nourrir de produits bio, une protection généralisée des biens communs à l’échelle nationale, voire mondiale » (p. 180).

Dans la logique de la « monnaie libre » telle qu’elle est imaginée par Dufrêne, les contraintes de financement n’existent pas et l’impôt n’est donc plus nécessaire. On peut ainsi tout avoir sans payer. « Il s’agit de passer d’une vision où l’on considère que les finances publiques ne sont qu’un moyen de mettre en commun et de répartir les richesses créées par l’activité des citoyens et des entreprises à une vision où les finances publiques deviennent l’un des moteurs de la création de cette richesse, sans avoir à piocher dans la richesse créée par les citoyens et les entreprises » (p. 180). « Notre proposition de monnaie libre revient à donner à l’État, c’est-à-dire à la collectivité, les moyens de s’en sortir par elle-même, sans avoir à contraindre qui que ce soit, du moins par (sic !) pour des raisons tenant à l’obligation de financement des dépenses publiques » (p. 182).

Le rêve et la réalité

Arrivé à ce stade du raisonnement, le lecteur bien intentionné ne peut être que perplexe. Il serait donc possible de financer des centaines de milliards d’euros d’investissement sans que cela ne coûte rien à personne ? Sans travailler davantage et sans réduire ses revenus ? Par le simple mécanisme de la création monétaire ? Si c’était vrai et si les économistes le savaient, alors ce serait un véritable scandale. Le plus étrange dans cette affaire est que ce soit un non-économiste qui révèle le pot-au-rose. La conjuration des économistes aurait-elle empêché l’humanité de se libérer de la dette de manière définitive alors que la solution était évidente ? Émettre de la « monnaie sans dette », de la « monnaie libre ». Avec un peu de chance on, pourrait même se passer de travail puisque l’argent, qu’on peut créer de manière illimitée, travaillerait pour nous.

Revenons sur terre. Et pour cela, revoyons quelques bases concernant le fonctionnement de l’économie.

La première chose qu’il faut dire c’est que la monnaie n’est pas de la richesse. En économie, on peut raisonner à plusieurs niveaux en étudiant les flux « monétaires », les flux « financiers » ou les flux « réels ». Les flux réels sont constitués des biens et des services que nous produisons et que nous échangeons. C’est ce qu’on appelle la richesse. Quant à la monnaie, elle représente et elle quantifie la richesse, mais elle n’en est pas elle-même. En effet, elle n’a de valeur que dans la mesure où elle peut être convertie en richesses réelles. On peut ainsi observer que dans une transaction marchande classique il y a bien deux flux de nature différente. Un flux « réel » qui va du vendeur vers l’acheteur (c’est la marchandise), et un flux monétaire qui va lui de l’acheteur vers le vendeur.

Pour appréhender les conséquences de cette représentation, il suffit de revenir aux propos cités plus haut. Pourrait-on, en créant de la monnaie « libre », instaurer « une sécurité sociale de l’alimentation permettant à chacun de se nourrir de produits bio » ? Si l’on a une vision naïve de l’économie, on pourrait croire qu’en donnant suffisamment de monnaie aux consommateurs, ces derniers pourraient acheter une quantité potentiellement illimitée de produits bios. Le problème est qu’on ne peut acheter avec de la monnaie que des biens qui ont été produits dans la sphère réelle. Or, pour produire des aliments bios il faut des terres, des agriculteurs et du travail.

D’après une étude du ministère de l’agriculture, les rendements par hectare de l’agriculture biologique sont entre 28 et 57% inférieurs à ceux de l’agriculture conventionnelle. Cela signifie qu’en convertissant en bio l’ensemble des surfaces cultivées, la France diminuerait de plus d’un tiers sa production agricole. Donc sauf à recourir massivement à des importations, on ne pourra pas nourrir tout le monde. Comment la création monétaire pourrait-elle résoudre ce problème ? La réponse est simple : elle ne le peut pas.

Ni l’économie ni la monnaie ne sont « magiques ». Tout ce qui est vendu et consommé est nécessairement le résultat d’une transformation productive. Cette transformation a un coût « réel ». Le travail, le temps, les matières premières, les ressources qui ont été nécessaires à la production. Si les produits bios sont plus chers en monnaie que les produits de l’agriculture conventionnelle, c’est pour une raison qui tient à la sphère réelle. C’est tout simplement parce que pour produire une tomate bio il faut plus de terre et de travail que pour produire une tomate conventionnelle.

Au XVIe siècle, les élites espagnoles avaient une vision bullioniste de l’économie. Elles pensaient que la richesse d’une nation était strictement dépendante des quantités d’or et d’argent qu’elle détenait. C’est pour cela que les colonies espagnoles du Nouveau monde avaient pour principal objectif d’exploiter les mines d’or et d’argent qui s’y trouvaient. Pourtant, en dépit des flux de métaux précieux considérables qui se déversèrent sur l’Espagne à cette époque, le pays s’est globalement appauvri durant la période coloniale.

Le coût réel de l’investissement

Dans une économie, la richesse réelle a différents usages. Elle peut être consommée ou investie. Lorsqu’elle est consommée, elle est utilisée par les ménages au profit de leur propre bien-être. Lorsqu’elle est investie, elle est utilisée par l’État et les entreprises principalement pour améliorer le moyens de production, les bâtiments et les infrastructures productives.

D’un point de vue formel on peut résumer l’économie à cette équation simplifiée :

PIB = Consommation + Investissement

Dans toute société, un arbitrage existe entre consommer et investir. En termes réels, ce choix se traduit de la manière suivante : soit on investit des ressources, du travail et du temps pour produire des machines et des bâtiments productifs, soit on décide que ces ressources et ce temps doivent être consacrés à la consommation. À moins de penser que les ressources naturelles et le temps de travail soient illimités, ce qui est absurde, on ne peut pas à la fois augmenter l’investissement et la consommation. De fait, augmenter la masse monétaire ne changera pas les données de cette équation. Si vous avez une main d’œuvre, vous pouvez soit lui faire produire des biens de consommation, soit lui faire produire des biens de production. Mais vous ne pouvez pas créer ex nihilo de nouveaux travailleurs, pas plus que vous ne pouvez faire apparaitre du pétrole et des terres cultivables.

On sait que la transition écologique va nécessiter un énorme effort collectif d’investissement. Concrètement, cela signifie qu’il va falloir rénover notre parc de logements, construire de nouvelles voies de chemin de fer, décarboner notre système énergétique. Il faudra changer presque tous nos véhicules, remplacer nos centrales électriques à gaz et à charbon, produire de l’acier sans charbon… Tout cela aura un coût réel considérable. Des millions d’emplois devront être consacrés à construire concrètement ces investissements. Des ressources énergétiques et des matières premières devront être orientées à cet usage. Le problème est que toutes les ressources qui seront consacrées à produire davantage de biens d’investissements ne pourront être utilisées pour produire des biens de consommation. Autrement dit, pour organiser la transition écologique il va falloir réorienter notre économie vers plus d’investissement et moins de consommation.

À partir de là, deux scénarios sont possibles. Si l’on est optimiste, on peut se dire que la croissance suffira à rendre indolore la transition écologique pour les ménages. Cela suppose que la croissance du PIB soit entièrement consacrée à augmenter l’investissement sans prélever sur la consommation des ménages. Le problème est que, dans ce cas, le rythme de la transition sera dépendant du niveau de croissance économique. Or, celle-ci n’est pas assurée. Aussi, le scénario le plus réaliste et le plus responsable serait de ne pas trop compter sur la croissance. Dans ce cas, pour s’assurer que les investissements soient réalisés le plus rapidement possible, il faudra réorienter des ressources productives de la consommation vers l’investissement. Cela se traduira, sur le plan monétaire, par une baisse des revenus et du pouvoir d’achat des ménages.

Aucune solution magique n’existe pour résoudre les paramètres de cette équation. La transition écologique sera d’autant plus rapide et efficacement mise en œuvre que le pouvoir d’achat des ménages sera globalement réduit. Ainsi, la seule manière d’organiser politiquement cette réduction et d’y introduire un minimum de justice sociale sera de faire en sorte que les ménages les plus aisés supportent l’essentiel de cette baisse. Et la façon la plus simple de baisser le pouvoir d’achat des catégories aisées c’est encore par la fiscalité. Pardon de tenir un « discours dogmatique », mais promouvoir de fausses solutions aux naïfs est encore le moyen le plus sûr de ne jamais organiser une transition écologique ambitieuse.

Lire aussi...

The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)
La dérive machiste des Passport Bros

Comment les prix de l’énergie sont devenus fous

Chronique

Comment les prix de l’énergie sont devenus fous

Dans son dernier ouvrage sorti le 6 octobre dernier, Aurélien Bernier brosse le portrait d’une crise énergétique, conséquence non de l’invasion russe de l’Ukraine, mais bien de l’aveuglement et du dogmatisme de nos classes dirigeantes, lesquelles n’ont eu de cesse de détruire le service public de l’énergie au nom de la libéralisation, du marché unique et de la concurrence libre et non faussée. Le résultat est que les Européens disposent d’un système de production et de distribution de l’énergie coûteux, opaque et inefficace.

Le 4 octobre dernier, le gouvernement allemand annonçait un nouveau recul de ses objectifs climatiques en renonçant provisoirement à fermer ses centrales au lignite (un type de charbon très polluant). L’argument avancé était que cette réserve de production d’électricité devait pouvoir être activée en cas de pic de consommation afin « d’économiser du gaz dans la production ». Mais le plus important était surtout que le gouvernement allemand espérait que cette décision permette de maintenir un prix de l’électricité bas pendant l’hiver. Il faut dire que depuis l’invasion russe de l’Ukraine, le gaz importé coûte beaucoup plus cher, en particulier parce qu’il ne passe plus par des gazoducs mais par des plateformes de gaz naturel liquéfié (GNL) ; il faut donc trouver des expédients pour éviter l’explosion des factures qui ne sont bonnes ni pour le moral des ménages, ni pour la compétitivité des entreprises.

Comble de l’ironie, quelques mois plus tôt ce même gouvernement avait annoncé la fermeture définitive de ses trois derniers réacteurs nucléaires dont les capacités de production, décarbonées, étaient pourtant plus de deux fois supérieures à celles des centrales au lignite maintenues (4 GW contre 1,9 GW).

La gestion de l’énergie, soulève de nombreuses questions, en Allemagne comme ailleurs en Europe. Comment organiser la transition énergétique à l’heure où les impératifs climatiques imposent la réduction de nos émissions de gaz à effet de serre ? Comment se passer de notre dépendance au gaz russe sans faire exploser les coûts de l’énergie ? Comment reprendre le contrôle sur les prix sans pour autant réactiver nos vieilles centrales à charbon ?

Préserver la souveraineté des politiques énergétiques

En réalité, la question qui englobe toutes les autres est celle de la souveraineté énergétique. Pour l’aborder, le dernier ouvrage d’Aurélien Bernier, L’Energie hors de prix est un guide salutaire. Pour commencer, il convient de poser quelques définitions. En premier lieu, lorsqu’on parle de souveraineté énergétique, de quoi parle-t-on exactement ? Comme le note très justement Bernier, « la France n’atteindra jamais la souveraineté énergétique » (p. 165). L’uranium, tout comme les énergies fossiles, sont massivement importés. Quant à la production d’énergie renouvelable et de batteries électriques, elle a besoin de composants eux aussi importés. Mais si la France ne devient jamais autonome en matière énergétique rien ne l’empêche de décider de l’organisation de la production et la distribution de l’énergie sur son territoire. C’est la souveraineté en matière de politiques énergétiques qu’il faut préserver. Comme l’expliquait la regrettée Coralie Delaume, la souveraineté est l’autre nom de la démocratie. Être souverain, c’est confier au peuple le pouvoir de décider de ses propres affaires. Or, « le principal obstacle à cette souveraineté en matière de politique énergétique, c’est le marché », note Bernier à juste titre (p. 165).

Ainsi, remettre l’énergie au cœur du débat et de la démocratie suppose de comprendre comment le marché s’est étendu au détriment du politique et de s’interroger sur les moyens de recouvrer le pouvoir de contrôler à nouveau la manière de répondre à nos besoins énergétiques. C’est tout l’intérêt du livre de Bernier que de décrire l’histoire de cette spoliation et, par effet de miroir, de comprendre ce qu’il faudrait faire pour l’inverser.

Le livre de Bernier s’inscrit dans un travail ancien, puisqu’il avait déjà publié un livre remarqué sur le sujet, Les Voleurs d’énergie (Utopia, 2018). Sans surprise, on trouve des éléments communs aux deux ouvrages, notamment dans les deux premiers chapitres qui abordent l’histoire des privatisations et leurs conséquences. Dans ce passage, comme dans le reste de l’ouvrage, Bernier étudie les secteurs du gaz et de l’électricité. Il n’aborde pas le sujet du pétrole et des carburants dont l’histoire a pourtant bien des points communs avec celle du gaz et de l’électricité (Total et Elf Aquitaine ont été des groupes publics avant d’être privatisés, puis fusionnés, et enfin se transformer en grands conglomérats transnationaux).

Deux éléments sont marquants dans cette histoire. Le premier, ce sont les aller-retours permanents entre régulation et dérégulation, entre objectifs de flexibilité et de sécurité. Bernier insiste sur le fait que la production et la distribution de gaz et d’électricité ont d’abord été confiées au secteur privé dans la plupart des pays du monde. Cependant, l’incapacité du privé à organiser une distribution généralisée de l’énergie et son inefficacité à assurer un service convenable ont conduit les gouvernements à nationaliser ou à sérieusement encadrer les systèmes de production et de distribution de l’énergie.

De plus, la conception qu’on a de la manière dont un marché doit fonctionner varie selon les époques. Ainsi, Bernier rappelle qu’au début de la libéralisation il fallait absolument limiter les contrats à long terme avec les pays producteurs de gaz afin de rendre le marché plus « liquide » (p. 87). Puis, lorsque la trop grande liquidité du marché de l’énergie a fait exploser les tarifs, il a fallu faire l’inverse et favoriser les contrats de long terme afin de sécuriser les prix. D’un côté on nous dit qu’un bon marché doit être fondé sur le « signal-prix », censé permettre les adaptations mutuelles de la demande et de l’offre (et on crée des bourses de l’énergie pour cela), de l’autre dès qu’une crise importante survient et que les prix deviennent fous, on propose davantage de régulation et de contrats à long terme, et on autorise les gouvernements à subventionner l’énergie au nom de la compétitivité des entreprises et de la paix sociale.

Le rôle central de l’idéologie néolibérale

Le second élément qui ressort de la synthèse historique proposée par l’auteur est le rôle central de l’idéologie et de la politique dans la libéralisation des marchés de l’énergie. Faut-il le rappeler ? Un marché n’existe pas « naturellement ». Il doit être pensé, créé, mis en œuvre. Tout cela nécessite une puissante volonté politique qui s’inscrit dans la durée. En l’occurrence, c’est la force de l’idéologie néolibérale d’avoir mis au cœur de son projet politique la gestion marchande de l’énergie. Depuis la libéralisation chilienne des années 1970 sous Pinochet, jusqu’à celle de l’Union européenne dans les années 1990-2000, en passant par la libéralisation thatchérienne au Royaume-Uni, il y a plus qu’une continuité. Les mêmes penseurs et les mêmes principes sont à l’œuvre, comme le souligne l’auteur (p. 25). On regrettera toutefois l’usage impropre de qualificatifs tels que « ultralibéraux » (p. 23) pour parler des Chicago boys, ces économistes chiliens formés par Milton Friedman. De même, qualifier de « libérale » l’idéologie qui a conçu cette forme de libéralisation est extrêmement réducteur. En effet, le libéralisme traditionnel entend organiser le retrait de l’État de l’économie et conçoit le marché comme une institution naturelle. Or, ce que démontre les exemples des marchés du gaz et de l’énergie, c’est qu’absolument rien n’est « naturel » dans les dispositifs choisis. Ces derniers ne sont pas libérés de l’État ; c’est lui (ou plutôt l’Union européenne pour le cas de la France) qui a instauré ces marchés et leurs systèmes de régulation et qui l’organise selon des critères très précis censés à la fois produire des signaux-prix pertinents, organiser la transition écologique ou encore préserver la concurrence.

La forme qu’a pris la libéralisation des marchés de l’énergie n’a donc rien de « libérale », contrairement à ce qu’écrit Bernier. C’est du néolibéralisme à l’état pur. Par ailleurs, tout en étant mue par des considérations politiques et idéologiques extrêmement fortes, ce qui est largement souligné dans l’ouvrage, la transformation de la gestion et de la distribution de l’énergie n’a fait l’objet d’aucun débat démocratique. C’est dans les arcanes de Bruxelles et à l’issue de négociations opaques entre États que les marchés de l’énergie ont été libéralisés de la manière dont ils l’ont été. Et ce sont d’ailleurs les mêmes négociations opaques qui se tiennent à l’heure actuelle et promettent de tirer les leçons de la crise de 2022. À aucun moment les citoyens n’ont été directement consultés sur la forme que devait prendre la gestion de l’énergie. Et c’est toujours sans consultation des populations que l’on réforme aujourd’hui le marché de l’électricité ou que l’on engage d’importants investissements pour construire de nouveaux terminaux méthaniers.

Une libéralisation complexe et opaque

On répondra que tout cela est beaucoup trop complexe pour être arbitré par de simples citoyens. C’est parfaitement exact. Rien n’est plus compliqué que le fonctionnement actuel des marchés de l’énergie. Mais d’où vient cette complexité ? Du temps des monopoles publics d’EDF et de GDF, la chose était plutôt simple. Nul besoin, alors, d’un régulateur, d’un médiateur, de négociations franco-allemandes interminables. Le responsable de l’approvisionnement en énergie des ménages et des entreprises était le ministre de tutelle des monopoles publics. Pas besoin, dans un monopole public, d’une bourse de l’énergie ou d’une gestion des producteurs d’électricité en fonction du « merit order »(1), c’est-à-dire de leur coût de production marginal. Inutile d’organiser un « marché de capacités » (p. 105) pour éviter le blackout en période de pointe ; pas besoin de revendre à un tarif privilégié une partie de l’électricité nucléaire aux distributeurs dans le cadre de l’ARENH (accès régulé à l’électricité nucléaire historique). Et surtout, comme le souligne très bien Bernier, le monopole d’Etat est sans doute l’instrument le plus sûr pour organiser des politiques publiques de l’énergie, par exemple pour décarboner nos usages, protéger la population de l’inflation ou trouver des recettes publiques permettant de financer des projets gouvernementaux (p. 85). Avec le monopole public de l’énergie, on sait qui décide et qui est responsable des dysfonctionnements. Avec les marchés actuels de l’énergie, chacun peut s’exonérer de sa propre responsabilité et les défaillances deviennent systémiques.

Lire : Comment et pourquoi le marché européen de l’électricité a déraillé.

En fin de compte, si la libéralisation de l’énergie s’est avérée d’une incroyable complexité, c’est sans doute parce que la gestion privée d’un service aussi essentiel que l’approvisionnement énergétique n’a rien d’évident. On n’a pas libéralisé pour plus de performances ou davantage de transparence, mais on a réduit les performances et opacifié le système pour rendre la libéralisation possible. Comme le souligne l’économiste et ancien dirigeant d’EDF Marcel Boiteux, cité par l’auteur, « Il ne s’agit plus d’ouvrir la concurrence pour faire baisser les prix mais d’élever les prix pour permettre la concurrence »(2).

On comprend à la lecture du livre d’Aurélien Bernier que la complexité est au cœur des stratégies de libéralisation. Ainsi, le prix de l’électricité est le produit d’une architecture fondée sur une combinaison de prix dont chacun remplit un rôle spécifique. Car, contrairement à ce qu’on pourrait penser, les prix de gros sur le marché de l’électricité, celui auquel s’approvisionnent les distributeurs, n’est pas le simple résultat des rapports de force entre offreurs et demandeurs. « Au bout du compte, écrit Bernier, le prix de bourse de l’électricité empile le prix de la production (en grande partie celui des centrales au gaz), le prix du mécanisme de capacité, le prix du carbone. Pour peu que l’offre soit ‘‘verte’’, on ajoute le prix de la garantie d’origine. Avec de la spéculation à chaque étage » (p. 106).

Et ce n’est pas fini. Car le prix de marché n’est pas celui que paie le consommateur. Pour retrouver le prix des factures il convient d’ajouter les tarifs des organismes publics qui gèrent les lignes haute et basse tension (RTE et Enedis), les coûts de la quarantaine de distributeurs qui se livrent une guerre commerciale elle aussi très coûteuse en dépenses de communication et en démarchages en tous genres, le coût de la régulation et des institutions publiques de médiation qui visent à informer les consommateurs perdus dans la jungle des tarifs et des pratiques commerciales douteuses… et bien sûr le coût des taxes diverses dont la fameuse « Contribution au Service Public d’Electricité » qui, c’est le comble de l’ironie, date justement de l’époque où le service public a été abrogé. « Tout ceci pour avoir le ‘‘choix’’ entre des détaillants qui vendent presque tous la même marchandise », note Bernier avec malice (p. 80).

Quelles leçons tirer de la crise de 2022 ?

Cette véritable cathédrale de complexité conçue au nom de la libéralisation du marché de l’énergie a complètement disjoncté en 2022. Le gaz russe s’étant soudainement arrêté de circuler dans les gazoducs, les prix du gaz et de l’électricité ont atteint des sommets délirants, menaçant la survie d’une grande partie du secteur industriel et productif. Que s’est-il passé à ce moment-là ? Le livre d’Aurélien Bernier permet d’entrer dans le détail de cette histoire et de déconstruire quelques mythes.

Première leçon : si l’invasion russe de l’Ukraine a incontestablement renforcé la crise européenne de l’énergie, elle n’en est pas à l’origine. Les prix avaient commencé à augmenter bien avant, en réalité dès l’été 2021, au moment de la reprise post-covid. Ainsi, dès le mois d’octobre, certains fournisseurs alternatifs, sentant le vent tourner, avaient décidé de se retirer du marché. C’est le cas par exemple du danois Barry Energy qui promettait de mettre en place une tarification dynamique. Le principe étant que le prix payé par l’usager est indexé sur le cours du marché de gros. La tarification dynamique a été rendue possible par l’introduction du compteur Linky qui peut déterminer la consommation d’un foyer en temps réel et donc modifier la tarification à chaque instant. Comme le souligne Bernier, cela revient à « reporter une grande partie du risque boursier sur l’abonné » (p. 145).

L’offre de Barry Energy n’a de sens que dans un contexte où les cours boursiers sont en moyenne inférieurs au tarif régulé. Or, ce n’était déjà plus le cas six mois avant l’invasion russe de l’Ukraine, et c’est ce qui explique que ces tarifs n’ont pas encore été proposés en France (ils existent dans d’autres pays). Si cette pratique devait se généraliser, on imagine que les clients de ces contrats devront jouer des interrupteurs plusieurs fois par jour en ayant les yeux rivés sur les cours de la bourse de l’électricité.

La deuxième leçon que l’auteur tire de la crise est qu’elle a donné lieu à un nombre incalculable de malversations de la part des fournisseurs alternatifs. Ayant acquis des quotas d’électricité à bas coût grâce au mécanisme de l’ARENH, certains fournisseurs ont cherché à se débarrasser de leurs clients en augmentant subitement leurs tarifs ou en leur conseillant de repasser chez EDF. Grâce à cette manœuvre, ils pouvaient revendre au prix fort à EDF l’électricité qu’ils lui avaient acheté au tarif de 42€ le MWh (p. 115). Aurélien Bernier souligne que ces opérations sont parfaitement légales, puisque certains fournisseurs tels Mint Energie n’hésitent pas à s’en vanter auprès de leurs actionnaires (p. 118). Au passage, si les fournisseurs alternatifs les plus malins ont pu profiter de la crise pour revendre très cher une électricité achetée à bas prix à EDF, l’entreprise publique a, pour sa part, perdu beaucoup d’argent, un fait qui aurait mérité d’être davantage souligné dans l’ouvrage.

Troisième leçon de la crise, le marché s’avère incapable de produire les bons investissements et d’anticiper les crises. Dans le cas du gaz, l’épuisement progressif des gisements de la Mer du Nord n’a pas conduit les fournisseurs européens à diversifier leurs sources d’approvisionnement. Au contraire, ils ont laissé la Russie développer ses propres infrastructures d’exportation, ce qui a amplifié les conséquences de la rupture de l’approvisionnement russe. Pour ce qui concerne les investissements dans la production d’électricité, ils vont prioritairement là où les prix sont les plus élevés. Or, pour que les prix de l’électricité soient élevés, il faut que le système de production se retrouve régulièrement à la limite du blackout. Du fait de sa conception, le marché européen de l’électricité ne peut rémunérer les producteurs à des tarifs élevés que dans la mesure où des centrales coûteuses sont mises en route en période de pic de demande. Ainsi, une surcapacité productive fait perdre beaucoup d’argent à l’ensemble des producteurs. Il faut donc absolument l’éviter… et donc sous-investir !

Enfin, la dernière leçon de la crise est que, si l’on en croit les experts qui conseillent la Commission européenne et le gouvernement français, il est urgent… de ne rien changer. Ainsi, pour la Commission, toute réforme du marché européen de l’électricité doit avant tout « préserver le cœur du marché intérieur ». Il en va de même pour l’économiste Jean-Michel Glachant qui publie fin 2022 une note de travail pour le Centre Robert Schuman où il affirme qu’« il serait irresponsable de casser ou de brider ce remarquable outil ». Quant à Nicolas Goldberg et Antoine Guillou, ils n’hésitent pas à juger, dans une note écrite pour le Think Tank de gauche néolibéral Terra Nova que « contrairement à ce qu’affirment certains acteurs économiques et politiques, sortir tout bonnement du marché européen de l’électricité serait contre-productif et même dangereux car il s’est révélé être un facteur de résilience indispensable en cas de crise et son fonctionnement envoie le bon pour équilibrer le réseau électrique à tout moment » (citations extraites des pages 151-153).

En fin de compte, ce que nous apprend la crise européenne de l’énergie c’est que le dogmatisme idéologique, le conservatisme des classes dirigeantes et certains intérêts bien compris se sont coalisés pour ôter à la population le droit de gérer son énergie en la baignant dans un environnement où les forces de la concurrence et du marché décident à la place du citoyen quels investissements doivent être faits et qui doit en bénéficier. Ce qui est sûr, c’est que ce n’est pas ainsi que nous parviendrons à relever les défis climatiques qui nous attendent ni à planifier la décarbonation de nos économies. Mais tant que le marché produit le « bon » signal-prix, nous sommes sauvés !

David Cayla

 

Références

(1)Voir David Cayla « Comment et pourquoi le marché européen de l’électricité a déraillé », Le Temps des ruptures.

(2) Marcel Boiteux « Les ambiguïtés de la concurrence. Electricité de France et la libéralisation du marché de l’électricité », Futurible n° 331, juin 2007.

Lire aussi...

The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)
La dérive machiste des Passport Bros
Un tout petit effort pour ne rien rater …

Inscrivez-vous à notre newsletter