Pour un Régime agricole complémentaire

Pour un Régime agricole complémentaire

Alors que le groupe écologiste vient de déposer une proposition de loi visant à expérimenter la mise en place d’une sécurité sociale de l’alimentation, David Cayla estime que la protection d’une agriculture paysanne pourrait être assurée par un dispositif plus simple : la création d’un Régime agricole complémentaire (RAC) permettant de protéger une partie de l’agriculture française en constituant une filière vivrière protégée de la concurrence internationale.

L’annonce par Ursula von der Leyen de la finalisation de l’accord de libre-échange avec le Mercosur a sonné comme un affaiblissement politique de la France après sept années de présidence Macron. Pour autant, cette signature ne contrevient pas aux attributions de la Commission Européenne. Si l’accord est ratifié par le Parlement européen, il n’aura pas besoin d’être validé par l’Assemblée nationale et la France n’aura pas la possibilité de s’y opposer. La suppression des droits de douanes sur les produits agricoles venant du Mercosur et l’augmentation des quotas d’importation de viande bovine, s’appliqueront.

 

Peut-on protéger nos agriculteurs ?

Une fois ratifiés, les traités commerciaux s’imposent au sein du marché unique et donc à la France. Néanmoins, des marges de manœuvre existent pour les autorités françaises. La France, pays contributeur net au budget européen (ce qui signifie qu’elle verse davantage d’argent à l’UE qu’elle n’en reçoit) pourrait obtenir des avancés pratiques lui permettant de limiter les effets destructeurs des accords de libre-échange pour son agriculture.

Cette protection implique de sortir une partie de l’agriculture du marché unique. En effet, même si l’Union Européenne est responsable de l’organisation du marché unique, le fait est qu’elle ne définit pas clairement ce qu’est une marchandise. C’est là que se situe une faille que la France pourrait exploiter.

L’agriculture est incontestablement une activité marchande. Les agriculteurs sont en concurrence et produisent des biens qui ont vocation à être vendus selon le principe de l’offre et de la demande. Pour autant, il existe, dans d’autres secteurs, des exceptions au principe marchand. Certains biens et services échappent aux règles du marché unique en raison de leur caractère spécifique – c’est le cas de l’industrie de défense et de la culture (édition, cinéma, spectacle vivant, etc.) – ou parce qu’ils contribuent à la mise en œuvre d’un service public (secteur pharmaceutique, transport public…)

En élargissant à une partie de la production agricole ce principe d’exception, il serait possible de déroger aux règles actuelles. Une telle exemption pourrait être négociée au nom du principe de souveraineté alimentaire et en faisant de l’alimentation un service public. La France pourrait ainsi définir un secteur agricole non-marchand, le Régime agricole complémentaire (RAC) lui permettant d’organiser un véritable service public de l’alimentation.

 

Pour assurer la souveraineté alimentaire, instituer une agriculture non-marchande

Le RAC serait, comme son nom l’indique, un régime complémentaire réservé à la production agricole vivrière. Les produits agricoles émanant du RAC seraient vendus exclusivement au secteur public à des prix régulés ; ils ne seraient donc plus soumis aux règles de la concurrence. Les producteurs de ce secteur devraient répondre à des normes spécifiques convenues en amont avec les représentants des agriculteurs. Leurs ventes seraient garanties à la manière de ce qui existait du temps de la PAC, avant les réformes des années 1990.

L’objectif de la création de ce second secteur n’est évidemment pas d’imposer un modèle unique à toute la profession mais de le proposer aux agriculteurs volontaires. Ce régime serait limité aux produits agricoles vivriers et ne concernerait pas la production de produits agricoles industriels (textile, biocarburant…) ou de boissons alcoolisées. Cette filière aurait pour fonction d’assurer la souveraineté alimentaire des Français. Sa reconnaissance dans le droit européen pourrait faire l’objet de négociations au sein de l’UE. En effet, il ne s’agit pas de sortir des traités européens mais de créer une nouvelle filière agricole non marchande au nom de la préservation d’une agriculture paysanne à vocation vivrière.

À côté de ce secteur, une agriculture marchande fonctionnant sous le régime habituel subsisterait. Cette dernière resterait soumise aux règles du marché unique et aux traités commerciaux. Le secteur agricole conventionnel pourrait commercer avec l’étranger et bénéficierait des fonds de la PAC comme actuellement. Les outils de traçabilité des produits agricoles à usage alimentaire permettraient de distinguer clairement les productions des deux secteurs.

 

Que ferait l’État de ces produits agricoles ?

Deux options sont possibles pour la distribution. Une première option serait d’imposer aux transformateurs et aux distributeurs de racheter de manière prioritaire la production agricole non marchande. Mais cette option ne serait pas conforme au droit européen puisqu’elle donnerait un avantage décisif à la production agricole du RAC au détriment de la production émanant du secteur agricole marchand.

Une autre solution serait d’organiser une filière publique de production et de transformation. La production agricole du RAC serait ainsi orientée vers la restauration collective des écoles et des administrations publiques. Cette option est possible dans le cadre du droit actuel, la production non marchande pouvant alimenter un secteur de distribution non marchand. C’est ce qui se passe, par exemple, dans le secteur du médicament dont les prix sont régulés et qui alimente les hôpitaux et pharmacies.

En cas d’excès de production au sein du RAC, une partie de la production agricole pourrait être réorientée au profit de l’aide alimentaire et des associations caritatives au service des ménages. L’État pourrait également créer un système de distribution non marchand à destination des populations vulnérables. Enfin, en cas d’excédent persistant, une partie de la production pourrait être déclassée et reversée dans le secteur marchand au prix de marché, comme cela se passe parfois pour la filière bio.

 

S’appuyer sur les régions

Nous avons présenté le Régime agricole complémentaire en partant de l’idée d’organiser une filière agricole non marchande autour de l’État central. Pour autant, il pourrait être plus intéressant d’organiser le RAC par l’intermédiaire des régions. Cette forme de décentralisation encadrée par des règles communes permettrait d’inclure des normes de production fondée sur des savoirs-faires locaux et d’organiser des filières territoriales de transformation et de distribution.

Un système de RAC régionaux fonctionnerait à la manière des TER : des marchés séparés et organisés selon des cahiers des charges spécifiques, mais en connexion les uns avec les autres. Ainsi, les filières de distribution pourraient valoriser certains produits au sein d’autres RAC dans le cadre d’accords régionaux.

 

Engager le débat à gauche puis avec la société

Certains à gauche défendent un projet concurrent, la Sécurité sociale de l’alimentation. Une proposition de loi du groupe des Écologistes à l’Assemblée nationale a été déposée en ce sens le 12 février.[1].

Ce dispositif pose de nombreux problèmes pratiques qui fait qu’il a très peu de chances d’être mis en place concrètement. En effet, c’est un projet qui :

  1. Augmenterait les cotisations sociales de 100 à 200 euros par mois, entrainant une forte baisse du salaire net, ce qui est difficilement acceptable par nos concitoyens ;
  2. Ne prend pas suffisamment en compte le rôle de l’industrie de transformation dans les processus de conventionnement. Or, les Français achètent majoritairement des produits transformés. La consommation de produits bruts nécessite de savoir et de pouvoir les cuisiner. Même si on peut, à juste titre, considérer que cela serait bénéfique tant pour la santé que pour l’environnement, il est difficile d’imposer un retour à la cuisine pour de nombreuses familles qui n’en ont pas forcément le temps et les moyens.
  3. Nécessite de fortes subventions publiques.

Pour conclure, soulignons que le Régime agricole complémentaire est conçu comme un système contractuel et non comme une étatisation de l’agriculture. Les agriculteurs souhaitant participer à ce régime resteraient indépendants et pourraient librement le quitter. L’objectif de ce dispositif est avant tout d’assurer des débouchés et de garantir des prix décents pour la production vivrière de l’agriculture.

Cette proposition entend démontrer qu’il est possible de créer une filière agricole non marchande en contrepartie d’un cahier des charges négocié avec les agriculteurs mais ambitieux sur les plans alimentaire et écologique. Le droit applicable à ce régime correspondrait à celui du régime des services d’intérêt général qui autorise des subventions spécifiques et une régulation des prix.

Références

[1] https://www.assemblee-nationale.fr/dyn/17/dossiers/experimentation_securite_sociale_alimentation

 

suivez-nous sur les réseaux

#LTR

A lire aussi…

Lire aussi...

La gauche entre régression néolibérale et obsession identitaire

La gauche entre régression néolibérale et obsession identitaire

Alors que des forces du NFP cherchent à convaincre le président de la République de nommer un Premier ministre de gauche, David Cayla propose une analyse dure mais lucide de la situation électorale après les législatives 2024. Entre une gauche prête à accompagner le néolibéralisme et l’autre qui ne jure que par les affects, une voie est possible.

Les élections législatives de juillet dernier peuvent être interprétées de deux manières. La première est de considérer qu’après les échecs de 2017 et 2022, la création du NFP et l’union des partis de gauche derrière un programme commun lui ont permis de devenir la première force politique représentée à l’Assemblée nationale. Ce serait une victoire à laquelle le Président aurait dû « se soumettre » en nommant un Premier ministre issu du NFP.

Cette interprétation du résultat des dernières législatives est pourtant contestable. En effet, la victoire de la gauche doit beaucoup à la stratégie du front républicain qui a mécaniquement affaibli la représentation du Rassemblement national. Pour avoir une vision plus juste du poids réel des partis de gauche dans l’opinion, il faudrait plutôt regarder les scores du premier tour et les comparer avec ceux des élections précédentes.

Figure 1 : Évolution des rapports de force politiques au premier tour des élections législatives depuis 1993 en % des bulletins exprimés

 

La Figure 1 met en évidence deux phénomènes majeurs. Le premier est l’extraordinaire croissance de l’extrême droite depuis l’accession d’Emmanuel Macron au pouvoir. Alors qu’ils plafonnaient aux alentours de 12 à 15% depuis 1993 – l’année 2007 faisant exception – les partis d’extrême droite ont plus que doublé leur score dans la période récente. Ils sont ainsi devenus la première force politique du pays, obtenant cinq points de plus que la gauche et deux points de plus que l’addition de la droite et des macronistes.

Le second phénomène frappant est l’effondrement électoral structurel de la gauche. En 1993, cette dernière avait subi une défaite historique alors que son score était bien meilleur que celui qu’elle obtient aujourd’hui. Certes, l’expansion du bloc central a mécaniquement affaibli son poids électoral. Mais la politique d’Emmanuel Macron s’est beaucoup déportée à droite depuis 2017. Pourtant, les partis de gauche en ont très peu profité puisque leur score en 2024 était pratiquement le même que celui de 2022… et à peine 2,22 points supérieurs à celui de 2017.

Outre le fait que les forces de gauche ne progressent pas sur le plan électoral, on peut observer trois autres phénomènes apparus lors des derniers scrutins. Premièrement, l’exercice du pouvoir a affaibli le bloc central macroniste sans le faire s’effondrer ; deuxièmement, la droite classique s’est faite progressivement cannibalisée par l’extrême droite et le bloc central sans disparaître pour autant ; enfin, l’extrême gauche a pratiquement disparu des scrutins.

 

 

Pourquoi la gauche échoue-t-elle ?

Le niveau électoral très faible de la gauche dans son ensemble et son absence de progression réelle depuis 2017 impose une certaine lucidité. Contrairement à ce qu’affirment ses responsables, le NFP n’a jamais été en mesure de prendre le pouvoir. Plus grave, la seule force politique qui profite d’être dans l’opposition est l’extrême droite.

Faire un tel constat d’échec impose de ne pas en faire porter la responsabilité sur des facteurs externes. Il est tentant, et d’une certaine façon légitime, de dénoncer le rôle ambigu de la presse et des réseaux sociaux dans la montée de l’extrême droite. C’est d’autant plus tentant que la France n’est pas isolée et que l’extrême droite progresse dans la plupart des pays du monde. Néanmoins, une vision trop mécanique du rôle des médias est assez vaine. Si Vincent Bolloré et son empire médiatique ont obtenu l’influence qu’ils ont aujourd’hui, ce n’est pas simplement grâce au talent de leurs journalistes et animateurs. C’est aussi parce que ces médias rencontrent une opinion qui est prête à les écouter et à adhérer à leurs messages, chose que la gauche parvient de moins en moins à faire.

Pourquoi échoue-t-elle à convaincre ? En premier lieu, parce qu’elle a déçu. À ce titre, on ne peut faire l’économie d’une analyse lucide du mandat catastrophique de François Hollande. Car cet échec n’est pas un accident. Il a été préparé par d’autres échecs, celui de Lionel Jospin, et ceux de François Mitterrand avant lui.

Pour comprendre pourquoi la gauche subit systématiquement une lourde défaite après avoir exercé le pouvoir, il convient de revenir au contenu des politiques menées et sur l’ambiguïté de son discours et de ses pratiques. Le NFP prétend incarner les classes populaires, mais la sociologie de son électorat n’a cessé de s’en éloigner. Celle-ci est aujourd’hui essentiellement composé des catégories moyennes déclassées et diplômées qui habitent dans les métropoles et les centres-villes. Si elle parvient à subsister dans certains quartiers populaires urbains, elle a totalement disparu des campagnes et des petites villes au profit de l’extrême droite. Longtemps présente dans le nord industriel, elle en est progressivement balayée. À ce titre, l’échec de Fabien Roussel et l’élection très difficile de François Ruffin en juillet dernier dans leurs circonscriptions respectives témoignent du fait que l’éviction de la gauche de ses bastions historiques se poursuit et que le décalage entre la gauche parlementaire et les populations qu’elle entend représenter s’approfondit.

 

 

Une gauche néolibérale dépassée

La gauche n’a pas fait fuir les ouvriers sans raison. Elle a, aux yeux de nombre d’entre eux, accompagné, si ce n’est activement participé, au démantèlement des infrastructures industrielles du pays. Les chiffres sont assez éloquents. La France est l’un des pays d’Europe qui s’est le plus désindustrialisé. Entre 2000 et 2023, son secteur manufacturier a perdu 22,5% de ses emplois. Or, cette évolution est en grande partie la conséquence d’une dynamique de spécialisation au sein de l’Union européenne. Les zones centrales situées près des ports de la Mer du Nord bénéficient d’un positionnement géographique privilégié qui leur permet d’attirer les usines et l’emploi, tandis que les zones géographiquement éloignées, telles que le Portugal (-26,5%), la Finlande (-24%), ou la Grèce (-17,5%) ont vu leur activité industrielle s’effondrer[1]. Cette dynamique de polarisation protège l’activité manufacturière des pays situés dans le cœur industriel de l’Europe tels que l’Allemagne (+0%) et les pays à bas coûts salariaux qui lui sont proches (Pologne +1,7%), mais est dévastatrice pour les pays qui en sont éloignés[2].

Pourquoi accuser la gauche de complicité ? Principalement parce que c’est elle qui est à l’origine des grandes décisions qui ont accéléré la désindustrialisation française. À ce titre, le « tournant de la rigueur » de 1983, mais surtout la mise en place du marché unique européen par Jacques Delors lorsqu’il était président de la Commission européenne (1985-1995) furent des étapes décisives dans la conversion de la gauche au néolibéralisme. Le marché unique organise un double processus de concurrence. En permettant la libre circulation interne du capital, il met les différents territoires européens en compétition directe les uns avec les autres pour attirer les investissements productifs et les emplois. En supprimant le contrôle des flux de capitaux vis-à-vis des pays tiers, une mesure imposée par les autorités allemandes à Delors,[3] il a fait entrer l’UE de plain-pied dans la mondialisation. Conjuguée à la disparition progressive des droits de douane, cette dernière décision a engendré l’accélération des délocalisations vers les pays à bas coût.

Avec l’instauration du marché unique et la création de l’euro, l’industrie française a donc été prise en tenaille entre la concurrence des pays en voie de développement et celle des autres pays européens disposants d’avantages géographiques spécifiques. Les grandes entreprises industrielles françaises, y compris Renault dans laquelle l’État disposait de participations, se sont développées à l’international en investissant massivement à l’étranger. Or, à aucun moment, les responsables de gauche n’ont contesté cette logique néolibérale. Lors du référendum de 2005 sur le traité constitutionnel européen, la grande majorité des partis de gauche ont appelé au vote « oui ». Aujourd’hui encore, ils sont largement silencieux sur le contenu des projets de la Commission qui visent à renforcer la fluidité du Grand marché, en créant par exemple l’union des marchés de capitaux promettant de faire disparaître les régulations nationales de l’épargne et des marchés financiers. Tout cela contraste avec les déplorations opportunes d’un manque « d’Europe sociale » et la critique des paradis fiscaux. En effet, si certains pays européens maintiennent des salaires faibles et attirent les entreprises avec une fiscalité presque inexistante, c’est bien parce que la gauche a organisé le libre-échange et la libre circulation du capital. De fait, François Hollande n’a eu de cesse de dénoncer le protectionnisme comme « la pire des réponses »[4].

Le mandat Hollande est la conséquence de cette conversion au néolibéralisme. Partant du principe qu’il n’est pas possible de changer les règles européennes, la politique économique de la France s’est fourvoyée dans une vaine politique de l’offre visant à rendre son territoire plus attractif. Cette stratégie poussa les gouvernements Ayrault, puis Valls, à multiplier les cadeaux fiscaux aux entreprises et à engager la réforme du droit du travail, via la loi El-Khomri de 2016. Le « Pacte de responsabilité » de 2014, a ainsi engendré une baisse de 40 milliards des prélèvements sociaux et fiscaux au profit des entreprises.

En renonçant à agir sur le cadre dans lequel l’économie français est enferrée, une partie de la gauche française a annoncé la politique économique que poursuivra Emmanuel Macron. Le pire est que non seulement cette stratégie n’a pas permis d’enrayer la désindustrialisation, mais elle a tari les recettes fiscales, contraignant l’État à raboter ses dépenses, notamment celles qui permettent de faire fonctionner les services publics.

 

 

L’impasse de la gauche identitaire

Face à l’échec de la gauche néolibérale, une autre gauche s’est levée en déployant un discours plus radical que celui porté par une social-démocratie discréditée. Incarnée par Jean-Luc Mélenchon lors de la campagne de 2017, cette gauche s’est d’abord montrée critique vis-à-vis des institutions européennes, puis son discours s’est infléchi en adoptant une rhétorique plus englobante inspirée des travaux de la philosophe Chantal Mouffe[5]. Le point principal de la proposition de Mouffe, le « populisme de gauche », est d’abandonner la lutte des classes comme axe central de l’action politique au profit d’une stratégie d’agrégation de luttes censées mieux refléter les préoccupations de la jeunesse et des classes urbaines : les combats sociétaux et féministes, l’antiracisme, l’écologie, la condition animale…

Un autre aspect de cette stratégie est qu’elle part du principe que le néolibéralisme est en crise et que la priorité ne doit donc pas être d’engager un combat contre lui mais contre l’autre force concurrente, le « populisme de droite ». « Dans les années à venir, j’en suis persuadée, c’est entre populisme de droite et populisme de gauche que passera l’axe central du conflit politique, écrit Chantal Mouffe dans l’introduction de son ouvrage. Aussi, c’est en construisant un ‘‘peuple’’ et en mobilisant les affects communs pour faire naître une volonté commune d’égalité et de justice sociale que l’on pourra combattre efficacement les politiques xénophobes défendues par les partis populistes de droite ».

Comment, concrètement, « construire un peuple » ? Pour Mouffe, cela passe par la mobilisation des affects et par un tribun dont le charisme peut transcender les contradictions qui traversent les mobilisations militantes. Cette mobilisation des affects implique de déplacer le combat politique du terrain de l’argumentation rationnelle vers celui des principes moraux et des valeurs culturelles. Il faudrait ainsi mettre en avant la « bataille culturelle », chère à Antonio Gramsci, au détriment de la « bataille des idées ». Le problème est que lorsqu’on entend se battre sur le front culturel, on ne cherche plus à convaincre mais à se placer sur le terrain des valeurs. Une illustration de cette stratégie a été donnée lors de l’élection européenne de juin 2024. En affichant un soutien indéfectible à la cause palestinienne, la France insoumise ne s’est pas engagée sur le champ de l’argumentation, mais sur celui des affects et des valeurs. De fait, il n’y avait guère de propositions crédibles pour mettre fin au conflit à Gaza dans le programme proposé par LFI.

Parce qu’elle met l’accent sur les questions culturelles, cette gauche peine à développer un véritable discours économique et donc à combattre le néolibéralisme. Le plus souvent, elle ne propose pas de mesures précises visant à agir sur les structures de l’économie, mais entend mettre l’État au service d’un vaste programme de redistribution : taxer les riches et les grandes entreprises au profit des jeunes et des classes populaires. Le paradoxe est que si ce discours répond aux attentes des populations les plus défavorisées, il s’avère en profond décalage avec les angoisses des milieux ouvriers qui subissent la concurrence intra- et extra-européenne et craignent pour leur emploi.

Comment qualifier cette gauche ? Elle est, au fond, « identitaire » au sens où elle entend rassembler ses partisans et ses militants derrière des combats d’identité. Ainsi, à l’instar du site créé par Théo Delemazure, elle est prompte à labéliser des postures ou des politiques comme étant « de droite » ou « de gauche », comme si la question la plus importante n’était pas celle de savoir si une mesure est pertinente ou non, si elle participe à la construction d’un projet de société cohérent et désirable, mais si elle peut ou non être rangée dans le camp de ce qui constitue culturellement la gauche.

En fin de compte, le choix proposé aujourd’hui aux électeurs par les partis de gauche se décline en deux grands menus : le premier est celui de la gauche gestionnaire, héritière un peu honteuse des années hollande et qui est persuadée qu’on ne peut agir qu’à la marge sur les structures de l’économie. Elle entend gérer au mieux les contradictions du capitalisme néolibéral sans le remettre en question. Le second menu est celui concocté par la France insoumise et les mouvements qui incarnent les luttes écologiques et sociétales. Cette gauche-là prétend reconstruire la société à partir de combats culturels et de valeurs, mais sans s’intéresser au fonctionnement de l’économie contemporaine et aux contraintes qu’elle impose à l’exercice du pouvoir.

Malheureusement, on ne peut que faire le constat que ces deux menus peinent à convaincre et n’empêchent pas la progression électorale de l’extrême droite. Il faudrait donc inventer une troisième gauche, centrée sur les questions productives et économiques, et qui parvienne à s’adresser aux électeurs des classes populaires qui sont aujourd’hui tentés par l’abstention ou le vote RN. Cette gauche peine encore à émerger.

Références

[1] Sur les origines géographiques des phénomènes de polarisation industrielle lire : David Cayla (2019), « Crise de l’euro et divergences économiques : les conséquences du marché unique pour l’unité européenne », en ligne.

[2] Source : Main-d’œuvre dans l’industrie – données annuelles, Eurostat. Consulté le 30/10/2024.

[3] Lire à ce sujet l’excellent livre de Rawi Abdelal Capital Rules: The Construction of Global Finance, Harvard University Press, 2007, pages 10 et 11.

[4] « Le protectionnisme, « pire des réponses », dit Hollande au Chili », Reuters, 22/01/2017, un propos à nouveau martelé un mois plus tard à Belfort.

[5] Chantal Mouffe, Pour un populisme de gauche, Albin Michel, 2018.

 

suivez-nous sur les réseaux

#LTR

A lire aussi…

Lire aussi...

Apple, Google et la transformation du droit de la concurrence par l’UE

Apple, Google et la transformation du droit de la concurrence par l’UE

Au sein de l’Union européenne, le droit de la concurrence est aujourd’hui utilisé pour lutter contre l’évasion fiscale et les abus des plates-formes numériques. Pour efficace qu’il soit, cet usage est quelque peu problématique, à l’heure où les plates-formes numériques tendent à remplacer les marchés eux-mêmes.

Le 10 septembre dernier, après une longue procédure judiciaire qui avait d’abord conduit la Commission européenne à condamner Apple à une amende de 13 milliards d’euros en 2016, puis le Tribunal de l’UE à annuler cette décision en 2020, la Cour de justice de l’UE (CJUE) jugeait finalement que les exonérations fiscales accordées à Apple par le gouvernement irlandais constituaient bien des aides d’État et devaient donc être remboursées. Autrement dit, Apple devra régler 13 milliards d’euros d’amende à l’État irlandais qui n’en demandait pas tant.

S’il n’en demandait pas tant, c’est parce que l’Irlande mène, depuis la fin des années 1980, une politique agressive de baisse de la fiscalité des entreprises. L’objectif est d’attirer sur son territoire les investissements industriels et productifs au détriment de ses partenaires européens.

Moins de 1 % des bénéfices comme impôt

Tout le monde connaît le faible taux d’imposition sur les sociétés de 12,5 % que demande l’Irlande aux entreprises installées sur son sol. Ce qu’on sait moins et que l’affaire Apple a révélé, c’est que le géant des smartphones n’a même pas payé l’impôt officiel. Pendant plus de deux décennies, Apple s’est acquitté d’un impôt qui représentait moins de 1 % de ses bénéfices. La Commission, dans son enquête, a même calculé que le montant versé par Apple au fisc irlandais a représenté en 2014 à peine 0,005 % de ses bénéfices. Elle a ainsi estimé que l’immense écart entre l’impôt théorique et l’impôt effectivement versé constituait une aide d’État qui faussait la concurrence et a condamné Apple à rembourser cette somme.

Comment une telle manœuvre a-t-elle été rendue possible ? En fait, depuis le début des années 1990, Apple négociait directement avec le fisc irlandais. Pour ce faire, elle constituait un montage grossier, diminuant artificiellement ses bénéfices, qu’elle faisait ensuite valider en demandant un rescrit fiscal à l’administration irlandaise. Un rescrit constitue une réponse administrative à la suite d’une demande de clarification de la part d’un administré. Cela permet, en théorie, d’éviter les erreurs puisque la réponse du fisc vaut validation. Dans le cas d’Apple, les rescrits ont servi à faire valider des montages parfaitement illégaux mais que la réponse du fisc rendait légaux.

Le fléau de la concurrence fiscale

En rendant sa décision, la CJUE a donc condamné Apple, mais elle a aussi condamné le gouvernement irlandais qui s’était livré à ce genre de pratique. Pour le gouvernement irlandais, la condamnation est paradoxale, car elle lui permet d’encaisser de l’argent. De fait, depuis quelques années, les pays européens et l’OCDE tentent d’uniformiser leurs règles fiscales et d’imposer un taux minimal d’impôt sur les sociétés à 15 %.

La concurrence fiscale à laquelle se livrent les États est un fléau. Elle risque d’aboutir à la disparition de toute fiscalité sur les entreprises, ce qui pourrait entraîner à terme une hausse de la pression fiscale qui pèse sur les ménages. Mais comment contraindre un pays comme l’Irlande à renoncer à sa stratégie fiscale ? Comment obliger un pays souverain à collecter l’impôt ? La réponse de la Commission a été d’utiliser le droit de la concurrence. La décision de la CJUE valide donc cette stratégie et enfonce un coin important dans l’un des principes de l’UE, à savoir la liberté fiscale des États membres.


2,4 milliards d’euros d’amende pour Google

Le droit de la concurrence a trouvé une nouvelle fonction qui n’était pas prévue à l’origine, celle de lutter contre le dumping fiscal que se livrent les États membres de l’UE. Mais cela peut aller encore plus loin. Dans une autre affaire, également tranchée le 10 septembre, la CJUE a confirmé la condamnation de Google à payer 2,4 milliards d’euros au titre d’un abus de position dominante. Là aussi, l’affaire remonte à plusieurs années. En 2017, Google est condamné par l’autorité européenne de la concurrence pour avoir avantagé ses propres services dans son moteur de recherche. L’année suivante, l’entreprise est condamnée à 4,34 milliards d’euros d’amende pour avoir imposé l’usage de ce même moteur dans le système d’exploitation Android qui est massivement utilisé dans les smartphones.

Dans ces deux cas, la Commission s’attaque à une stratégie qui est au cœur de l’industrie du numérique et qui consiste à exploiter une plate-forme de mise en relation pour centraliser les services et contrôler ce qu’en font les utilisateurs. En contrôlant le système d’exploitation et le moteur de recherche favori des internautes, Google peut, en quelque sorte, manipuler les comportements de ses usagers et ainsi pousser les internautes à aller vers des sites commerciaux qu’elle contrôle, ou passer des accords avec d’autres entreprises pour les faire bénéficier de ses consommateurs captifs.

Un problème de concurrence. Vraiment ?

À l’évidence, ces pratiques ne constituent pas qu’un problème de concurrence. Certes, Google profite de sa situation dominante pour tordre le marché à son avantage, et c’est ce qui lui est reproché. Mais le véritable danger de ces pratiques est plutôt que ses propres utilisateurs n’ont aucune conscience d’être manipulés puisque tout le processus passe par des algorithmes qui sont le plus souvent invisibles. Les pratiques de Google illustrent donc un problème plus général de l’économie numérique, celui de l’opacité des plates-formes et de la manière dont elles manipulent nos comportements pour gagner de l’argent.

Dans un ouvrage très remarqué, la sociologue Shoshana Zubof dénonçait déjà la manipulation comportementale qu’exerce Google sur les individus. Plus largement, le fonctionnement des réseaux sociaux tels Twitter ou TikTok sont accusés de créer une addiction et d’enfermer leurs utilisateurs dans des bulles informationnelles qui favorisent les idées complotistes ou d’extrême droite. Enfin, des entreprises comme Uber, Airbnb ou Amazon, pour ne prendre que ces exemples, parviennent à contrôler la mise en relation des offreurs et des demandeurs qui sont chacun leurs clients. C’est ce qu’on appelle un marché biface. Ce contrôle à la fois de l’offre et de la demande leur permet de détourner les ressources et le travail de leurs utilisateurs en les mettant en relation.

Plus d’algorithmes, moins de marchés

Pour éviter les abus et le développement de rapports de force inégaux qui apparaissent avec la croissance de l’économie numérique, l’Union européenne essaie d’agir de deux manières. D’une part, elle entend réglementer davantage les pratiques en améliorant l’information et la transparence des usagers. C’est ce que permettent des législations telles que le RGPD (Règlement général de protection des données) instauré en 2018 ou le DSA (Digital service act), en vigueur depuis 2023. Mais, comme on le voit, le droit de la concurrence est aussi largement mis à contribution et permet de défendre des droits et des principes qui dépassent la simple question de la concurrence.

Il reste néanmoins un problème. La plupart des plates-formes numériques qui mettent en relation les services des uns et la demande des autres ne font rien d’autre que de se substituer aux marchés. Ainsi, au lieu de se retrouver sur une place publique pour effectuer des transactions de manière autonome, les agents de l’économie numérique évoluent de plus en plus au sein d’espaces privés dans lesquels les transactions sont gérées par des algorithmes et où ils n’ont pratiquement plus de capacité de négociation.

Autrement dit, le développement de l’économie numérique tend à faire disparaître les marchés pour les remplacer par des systèmes d’échanges dirigés et contrôlés par quelques acteurs dominants. Or, le droit de la concurrence ne peut se déployer, par définition, que s’il existe réellement un marché. Si on n’a pas de marché, on ne peut pas avoir de concurrence et donc le droit de la concurrence n’a plus lieu de s’appliquer. Aussi, l’effacement progressif des marchés et l’apparition de ces plates-formes suggère qu’il faudra peut-être inventer autre chose, à terme, si l’on veut éviter les abus qui, sinon, risquent de se multiplier au sein de l’espace numérique.

Cet article a été tout d’abord publié par l’auteur sur le site du média The Conversation : Apple, Google et la transformation du droit de la concurrence par l’UE (theconversation.com)

suivez-nous sur les réseaux

#LTR

A lire aussi…

Lire aussi...

Le curieux renoncement économique de Manuel Bompard

Le curieux renoncement économique de Manuel Bompard

Au lieu de ne parler que de redistribution comme l’a fait Manuel Bompard dans l’émission Questions politiques on est en droit de se demander si la gauche ne devrait pas avoir pour ambition prioritaire d’agir sur les structures de l’économie, en particulier dans la production des biens essentiels ou stratégiques.

Questionné dimanche dernier dans l’émission Questions politiques sur l’image qu’il retenait de la semaine passée, Manuel Bompard a choisi de montrer une file d’étudiants faisant la queue pour bénéficier d’une aide alimentaire. L’image décrit bien la précarité que vivent beaucoup d’étudiants, en particulier dans les grandes villes où le coût du logement a explosé. En la montrant, le coordinateur de la France insoumise entendait rappeler les mesures du programme du NFP : la généralisation du repas étudiant à 1 euro et une garantie d’autonomie pour la jeunesse.

On doit évidemment s’inquiéter de la situation difficile que vivent les étudiants. Mais était-ce la question à mettre en avant dans une émission de grande écoute, au moment où les déficits publics dérapent ? Dépenser plus, et dépenser en allocations sociales, est-ce l’essence d’un programme de gauche ? C’est ce que semble penser les dirigeants de la France insoumise. À les écouter, la radicalité serait d’accroitre la redistribution, de taxer davantage les riches pour redistribuer davantage aux pauvres. Mais augmenter l’aide sociale de l’État relève-t-il d’une rupture ou est-ce une manière de rendre plus acceptable le système actuel ?

Quelques jours avant cette émission, on apprenait que Sanofi s’apprête à vendre la marque Doliprane à des fonds d’investissements étrangers. Alors que la crise Covid a montré que la France a perdu une partie de sa souveraineté pharmaceutique et que, depuis plusieurs années, elle est confrontée à des pénuries de médicaments, il est étrange que Manuel Bompard n’ait pas jugé bon de rebondir sur cette actualité. La raison de ce silence est que, sur cette question, le programme du NFP est étrangement léger. Tout au plus prévoit-il de créer un pôle public du médicament et de renforcer les obligations de stocks. Pourtant, l’échec de la stratégie industrielle de Sanofi, ses délocalisations multiples et la vente de certains de ses fleurons devraient au minimum nous questionner. Et que dire de Servier, condamné pour tromperie aggravée dans l’affaire du Mediator ? L’état catastrophique de notre industrie pharmaceutique ne démontre-t-il pas l’échec de la politique industrielle dans ce domaine ? Ne milite-t-il pas pour engager une rupture plus ambitieuse, quitte à nationaliser ces entreprises incapables de fournir les médicaments dont la population a besoin ?

Finalement, on doit se demander si la gauche ne devrait pas avoir pour ambition prioritaire d’agir sur les structures de l’économie, en particulier dans la production des biens essentiels ou stratégiques. Car il est clair qu’on ne remet pas en cause le capitalisme néolibéral en laissant les riches faire fortune et en se contentant de les taxer en chemin. L’abandon, dans le programme du NFP, de tout projet de nationalisation donne une étrange impression de renoncement. La gauche, qui se disait encore il y a peu « socialiste », et qui entendait reprendre le contrôle du système productif donne l’impression avoir abandonné l’idée de combattre le néolibéralisme en renonçant à créer de nouveaux systèmes de production et d’échange. Il semble donc qu’entre le projet économique de Bernard Cazeneuve et celui Jean-Luc Mélenchon il y ait davantage une différence de degré que de nature ; tous deux ont fini par adhérer à l’idée que la gauche doit redistribuer socialement sans agir économiquement.

David Cayla a récemment publié son dernier ouvrage « La gauche peut-elle combattre le néolibéralisme » aux éditions du Bord de l’eau, dans la collection Le Temps des Ruptures : https://www.editionsbdl.com/produit/la-gauche-peut-elle-combattre-le-neoliberalisme/

suivez-nous sur les réseaux

#LTR

A lire aussi…

Lire aussi...

L’irrésistible ascension de l’extrême droite en Europe

L’irrésistible ascension de l’extrême droite en Europe

Pourquoi l’extrême droite monte-t-elle partout en Europe ? À quelques mois des élections européennes où elle pourrait à nouveau se renforcer au Parlement de Strasbourg, David Cayla pose un diagnostic sombre et invite les dirigeants européens à renoncer à leurs dogmes et à remettre les États, et donc la démocratie, au centre des grands choix économiques.

Photo : Reuters

Elle est loin l’époque où, à l’aube des élections européennes de 1999, les journalistes s’enthousiasmaient sur les ambitions sociales de « l’Europe rose ». 11 pays sur les 15 que comptait alors l’Union européenne étaient dirigés par des coalitions menées par des socialistes ou des sociaux-démocrates. Mené par Lionel Jospin, Gerhart Schröder, Tony Blair et Massimo D’Alema le Parti socialiste européen (PSE) dominait le Parlement européen avec 215 sièges sur 626. Un accord avec le Parti populaire européen (PPE), qui disposait de 181 députés, lui assurait de détenir la présidence du Parlement pendant la moitié d’une législature.

Cet accord est toujours en vigueur. Après chaque élection européenne, PSE et PPE ont pris l’habitude de se partager systématiquement la présidence du Parlement. Pourtant, cet accord pourrait ne pas être reconduit à l’issue du prochain scrutin. Le poids des deux principaux groupes politiques n’a cessé de diminuer. En 1999, PSE et PPE représentaient presque 66% des députés. Vingt ans plus tard, ils n’en représentent plus que 38,7%. Certes, la refondation des centristes en 2019, sous l’impulsion d’Emmanuel Macron, explique en partie cette baisse. Mais c’est surtout la hausse du nombre de députés d’extrême droite qui caractérise les derniers scrutins européens.

Jusqu’aux élections de 2014, la part des députés européens d’extrême droite était restée relativement faible, autour des 10%. De plus, la plupart d’entre eux siégeaient avec les non-inscrits ce qui atténuait leur poids institutionnel. En élisant un nombre record de 130 députés d’extrême droite, soit 17,3% du Parlement, les élections de 2014 furent un premier tournant. Après le départ des députés Britanniques en 2020, une partie de l’extrême droite s’est rassemblée au sein du groupe « Identité et Démocratie », dans lequel on compte les députés français du Rassemblement national, les Allemands d’Alternative für Deutschland (AfD) et les Italiens de la Lega. Ce groupe totalise une soixantaine de sièges. Un autre groupe conservateur et eurosceptique plus ancien, les Conservateurs et réformistes européens (ECR) inclut le parti polonais Droit et justice (Pis), le parti de Giorgia Meloni Fratelli d’Italia, le parti espagnol Vox et les Démocrates de Suède. Il compte 66 députés. Si l’on ajoute les députés non-inscrits d’extrême droite (les douze députés du Fidesz hongrois, Aube dorée, le Parti populaire Notre Slovaquie, quelques députés anciennement RN en déshérence…), c’est plus de 150 députés d’extrême droite, soit plus de 20% des 705 parlementaires, qui sont représentés au Parlement de Strasbourg.

Si l’on se fie aux sondages et aux résultats des dernières élections nationales, l’extrême droite est en train de devenir l’un des courants de pensée dominant en Europe. Les dernières élections en Suède, en Finlande, en Italie, en Slovaquie et aux Pays-Bas ont toutes été marquées par la montée de l’extrême droite. À chaque fois, un mouvement d’extrême droite est parvenu à entrer dans une coalition majoritaire. Si l’Espagne et la Pologne font figure d’exception, il convient de les relativiser. Les élections générales espagnoles de juillet dernier ont abouti à une victoire fragile du Premier ministre socialiste sortant. La montée de la droite, et surtout la perspective d’une alliance entre le Parti populaire et Vox ont montré que l’extrême droite est prête à diriger l’Espagne. Quant à la Pologne, même si le PiS, usé par huit années de pouvoir, a dû concéder une défaite face à une coalition libérale hétéroclite, il reste de loin le premier parti de Pologne. La gauche, quant à elle, est réduite à 26 députés sur 460.

Il y a deux manières de réfléchir à la montée de l’extrême droite. La première est d’étudier les conséquences politiques et institutionnelles d’une extrême droite susceptible de représenter plus d’un quart des députés européens à l’issue des élections de juin prochain. Pourrait-elle, comme dans d’autres pays, s’allier avec la droite traditionnelle sur modèle de l’alliance PSE/PPE ? Quelles conséquences une telle coalition pourrait-elle avoir sur le fonctionnement de la Commission européenne, sur les négociations du prochain budget européen ou sur les ambitions climatiques de l’UE ? L’autre approche est de s’interroger sur les causes de l’inexorable montée électorale des partis d’extrême droite et sur les raisons pour lesquelles on constate un renforcement des sentiments identitaires. C’est cette seconde approche qu’il faut privilégier. Pour cela, il convient d’étudier trois phénomènes. Le premier est celui de la dynamique fédérale européenne incarnée la Présidente de la Commission Ursula von der Leyen ; le deuxième est celui de l’exacerbation des rivalités économiques intra-européennes engendrées par le marché unique européen. Enfin, il faut aussi s’interroger sut les conséquences politiques les migrations intra- et extra- européennes dans la montée du repli identitaire.

Une réponse à un fédéralisme de façade ?

Depuis son élection à la Présidence de la Commission européenne, Ursula von der Leyen s’est montrée très active médiatiquement et très volontarisme dans la mise en œuvre de la politique européenne. Elle s’est beaucoup déplacée, en particulier en Ukraine après l’invasion russe, et en Israël après l’attaque du 7 octobre. Très favorable à une politique d’intégration renforcée, elle s’était prononcée en 2011, alors qu’elle était ministre du Travail du gouvernement Merkel, en faveur de la création des « États-Unis d’Europe ». Cette vision fédéraliste s’est retrouvée dans son action qui a souvent dépassé le cadre des prérogatives de l’UE. Ainsi, dès sa prise de fonction, en décembre 2019, elle lançait le « Green deal », une initiative en faveur de la transition climatique. En juin 2020, après des semaines de rivalité entre pays européens dans la gestion de la crise Covid, elle organisait l’achat groupé de vaccins auprès des laboratoires pharmaceutiques. Enfin, quelques semaines plus tard, l’Union européenne s’entendait pour organiser un vaste plan de relance d’un montant total de 750 milliards d’euros afin d’aider les pays les plus touchés par la crise sanitaire. Baptisé « NextGenerationUE » le volume financier du plan est important. Il représente 70% du budget pluriannuel européen. Une partie (360 milliards d’euros) est constituée d’une enveloppe de prêts à faible taux intérêt ; elle fut peu utilisée. L’autre partie représente des subventions d’un montant total de 390 milliards d’euros avec une clé de répartition permettant à certains pays comme la Grèce, l’Espagne, l’Italie ou les pays d’Europe centrale et orientale, de bénéficier d’aides conséquentes (Figure 1).

Figure 1 : Montant des subventions du plan de relance européen rapportées au PIB de 2022[1]

La grande originalité du plan de relance européen est d’être financé par un emprunt communautaire gagé sur des recettes fiscales futures. Il faudra donc s’attendre à ce que le budget européen augmente fortement pour la période 2028-2035 (le budget européen est décidé pour sept ans) puisqu’il faudra rembourser l’emprunt tout en continuant de financer les politiques européennes. La Commission parie sur de nouvelles recettes fiscales, ce qui constitue un enjeu – délicat – à traiter pour la prochaine législature.

Comment von der Leyen est-elle parvenue à avancer dans la voie d’un fédéralisme budgétaire et fiscal ? Avant la crise sanitaire, le gouvernement allemand s’opposait de toute ses forces à l’idée d’un emprunt commun ; Angela Merkel avait même assuré en 2012 que tant qu’elle vivrait jamais il n’y aurait d’« eurobonds ». De même, la création d’une Europe des transferts où les pays d’Europe du Nord financeraient les économies d’Europe du Sud paraissait inenvisageable.

Pour comprendre comment les pays dit « frugaux » ont pu accepter un tel plan il faut rappeler qu’il n’est pas sans limite ni condition. D’une part, il s’agit d’un plan exceptionnel qui n’a pas vocation à se répéter. On est donc loin de la mise en œuvre d’une « Europe des transferts » soutenue par la France et les pays du Sud. D’autre part, il est mis en œuvre dans un contexte où l’Union européenne supervise de plus en plus strictement les politiques budgétaires nationales. L’épisode italien de l’automne 2018 au cours duquel le gouvernement de Paolo Conte, soutenu par le Mouvement Cinq étoiles et la Lega, dû revoir sa copie en dépit d’un déficit prévu de 2,4% (inférieur à celui de la France) a laissé des traces. Depuis la mise en place du Semestre européen en 2011 et du Pacte budgétaire en 2012, la Commission surveille les trajectoires budgétaires de chaque État et peut décider de sanctionner ceux qui s’écartent de leurs engagements, même si entretemps le gouvernement a changé. Dans ce contexte, l’existence d’un plan de relance européen constitue l’assurance, pour les pays les plus attachés à l’austérité, d’avoir un levier diplomatique envers les gouvernements tentés d’y renoncer. Cette conception du plan de relance n’est pas qu’une hypothèse. La Hongrie s’est vue exclue des financements européens en raison de ses manquements à l’État de droit. Le tournant pro-européen de Giorgia Meloni n’est sans doute pas étranger au fait que l’Italie doit recevoir près de 70 milliards d’euros de subventions européennes.

La deuxième raison pour laquelle les pays du Nord, et l’Allemagne en particulier, ont accepté de financer les pays du Sud tient à leur stratégie commerciale. Le modèle de l’économie allemande est menacé par le retour du protectionnisme aux États-Unis et par l’antagonisme croissant vis-à-vis de la Chine. L’Allemagne cherche donc à s’assurer des débouchés en Europe, ce qui suppose de soutenir les économies des pays du Sud.

Enfin si, sur le plan budgétaire, le plan européen semble renforcer la solidarité intra-européenne ainsi qu’une forme de fédéralisme, il constitue dans le même temps une régression communautaire. En effet, la mise en œuvre du plan repose essentiellement sur des logiques nationales. Chaque pays décide de la manière dont il entend dépenser l’argent européen, le contrôle ne se fait qu’a postériori et de manière technique. Ce sont donc des projets essentiellement nationaux que finance l’Union européenne, projets qui peuvent se contredire entre eux. Par exemple, la France et l’Allemagne ont toutes deux décidé d’utiliser les fonds européens pour développer leurs filières hydrogène. Mais les plans allemands et français sont concurrentiels puisqu’ils visent à attirer les investissements des mêmes entreprises. De même, le plan de relance français contient 10 milliards d’euros de baisse d’impôt pour les entreprises, ce qui signifie que l’Europe finance en partie la concurrence fiscale entre États membres.

La même logique de régression communautaire prévaut dans le budget européen 2021-2027 adopté au même moment. La part consacrée aux fonds de cohésion, qui visent à lutter contre les inégalités régionales a été réduite d’environ 11 %, et l’enveloppe de la politique agricole commune a été rabotée. De plus, la part des subventions agricoles allouées nationalement s’est accrue au détriment de la part européenne. Ainsi, les deux politiques emblématiques de la dimension fédérale de l’UE ont été réduites et seront pour partie nationalisée.

En fin de compte, le développement d’un nouvel outil de fédéralisme budgétaire (le plan NextGenerationUE) cache une série de régressions fédérales : le renforcement d’une supervision bureaucratique (et non politique) des budgets nationaux, l’absence de projets collectifs financés par l’argent européen, et une forme de renationalisation dans l’usage des fonds communautaires. Le grand absent de ces réformes est… le Parlement européen qui a de moins en moins son mot à dire sur la manière dont est utilisé le budget qu’il est censé contrôler. Tout se joue entre la Commission européenne, le Conseil et les gouvernements nationaux.

Le marché unique renforce les antagonismes

Du point de vue politique, le plan de relance européen ne peut engendrer qu’une série d’incompréhensions et de frustrations. Les populations des pays riches peuvent légitimement penser qu’elles sont mises à contribution des dépenses des pays d’Europe de l’Est et du Sud, tandis que les populations des pays bénéficiaires peuvent avoir le sentiment d’être prises dans un chantage à la subvention. Dans les deux cas, au lieu de renforcer les liens de solidarité entre pays contributeurs et pays bénéficiaires, ce plan tend à exacerber les tensions nationales. Il n’est donc pas surprenant de constater une hausse de l’influence électorale de l’extrême droite.

On ne peut pourtant pas comprendre l’exacerbation des rivalités nationales sans étudier la manière dont le fonctionnement de l’UE renforce les antagonismes. Dans un article de 2019, j’ai étudié les causes de la crise des dettes souveraines de 2010-2015 et j’ai montré que, contrairement au discours tenu par les dirigeants européens, l’origine de la crise n’est pas seulement la conséquence de défaillances nationales. À en croire les autorités européennes, la crise serait double. Certains pays comme l’Irlande, l’Espagne ou Chypre, n’auraient pas su encadrer leur système bancaire et financier, tandis que d’autres, la Grèce ou le Portugal, voire l’Italie, n’auraient pas su gérer leur politique budgétaire. En réponse à ce diagnostic, l’UE a créé l’Union bancaire, qui consiste à faire superviser directement des banques les plus importantes par la Banque centrale européenne et elle a renforcé le contrôle des politiques budgétaires nationales.

Le problème est que les autorités européennes ont dès le départ refusé d’envisager une seconde option, celui d’une même crise structurelle d’échelle européenne. Pour comprendre cette interprétation, il faut revenir sur les caractéristiques du marché unique européen. Sous l’impulsion décisive de Jacques Delors, la CEE a pris un tournant fondamental en 1986 avec la signature de l’Acte unique. Combiné au traité de Maastricht et mis en œuvre au cours des années 1990, ce traité a consisté à créer un grand marché européen du capital et du travail qui s’est rajouté au marché commun, qui était fondé sur la libre circulation des biens et des services.

En instaurant la libre circulation des facteurs de production, le marché unique a modifié en profondeur les équilibres économiques. Jusqu’à la fin des années 1980, chaque pays disposait de son propre système productif tout en bénéficiant d’une mise en commun de la demande européenne. Les marchandises produites nationalement pouvaient être concurrencées par celles d’autres pays, mais les États contrôlaient la manière dont elles étaient produites et pouvaient mener des politiques industrielles de manière autonome. Les marchés des capitaux et du travail étaient cloisonnés au sein des frontières nationales, ce qui faisait que l’épargne d’un pays finançait en priorité ses propres besoins d’investissement et que les entreprises ne pouvaient pas aussi facilement contourner les droits sociaux en délocalisant ou en faisant appel au détachement.

Avec l’instauration du marché unique, les facteurs de production, et non simplement les marchandises, se sont mis à circuler librement au sein de l’espace européen. L’épargne nationale peut alors financer les besoins d’investissement de n’importe quel pays européen. Les règles de la concurrence ont été renforcées afin d’interdire aux États de mener des politiques industrielles autonomes. Ces derniers ont donc été plongés dans un bain de concurrence « libre et non faussée » visant à attirer les investissements productifs. Un taux de rentabilité de 5% qui, auparavant, apparaissait suffisant pour financer la construction d’une usine, est perçu désormais comme insuffisamment profitable si les conditions de production d’un autre pays voisin permettent 7 à 8% de rentabilité. Le marché unique a ainsi mis en concurrence, non plus les marchandises, mais les systèmes productifs eux-mêmes. Cela a poussé les gouvernements européens à mener des politiques « d’attractivité » afin d’attirer les investissements. Ils se sont mis à augmenter les taux de profits en réduisant les coûts salariaux et la fiscalité pesant sur les entreprises. Certains pays comme l’Irlande et le Luxembourg, puis les Pays-Bas, Malte, Chypre, et depuis peu le Portugal, ont profité de la taille modérée de leurs économies pour pratiquer des politiques de dumping fiscal et attirer une partie des investissements sur leur territoire.

Le problème est que chaque pays ne dispose pas des mêmes atouts géographiques et historiques. On sait, depuis que l’économiste Alfred Marshall en a formulé l’idée à la fin du XIXème siècle[2], que l’industrie a tendance à s’agglomérer. En se concentrant au sein d’un territoire, les investissements industriels tendent à développer des facteurs de production territoriaux spécifiques (infrastructure de transport, main d’œuvre qualifiée, centre de formation et de recherche, etc.) qui rendent chaque entreprise plus performante. Ce développement combiné d’entreprises industrielles et de facteurs de production territoriaux produit un effet d’entrainement qui fait que les territoires les plus industrialisés sont avantagés lorsqu’ils sont mis en concurrence avec des territoires peu industrialisés. Le résultat de cette dynamique est que, à l’échelle du continent européen, la création du marché unique a eu tendance à favoriser la progression d’activité dans les pays les plus industrialisés au détriment des autres. L’industrie européenne s’est donc agglomérée autour de ses bassins industriels historiques connectés aux grands ports de la mer du Nord, eux-mêmes à l’exutoire de voies de communication efficaces. À l’inverse, les pays périphériques d’Europe du Sud et de l’Ouest, mais également la Finlande, se sont largement désindustrialisés.

Dans mon article de 2019, je montrais que c’est cette perte de substance industrielle, engendrée par la création du marché unique européen dans les années 1990, qui est la cause première des déséquilibres financiers à l’origine de la crise des dettes souveraines. En perdant leurs capacités industrielles, les pays éloignés géographiquement du cœur industriel de l’Europe ont perdu leurs capacités à exporter et sont devenus dépendants financièrement des pays du cœur.

Le tableau 1 ci-dessous montre les effets à long terme de cette dynamique de polarisation engendrée par le marché unique. On remarque que les pays qui ont le plus perdu d’emplois manufacturiers (Roumanie, Finlande, Portugal, Grèce, Bulgarie…) se situent tous en périphérie, tandis les pays dont l’industrie a été le mieux préservée se situent autour de l’Allemagne, à l’exception de l’Irlande. Pour ce pays, la dynamique locale de l’emploi est le fruit de la stratégie fiscale très agressive menée depuis des décennies.

Pays perdants

Pays intermédiaires

Pays gagnants

Roumanie (-35,9%)

Belgique (-18,4%)

Hongrie (-12,7%)

Finlande (-34,3%)

République Tchèque (-18,1%)

Allemagne (-7%)

Portugal (-32,8%)

Slovaquie (-18,1%)

Autriche (+1%)

France (-25%)

Suède (-18,1%)

Pologne (+1,2%)

Grèce (-24,1%)

Italie (-16,4%)

Irlande (+1,7%)

Bulgarie (-22,3%)

Espagne (-15,1%)

 

Tableau 1 : Évolution de l’emploi manufacturier de 2000 à 2022 (pays de plus de 5 millions d’habitants)[3]

Afin de comprendre les chiffres indiqués dans le tableau 1, il faut avoir en tête que, sur une période de plus de vingt ans, il est normal que le volume global de travail diminue dans l’industrie manufacturière. Du fait des progrès de la productivité du travail, les pays dont l’emploi industriel a diminué de moins de 15-20% ne se sont pas véritablement désindustrialisés, contrairement aux pays dont l’emploi a baissé de plus de 20% (colonne de gauche) et qui ont clairement perdu en capacités productives. Le tableau montre aussi que les effets de la géographie, même s’ils sont dominants à long terme, ne sont pas les seuls à devoir être pris en compte. Le coût horaire du travail, plus faible en Espagne (22,9€) qu’en France (41,1€), explique sans doute pourquoi ce pays s’en sort un peu mieux que la France sur le plan de l’emploi manufacturier. De même, le coût horaire du travail plus élevé en République tchèque (16,2€) qu’en Pologne (12,2€) explique pourquoi l’économie polonaise attire davantage les investissements industriels, bien que les deux pays soient situés à proximité de l’Allemagne[4]. Enfin, il est à noter que l’Autriche dispose de fleuves navigables et de canaux qui lui permettent d’accéder au Rhin et au port de Rotterdam.

Les migrations intra- et extra- européennes déstabilisent les sociétés

La réorganisation industrielle de l’Union européenne est au cœur de sa dynamique économique et financière, mais elle a aussi des effets structurels sur l’emploi et la démographie. Confrontés à la désindustrialisation, les pays d’Europe périphérique sont contraints de se spécialiser dans des activités à rendements décroissants comme le tourisme, ou de soutenir leur activité économique par le biais de la demande et de l’endettement. Même au sein des pays « gagnants », les effets de spécialisation ne sont pas symétriques. Si l’Allemagne parvient à préserver, sur son territoire, la production de biens à haute valeur ajouté et les emplois qualifiés qui vont avec, ce n’est pas le cas de la Pologne dont l’industrie tend à se spécialiser dans l’assemblage ou dans la production de composants à bas coûts.

En fin de compte, la réorganisation globale de l’économie européenne, poussée par les forces du marché, déstabilise les populations. En devenant une nation d’ouvriers travaillant dans les entreprises sous-traitantes de l’industrie allemande, les Polonais développent une conscience de classe qui se conjugue mal avec la vision éthérée de l’économie promue par les autorités européennes. De son côté, en devenant une nation d’ingénieurs, l’Allemagne attire les chercheurs et les diplômés des autres pays européens. La spécialisation économique participe à transformer les sociétés. Alors que l’Allemagne était en déclin démographique jusqu’à la fin des années 2000, son solde migratoire s’est mis à exploser dans la période récente, en faisant plus que compenser le déficit de son solde naturel. De 2010 à 2022, la population allemande a bénéficié d’un solde migratoire cumulé de plus de 6,5 millions de personnes, le plus souvent en âge de travailler et issues d’autres pays européens. Dans le même temps, d’autres pays se dépeuplent et voient partir leur jeunesse éduquée. La Roumanie a perdu plus de 2 millions d’habitants entre 2000 et 2022 du fait du solde migratoire. En Pologne, si le solde migratoire s’est stabilisé à partir de 2016, cela est dû en grande partie à l’immigration ukrainienne, qui précède l’exode déclenché par la guerre, et qui comble les besoins de l’économie en emplois peu qualifiés dans l’agriculture et l’industrie. Cette immigration récente ne peut masquer le départ toujours conséquent de la jeunesse diplômée, attirée par les salaires de l’Ouest. Quant à la Grèce, elle a payé un lourd tribut démographique à la crise économie. Son solde migratoire, excédentaire entre 2000 et 2009, est devenu déficitaire, l’amenant à perdre plus de 300 000 habitants entre 2010 et 2022[5].

Ces flux migratoires conséquents, liés à la spécialisation des économies européennes, ont nécessairement des conséquences sociales et politiques. Dans un ouvrage publié en 2017, le politologue bulgare Ivan Krastev fait le constat d’une profonde fracture entre l’est et l’ouest de l’Europe sur les questions migratoires. À l’est, le sentiment national est récent et fragile du fait de l’histoire, ces pays ayant longtemps été dominés par de vastes empires. De plus, la manière dont certains pays se vident de leurs forces vives engendre un sentiment de frustration qui nourrit la défiance et le populisme d’extrême droite. Symétriquement, un pays comme l’Allemagne, peu habitué à organiser l’intégration de ses populations migrantes, est confronté aujourd’hui à une immigration historique qui nécessiterait un financement massif de logements et d’infrastructures publiques dans ses principaux centres urbains. Mais empêché par des règles budgétaires très strictes, le niveau d’investissement de l’économie allemande est très loin d’être suffisant, ce qui entraine une dégradation des services publics et une pénurie de logements qui pèse sur l’ensemble de la population allemande et contribue au succès de l’Afd.

Un échec économique global qui alimente le populisme d’extrême droite

Quel que soit le résultat des élections européennes de juin prochain, on ne peut que faire le constat de l’essoufflement du modèle économique de l’UE. Lorsque, dans les années 1980 et 1990, les autorités européennes décidèrent de rompre avec certaines caractéristiques héritées de l’après-guerre (le tarif extérieur commun, la politique des prix garantis dans l’agriculture, la préservation des services publics…) pour adhérer pleinement aux principes du « Consensus de Washington » et créer un vaste marché autour de la monnaie unique, ils ont créé des institutions durables qui ont largement transformé le continent. Les systèmes sociaux et fiscaux ont été brutalement mis en concurrence et les gouvernements nationaux ont perdu les capacités d’orienter leurs économies nationales. Cela a engendré, dans l’ensemble des pays européens, une profonde frustration démocratique qui détruit peu à peu la légitimité de leurs institutions.

Ces derniers mois, l’échec du modèle économique européen est devenu patent. La crise de l’énergie et du marché européen de l’électricité ont mis à jour les limites du management par la concurrence et la croyance infaillible dans la vérité du prix de marché ; la crise inflationniste a elle démontré que la monnaie unique est loin de garantir la stabilité des prix, contrairement à ce que proclament les traités européens ; la rivalité entre la Chine et l’Occident, et le tournant protectionniste pris par les États-Unis montre que la stratégie libre-échangiste de l’UE est de plus en décalage avec la réalité du monde ; enfin, la guerre en Ukraine et l’incapacité des pays européens à approvisionner l’armée ukrainienne en munitions montre les limites de son industrie et sa faible capacité à se réorganiser.

Fille ainée du néolibéralisme, l’UE a bâti un modèle non pas sur des principes de solidarité et de coopération, mais sur la concurrence, le libre-échange et la libre circulation du capital. Ce modèle déstabilise les populations et les sociétés, mais il a surtout démontré qu’il est peu efficace pour produire des richesses.  Le fait d’avoir confié la gestion de l’économie aux marchés plutôt qu’aux responsables politiques s’avère être une erreur stratégique. Dans une récente chronique au Monde, le journaliste Arnaud Leparmentier constate que l’écart entre les économies européennes et américaine n’avait cessé de se creuser au cours des dernières années, à tel point que le niveau de vie moyen au États-Unis est désormais 80% supérieur à ce qu’il est au sein de la zone euro. Le gouvernement américain est d’ailleurs en train de réorienter profondément le modèle économique des États-Unis en remettant l’État au centre du jeu. Les dépenses publiques augmentent, quitte à laisser filer les déficits, et cela fonctionne ! Au troisième trimestre 2023, la croissance de l’économie américaine s’est montée à 4,9%, tandis que le chômage n’est qu’à 3,7%. La Réserve fédérale annonce le retour d’une politique de baisse des taux d’intérêt.

Pendant ce temps, l’UE, dont la croissance est atone et où l’extrême droite menace, est confrontée à un choix fondamental. Soit elle transforme son modèle et accepte de remettre en question ses dogmes néolibéraux… soit elle prend le risque d’être bientôt gouvernée par l’extrême droit

 

Références

[1] Source : « RRF: Update of the maximum financial contribution », Commission européenne, 30 juin 2022 et Eurostat (pour le PIB). Calculs de l’auteur.

[2] Alfred Marshal, Principes d’économie politique, édition numérique, 1890 [1906].

[3] Source : Eurostat. Consulté le 4 janvier 2024. Les pays de faible population ont été écartés du fait de leur sensibilité à des variations ponctuelles d’emploi.

[4] Notons également que la Pologne, contrairement à la République Tchèque, dispose d’un accès direct à la mer du Nord. Source pour les coûts horaires du travail : Insee Référence, Emploi, chômage, revenus du travail, Édition 2023, INSEE, 2023.

[5] Source : Eurostat. Consulté le 4/01/2024.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

A lire aussi…

Pour un Régime agricole complémentaire

Alors que le groupe écologiste vient de déposer une proposition de loi visant à expérimenter la mise en place d’une sécurité sociale de l’alimentation, David Cayla estime que la protection d’une agriculture paysanne pourrait être assurée par un dispositif plus simple : la création d’un Régime agricole complémentaire (RAC) permettant de protéger une partie de l’agriculture française en constituant une filière vivrière protégée de la concurrence internationale.

Lire la suite »

Le curieux renoncement économique de Manuel Bompard

Au lieu de ne parler que de redistribution comme l’a fait Manuel Bompard dans l’émission Questions politiques on est en droit de se demander si la gauche ne devrait pas avoir pour ambition prioritaire d’agir sur les structures de l’économie, en particulier dans la production des biens essentiels ou stratégiques.

Lire la suite »

L’hégémonie américaine est loin d’être terminée

Affaiblie par le trumpisme, contestée par l’alliance stratégique nouée entre la Chine et la Russie, la diplomatie américaine semble de moins en moins dominante et capable de maintenir la pax americana. Cette faiblesse diplomatique démontre-t-elle que l’hégémonie des États-Unis prend fin et que le XXIe siècle verra l’avènement d’une nouvelle hiérarchie mondiale ? Dans sa chronique mensuelle, David Cayla estime que, sur le plan économique, rien ne permet d’affirmer que l’hégémonie américaine soit menacée.

Lire la suite »

Lire aussi...

L’hégémonie américaine est loin d’être terminée

Chronique

L’hégémonie américaine est loin d’être terminée

Affaiblie par le trumpisme, contestée par l’alliance stratégique nouée entre la Chine et la Russie, la diplomatie américaine semble de moins en moins dominante et capable de maintenir la pax americana. Cette faiblesse diplomatique démontre-t-elle que l’hégémonie des États-Unis prend fin et que le XXIe siècle verra l’avènement d’une nouvelle hiérarchie mondiale ? Dans sa chronique mensuelle, David Cayla estime que, sur le plan économique, rien ne permet d’affirmer que l’hégémonie américaine soit menacée.

En publiant Après l’empire en 2002, Emmanuel Todd annonçait la « décomposition » du système américain. Selon lui, l’agressivité montrée par Washington à la suite des attentats du 11 septembre 2001 et les invasions successives de l’Afghanistan et de l’Irak ne reflétaient pas l’hyperpuissance des États-Unis, mais sa fragilité. Les causes de cette fragilité ? L’émergence de rivaux stratégiques tels que la Chine, la Russie, voire l’Union européenne que Todd estimait alors en voie d’émancipation ; les difficultés de plus en plus importantes que rencontraient les États-Unis pour rester les « gendarmes du monde » ; une économie désindustrialisée et dépendante de ses importations en produits manufacturés ; et enfin l’exacerbation de tensions sociales et raciales qui menaçait les fondements démocratiques de la première puissance mondiale. Todd pronostiquait que le monde s’harmoniserait et se passerait progressivement de la tutelle américaine du fait de la transition démographique et de l’alphabétisation généralisée. Après une phase de transition susceptible d’accentuer les conflits, le XXIe siècle pourrait s’avérer plus pacifiste et l’hégémonie américaine devenir obsolète.

Plus de vingt ans ont passé depuis la sortie de cet ouvrage et le moins qu’on puisse dire est que l’idée d’un affaiblissement de l’hégémonie américaine fait toujours l’actualité. Entretemps, une crise économique et financière d’une ampleur exceptionnelle a ravagé Wall Street, Donald Trump a été élu, le Capitole fut envahi par des émeutiers d’extrême droite, les États-Unis se sont retirés d’Irak et d’Afghanistan sans être parvenus à atteindre leurs objectifs politiques, et la balance commerciale américaine continue d’afficher un profond déficit. Sur le plan international, la situation n’est guère meilleure pour le « gendarme du monde ». Les conflits en Ukraine et au Proche-Orient démontrent l’impuissance de Washington à enrayer l’agressivité de ses rivaux (la Russie) comme celle de ses alliés (Israël).

Pour la plupart des observateurs, les États-Unis seraient en train de vivre au XXIe siècle ce que les Britanniques ont vécu au XXe. Après avoir régné sur le monde en profitant de son avance industrielle, le Royaume-Uni était entré dans une phase de déclin au début du XXe siècle, passant le flambeau du leadership mondial aux Américains. Si l’histoire se répète, deux scénarios sont possibles. Soit une autre puissance telle que la Chine, l’Inde, voire l’Union européenne devient le prochain hégémon, soit aucune puissance ne se détache et le monde entrera alors dans une phase multipolaire de puissances rivales. Récemment, un troisième scénario a été proposé, celui d’une nouvelle guerre froide entre le « Sud global » (qui inclut la Chine, l’Inde, la Russie, le Brésil, l’Iran…) et les pays occidentaux au sens large (Amérique du Nord, Europe non russe, Japon, Corée du Sud, Australie et Nouvelle Zélande).

Tous ces scénarios reposent sur un postulat qui n’est jamais démontré tant il apparaît évident : la fin de l’hégémonie américaine.

Le monde est-il vraiment en train de se dédollariser ?

Il est vrai que sur le plan économique, la puissance américaine semble en déclin, du moins relativement aux autres pays. En 1970, le PIB américain représentait près du tiers du PIB mondial (31,4%). Cinquante et un an plus tard, en 2021, il n’en représentait plus que 24,1%[1]. Signe de ce déclin, de plus en plus de pays tendent à se passer du dollar dans leurs transactions commerciales, soit parce qu’ils y sont contraints du fait des sanctions (Russie, Iran…), soit pour des raisons politiques et diplomatiques. Même des alliés historiques de Washington comme l’Egypte et l’Arabie Saoudite souhaitent abandonner le dollar pour commercer entre eux. De son côté, la Chine fait tout pour développer son autonomie commerciale en finançant et en rachetant, dans le cadre des Nouvelles routes de la soie, des infrastructures portuaires et ferroviaires, créant ainsi à son avantage de nouvelles dépendances dans les pays en voie de développement…  ainsi que dans quelques pays européens.

Ce processus de dédollarisation est-il amené à s’étendre et reflète-t-il la fin de l’hégémonie américaine ? Pour répondre à cette question il convient de rappeler que la monnaie a plusieurs usages. Elle peut être utilisée comme moyen de paiement, mais elle peut aussi servir de réserve de valeurs via l’achat d’actifs financiers. Or, si le dollar est un peu moins utilisé comme moyen d’échange, cela n’implique pas nécessairement que son poids dans les réserves de change diminue. Au deuxième trimestre 2023, les actifs libellés en dollar représentaient près de 60% des réserves de change des banques centrales selon le FMI. Une part qui s’est érodée en vingt ans puisque le dollar représentait un peu plus de 70% des réserves de change en 1999. La monnaie américaine reste donc hégémonique dans les réserves. En comparaison, l’euro n’en représente qu’environ 20% alors que l’UE est la première puissance commerciale mondiale. Quant au renminbi chinois sa part n’est que de 2,45% et elle a eu plutôt tendance à décliner dans la dernière période.

Autrement dit, même si le dollar est moins présent dans les échanges internationaux (il est tout de même utilisé dans un peu plus de 40% des transactions internationales) il continue d’être privilégié pour l’épargne. Il y a deux raisons à cela. La première est que Wall Street reste, de loin, la première place financière au monde. La force de la finance américaine vient du fait que son économie s’endette massivement et peut donc proposer un volume d’actifs financiers très attractif, avec des taux d’intérêt souvent plus élevés qu’en Europe. La seconde raison pour laquelle les épargnants préfèrent acheter des actifs en dollars est que les États-Unis sont un État de droit où l’investisseur est plus protégé qu’ailleurs, en particulier en comparaison de pays où le droit a tendance à se plier aux injonctions politiques, comme en Chine ou en Russie.

Une économie américaine fortement désindustrialisée

En matière économique et industrielle peut-on dire que les États-Unis sont en déclin ? Dans son ouvrage, Emmanuel Todd soulignait son considérable affaiblissement industriel. Sur ce point, le diagnostic est incontestable. Le secteur manufacturier américain représente moins de 12% du PIB et moins de 10% de l’emploi total, ce qui fait des États-Unis l’un des pays les plus désindustrialisés au monde (graphique 1).

Graphique 1 : Évolution de l’emploi du secteur manufacturier aux États-Unis (2000-2023).

Plusieurs conséquences découlent de cette sous-industrialisation. La première est le déficit de la balance des biens qui caractérise l’économie américaine depuis plus de cinquante ans et qui représente aujourd’hui entre 4 et 5% de son PIB. Ce déficit est problématique, car il signifie que la première puissance mondiale est dépendante du reste du monde pour une grande partie de ses biens de consommation et de production. Il implique aussi une dépendance financière puisque, chaque année, les Américains doivent s’endetter pour financer leurs besoins de consommation. Autre conséquence délétère, les problèmes sociaux et politiques entrainés par la perte d’emplois qui étaient souvent plus stables et mieux rémunérés que la moyenne. Le succès de Trump dans les États anciennement industrialisés de la région des Grands lacs en témoigne[2]. Enfin cette désindustrialisation handicape les États-Unis dans la mise en œuvre de la transition écologique. Il faudrait que les industriels puissent investir dans des équipements décarbonés, mais cela suppose qu’ils en aient les moyens, ce qui est loin d’être évident compte-tenu de leur affaiblissement général.

Le déclin industriel américain ressemble à celui qui a touché le Royaume-Uni à la fin du XIXe siècle. Il convient cependant de le relativiser. D’abord, parce que même avec 11% du PIB, le secteur manufacturier américain représente un volume d’activité respectivement 3,8 et 3,3 fois plus important que celui de l’Allemagne et du Japon. Seule la Chine, ou la zone euro dans son ensemble, pourraient rivaliser avec la puissance de l’industrie américaine[3]. Par ailleurs, comme le montre le graphique 1, la baisse de l’emploi manufacturier semble enrayée depuis la crise de 2009. C’est sans doute le fruit des pratiques commerciales protectionnistes et d’une politique industrielle plus ambitieuse portée par Washington.

Une avance technologique et scientifique qui s’est renforcée

Ce qui fait la force de l’économie américaine n’est pas la résilience partielle de son industrie, mais plutôt sa capacité à maintenir un écart conséquent avec le reste du monde dans les secteurs les plus avancés sur le plan technologique. Chaque année, près d’un million d’étudiants, parmi les plus brillants, partent étudier aux États-Unis. D’autres obtiennent un permis de travail et s’installent définitivement. Cette émigration concerne plus particulièrement les hauts diplômes et s’affirme davantage dans les secteurs scientifiques et technologiques, à tel point que, dans les domaines des sciences dures et de l’ingénierie, près de la moitié des contrats postdoctoraux américains sont occupés par des étrangers. Les autorités américaines pratiquent de longue date une politique d’immigration choisie qui draine les meilleurs cerveaux.  Conséquence de cette politique, le nombre de travailleurs étrangers travaillant dans les secteurs technologiques (STEM[4]) a plus que doublé en 20 ans, passant de 1,2 millions en 2000 à 2,5 millions en 2019. Les travailleurs d’origine étrangère représentent désormais 23,1% de la force de travail dans les STEM, contre 16,4% en 2000.

Ces dernières décennies, ce sont des États-Unis qu’ont émergé les sociétés les plus innovantes. C’est vrai dans la pharmacie (Pfizer et Moderna), dans le domaine spatial (Blue Origin, SpaceX), dans l’intelligence artificielle (Open AI, Deepmind) et même dans la voiture électrique (Tesla). Le territoire américain accueille les sièges sociaux de presque tous les géants du numérique. C’est le cas des GAFAM (Google, Apple, Facebook, Amazon, Microsoft), mais aussi des sociétés qui ont émergé plus récemment telles que Netflix, Uber, Airbnb ou Zoom. En fait, lors des deux dernières décennies, les batailles dans le secteur numérique ont pratiquement toutes été remportées par des sociétés américaines. Microsoft a conjuré les menaces de Libre Office et de Linux, Apple a pris la place de Nokia comme entreprise leader de la téléphonie mobile, YouTube a balayé Dailymotion, Google s’est imposé comme la référence des moteurs de recherche, la Fnac n’a pas résisté face à Amazon. Quelques rares entreprises européennes ont subsisté comme Spotify ou Booking ; mais il s’agit d’exceptions et ce sont pour la plupart des sociétés relativement anciennes. Enfin, les États-Unis dominent plus que jamais le secteur culturel. Les séries, les films et les franchises américaines de type Marvel se partagent les écrans, et on ne peut que constater que les stars de la musique qui ont émergé depuis le début des années 2000 (Lana Del Rey, Taylor Swift, Beyoncé, Billie Eilish …), sont la plupart du temps originaires d’outre-Atlantique. Même la pop anglaise a pratiquement disparu des classements mondiaux d’écoute musicale, ce qui était loin d’être le cas, ne serait-ce que dans les années 1990[5].

À la fin du XIXe siècle, l’une des difficultés rencontrées par les Britanniques était qu’ils ne parvenaient pas à s’imposer dans les technologies de la deuxième révolution industrielle : les appareils électriques, la chimie, l’automobile. Aujourd’hui, on ne peut que constater que l’économie américaine s’est parfaitement adaptée au tournant technologique du XXIe siècle et on ne voit pas quel pays pourrait lui contester la suprématie dans ces secteurs.

Ainsi, même si elle est devenue moins industrielle, l’économie américaine parvient à compenser ce handicap en dégageant d’importants revenus dans les secteurs numérique et culturel. Le déficit commercial de la balance des biens est de ce fait en partie compensé par d’importants excédents dans la balance des services et des revenus primaires (graphique 2). Ces revenus sont clairement la conséquence des rentes numériques et des droits de propriété intellectuelle générés par les investissements dans les activités technologiques, la culture et le numérique. Notons qu’une partie de ces revenus ne sont pas rapatriés pour des raisons fiscales. On peut donc penser que les revenus réels sont supérieurs à ce qu’indiquent les chiffres officiels.

Graphique 2 : Évolution de la balance courante des États-Unis en pourcentage du PIB (1989-2022)

Un dynamisme démographique et économique incontestable

Pour terminer l’état des lieux de la puissance américaine il convient d’étudier une dernière composante indispensable à la perpétuation d’un hégémon : la dynamique démographique. À première vue, on pourrait croire que la démographie étatsunienne pèse peu par rapport à celle de la Chine. Comment 340 millions d’Américains pourraient durablement dominer une Chine de 1,4 milliards d’habitants et rester hégémoniques sur une planète où vivront bientôt 9 milliards d’êtres humains ? C’est très simple. La population américaine croît rapidement. Ces vingt dernières années, elle a augmenté de 50 millions d’habitants, en grande partie grâce à l’immigration. Sur cette même période, la Russie a vu sa population légèrement décliner ; un déclin démographique qui pourrait s’accélérer à l’avenir en raison d’un indice de fécondité d’environ 1,5 enfants par femme. En Chine, la politique de l’enfant unique a, depuis plusieurs décennies, fortement réduit l’indice de fécondité à un niveau qui ne permet plus de renouveler les générations. La population chinoise en âge de travailler, qui est déjà en train de décroître, devrait être inférieure de 220 millions en 2050 par rapport à ce qu’elle est aujourd’hui d’après l’INED. À cette date, la population des États-Unis devrait approcher les 400 millions.

Alors que, en cette fin d’année 2023, la zone euro entre en récession et que la plupart des pays développés décrochent depuis 20 ans en termes de richesse par habitant par rapport aux États-Unis (graphique 3) la question à se poser ne devrait pas être celle du déclin de l’empire américain, mais plutôt celle de savoir pourquoi l’Europe, dans son ensemble, s’avère incapable d’afficher un dynamisme économique comparable à celui des États-Unis, et de comprendre pourquoi le PIB par habitant de la zone euro y est presque deux fois plus faible[6]. En octobre dernier le Financial Time le constatait crument : « l’avance de l’économie américaine sur celle de l’Europe […] devrait perdurer en 2024 et au-delà ». Autrement dit, l’hégémonie américaine est loin d’être terminée.

Graphique 3 : Évolution du PIB par habitant en parité de pouvoir d’achat (PPA) des principaux pays développés.

David Cayla

Références

[1] Source : Statistiques de l’ONU. PIB à prix courants, en dollars.

[2] La question sociale et le niveau extrêmement élevé des inégalités eux États-Unis pose naturellement la question de la permanence de la démocratie aux États-Unis que Todd soulevait dans son ouvrage. Il est néanmoins difficile de la traiter dans le cadre de cet article. Notons tout de même qu’en cas de réélection de Donald Trump, la stabilité de la société américaine et donc sa capacité à préserver son hégémonie pourraient être menacées.

[3] Le secteur manufacturier américain représente 11% d’un PIB de 25 460 milliards de dollars, soit une production de valeur ajoutée annuelle de 2800 milliards de dollars. En comparaison l’industrie allemande dans son ensemble représente 733 milliards de dollars, celle du Japon 846 milliards et celle de la Chine 5029 milliards. Ajoutons que le niveau technologique de la production industrielle chinoise est très inférieur à celui des trois précédents. Source : Banque mondiale : https://data.worldbank.org/indicator

[4] STEM est l’acronyme pour « science, technology, engineering, and mathematics ».

[5] On ne trouve aucun artiste européen dans le classement Spotify 2023 des dix artistes les plus écoutés sur la plateforme. Deux sont canadiens, deux sont colombiens, un est mexicain. Les cinq autres sont tous originaires des États-Unis.

[6] D’après la Banque mondiale, le PIB par habitant de la zone euro était de 40 755$ en 2022, contre 76 399$ pour les États-Unis. Autrement dit, un Américain bénéficie en moyenne d’un revenu annuel supérieur de 87% à celui d’un habitant de la zone euro. Évalué en parité de pouvoir d’achat pour supprimer les effets du taux de change, cet écart diminue à 35%.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

Peut-on financer la transition écologique par l’émission de monnaie « sans dette » ?

Chronique

Peut-on financer la transition écologique par l’émission de monnaie « sans dette » ?

Un certain nombre de personnalités et d’économistes affirme que les montants faramineux nécessaires pour organiser la transition écologique pourraient être payés sans coût en instaurant un mécanisme de création d’une monnaie « libre », sans endettement. Dans sa chronique mensuelle, David Cayla conteste cette solution et met en garde la gauche contre les promesses illusoires qui entendent nier le coût pour les ménages du financement de la transition.

En février 2021, en pleine pandémie de Covid, 150 économistes et personnalités européennes, dont Thomas Piketty et l’ancien ministre belge Paul Magnette, signaient une tribune dans Le Monde ainsi que dans d’autres journaux pour demander à la BCE d’annuler la part de la dette publique qu’elle détenait en échange d’un montant similaire d’investissements « dans la reconstruction écologique et sociale ». La proposition avait tournée court, Christine Lagarde ayant répondu dès le lendemain qu’une telle mesure était « inenvisageable » et qu’elle violerait les traités européens.

Savoir si annuler la dette publique détenue par la BCE est contraire ou non aux traités est une question à laquelle il est difficile de répondre tant que les autorités compétentes (en l’occurrence la Cour de justice de l’Union européenne) ne l’ont pas tranchée. Ce qui est certain, en revanche, c’est que les traités garantissent à la BCE une parfaite indépendance dans l’application d’un mandat dont l’élément principal est la stabilité des prix. De ce fait, lorsque l’inflation en zone euro a franchi la barre des 2% au cours de l’été 2021, il n’était plus du tout question d’exiger de la BCE d’assouplir sa politique monétaire.

Le reflux de l’inflation qu’on constate depuis quelques mois pourrait-il être l’occasion de relancer ce débat ? Cela semble être le cas puisque plusieurs voix se sont faites à nouveau entendre récemment à ce sujet.

Interrogé lors de la matinale de France Inter le 19 octobre dernier à l’occasion de la sortie de son dernier ouvrage, le banquier d’affaire Matthieu Pigasse estime par exemple que la seule manière de répondre aux besoins sociaux et écologiques serait « de faire plus de création monétaire ».

« Une part très importante de la dette publique française, de l’ordre d’un tiers, est détenue par la BCE et la Banque de France. Cette dette pourrait très facilement être annulée sans aucun effet négatif économique ou financier. […] On peut créer plus de monnaie pour financer les grands programmes d’investissement, pour la transition énergétique, pour le climat ou pour construire des écoles ou des hôpitaux d’une part, et d’autre part pour distribuer un revenu minimum. C’est ce qui a été fait pendant la crise du COVID. Le fameux ‘‘quoi qu’il en coûte’’, les centaines de milliards qui ont été versés sur l’économie française l’ont été en réalité non par de la dette mais par de la création monétaire. »

Quelques jours plus tard, dans une chronique publiée par Le Monde, l’économiste Jézabel Couppey-Soubeyran, cosignataire de la tribune de 2021 renchérissait dans la même logique en citant justement Pigasse. Comment faire pour financer les investissements non rentables de la transition écologique tels que la collecte des déchets océaniques ou la création de réserves de biodiversité, s’interroge-t-elle ? Le creusement de la dette ou la hausse de la fiscalité n’étant selon elle pas possible, « c’est donc vers une forme nouvelle de création monétaire, sans dette, qu’il faut se tourner pour financer l’indispensable non rentable ».

Le raisonnement est similaire, enfin, pour Nicolas Dufrêne, fonctionnaire à l’Assemblé nationale et directeur de l’Institut Rousseau, également cité par Couppey-Soubeyran. Dans La Dette au XXIe siècle. Comment s’en libérer (Odile Jacob), il dénonce « le discours parfois dogmatique de la gauche selon lequel il est nécessaire de taxer les riches et les entreprises pour faire du social » (p. 175). Dufrêne estime également que creuser la dette publique serait insoutenable, puisque la charge de la dette pourrait, selon lui, dépasser les 100 milliards d’euros à l’horizon 2030 (p. 44), on comprend assez vite qu’il faut trouver d’autres moyens pour financer la transition écologique et le bien être social. Et pour ce faire, la « solution » est simple : créer de la monnaie et annuler les dettes publiques détenues par la BCE. En effet, pour Dufrêne, « l’annulation est indolore » et permettrait de mettre en œuvre un « plan d’investissement gratuit » (p. 189).

De l’argent magique à l’économie magique

La lecture du livre de Dufrêne est édifiante. Son auteur est manifestement persuadé d’avoir trouvé la martingale économique ultime. Les conservateurs qui critiquent son idée seraient des esprits étroits, incapables de penser « en dehors du cadre ». « La monnaie est une institution sociale, elle est donc un peu ‘‘magique’’ par nature puisqu’elle repose sur la confiance du corps social et non sur des limites physique » écrit-il (p. 178). Dès lors, il suffirait de « permettre au Parlement de décider d’une introduction régulière d’une certaine somme de monnaie libre de dette de manière ciblée sur des tâches d’intérêt général » pour « redonner ses lettres de noblesse à la politique économique » (p. 179). « Soyons audacieux » s’enflamme-t-il plus loin dans la même page : « À terme, il ne serait pas impossible d’imaginer une complète disparition de l’impôt comme moyen de financer les dépenses publiques ».

Mazette ! La logique est imparable. Puisque la création monétaire est susceptible de financer tout ce dont nous avons besoin, et puisqu’on peut créer de la monnaie sans limite et autant qu’on le juge nécessaire, alors laissons le Parlement financer tout ce dont rêve la gauche.

« Une fois le mécanisme rodé, il pourra monter en puissance et prendre une part plus importante dans le financement des dépenses publiques, voire des dépenses sociales. Il pourra alors servir de socle à des projets ambitieux dont la simple évocation se heurte pour l’instant à des considérations insurmontables, au regard de leur coût potentiel sur les finances publiques : un revenu universel, une garantie d’emploi généralisé, une sécurité sociale de l’alimentation permettant à chacun de se nourrir de produits bio, une protection généralisée des biens communs à l’échelle nationale, voire mondiale » (p. 180).

Dans la logique de la « monnaie libre » telle qu’elle est imaginée par Dufrêne, les contraintes de financement n’existent pas et l’impôt n’est donc plus nécessaire. On peut ainsi tout avoir sans payer. « Il s’agit de passer d’une vision où l’on considère que les finances publiques ne sont qu’un moyen de mettre en commun et de répartir les richesses créées par l’activité des citoyens et des entreprises à une vision où les finances publiques deviennent l’un des moteurs de la création de cette richesse, sans avoir à piocher dans la richesse créée par les citoyens et les entreprises » (p. 180). « Notre proposition de monnaie libre revient à donner à l’État, c’est-à-dire à la collectivité, les moyens de s’en sortir par elle-même, sans avoir à contraindre qui que ce soit, du moins par (sic !) pour des raisons tenant à l’obligation de financement des dépenses publiques » (p. 182).

Le rêve et la réalité

Arrivé à ce stade du raisonnement, le lecteur bien intentionné ne peut être que perplexe. Il serait donc possible de financer des centaines de milliards d’euros d’investissement sans que cela ne coûte rien à personne ? Sans travailler davantage et sans réduire ses revenus ? Par le simple mécanisme de la création monétaire ? Si c’était vrai et si les économistes le savaient, alors ce serait un véritable scandale. Le plus étrange dans cette affaire est que ce soit un non-économiste qui révèle le pot-au-rose. La conjuration des économistes aurait-elle empêché l’humanité de se libérer de la dette de manière définitive alors que la solution était évidente ? Émettre de la « monnaie sans dette », de la « monnaie libre ». Avec un peu de chance on, pourrait même se passer de travail puisque l’argent, qu’on peut créer de manière illimitée, travaillerait pour nous.

Revenons sur terre. Et pour cela, revoyons quelques bases concernant le fonctionnement de l’économie.

La première chose qu’il faut dire c’est que la monnaie n’est pas de la richesse. En économie, on peut raisonner à plusieurs niveaux en étudiant les flux « monétaires », les flux « financiers » ou les flux « réels ». Les flux réels sont constitués des biens et des services que nous produisons et que nous échangeons. C’est ce qu’on appelle la richesse. Quant à la monnaie, elle représente et elle quantifie la richesse, mais elle n’en est pas elle-même. En effet, elle n’a de valeur que dans la mesure où elle peut être convertie en richesses réelles. On peut ainsi observer que dans une transaction marchande classique il y a bien deux flux de nature différente. Un flux « réel » qui va du vendeur vers l’acheteur (c’est la marchandise), et un flux monétaire qui va lui de l’acheteur vers le vendeur.

Pour appréhender les conséquences de cette représentation, il suffit de revenir aux propos cités plus haut. Pourrait-on, en créant de la monnaie « libre », instaurer « une sécurité sociale de l’alimentation permettant à chacun de se nourrir de produits bio » ? Si l’on a une vision naïve de l’économie, on pourrait croire qu’en donnant suffisamment de monnaie aux consommateurs, ces derniers pourraient acheter une quantité potentiellement illimitée de produits bios. Le problème est qu’on ne peut acheter avec de la monnaie que des biens qui ont été produits dans la sphère réelle. Or, pour produire des aliments bios il faut des terres, des agriculteurs et du travail.

D’après une étude du ministère de l’agriculture, les rendements par hectare de l’agriculture biologique sont entre 28 et 57% inférieurs à ceux de l’agriculture conventionnelle. Cela signifie qu’en convertissant en bio l’ensemble des surfaces cultivées, la France diminuerait de plus d’un tiers sa production agricole. Donc sauf à recourir massivement à des importations, on ne pourra pas nourrir tout le monde. Comment la création monétaire pourrait-elle résoudre ce problème ? La réponse est simple : elle ne le peut pas.

Ni l’économie ni la monnaie ne sont « magiques ». Tout ce qui est vendu et consommé est nécessairement le résultat d’une transformation productive. Cette transformation a un coût « réel ». Le travail, le temps, les matières premières, les ressources qui ont été nécessaires à la production. Si les produits bios sont plus chers en monnaie que les produits de l’agriculture conventionnelle, c’est pour une raison qui tient à la sphère réelle. C’est tout simplement parce que pour produire une tomate bio il faut plus de terre et de travail que pour produire une tomate conventionnelle.

Au XVIe siècle, les élites espagnoles avaient une vision bullioniste de l’économie. Elles pensaient que la richesse d’une nation était strictement dépendante des quantités d’or et d’argent qu’elle détenait. C’est pour cela que les colonies espagnoles du Nouveau monde avaient pour principal objectif d’exploiter les mines d’or et d’argent qui s’y trouvaient. Pourtant, en dépit des flux de métaux précieux considérables qui se déversèrent sur l’Espagne à cette époque, le pays s’est globalement appauvri durant la période coloniale.

Le coût réel de l’investissement

Dans une économie, la richesse réelle a différents usages. Elle peut être consommée ou investie. Lorsqu’elle est consommée, elle est utilisée par les ménages au profit de leur propre bien-être. Lorsqu’elle est investie, elle est utilisée par l’État et les entreprises principalement pour améliorer le moyens de production, les bâtiments et les infrastructures productives.

D’un point de vue formel on peut résumer l’économie à cette équation simplifiée :

PIB = Consommation + Investissement

Dans toute société, un arbitrage existe entre consommer et investir. En termes réels, ce choix se traduit de la manière suivante : soit on investit des ressources, du travail et du temps pour produire des machines et des bâtiments productifs, soit on décide que ces ressources et ce temps doivent être consacrés à la consommation. À moins de penser que les ressources naturelles et le temps de travail soient illimités, ce qui est absurde, on ne peut pas à la fois augmenter l’investissement et la consommation. De fait, augmenter la masse monétaire ne changera pas les données de cette équation. Si vous avez une main d’œuvre, vous pouvez soit lui faire produire des biens de consommation, soit lui faire produire des biens de production. Mais vous ne pouvez pas créer ex nihilo de nouveaux travailleurs, pas plus que vous ne pouvez faire apparaitre du pétrole et des terres cultivables.

On sait que la transition écologique va nécessiter un énorme effort collectif d’investissement. Concrètement, cela signifie qu’il va falloir rénover notre parc de logements, construire de nouvelles voies de chemin de fer, décarboner notre système énergétique. Il faudra changer presque tous nos véhicules, remplacer nos centrales électriques à gaz et à charbon, produire de l’acier sans charbon… Tout cela aura un coût réel considérable. Des millions d’emplois devront être consacrés à construire concrètement ces investissements. Des ressources énergétiques et des matières premières devront être orientées à cet usage. Le problème est que toutes les ressources qui seront consacrées à produire davantage de biens d’investissements ne pourront être utilisées pour produire des biens de consommation. Autrement dit, pour organiser la transition écologique il va falloir réorienter notre économie vers plus d’investissement et moins de consommation.

À partir de là, deux scénarios sont possibles. Si l’on est optimiste, on peut se dire que la croissance suffira à rendre indolore la transition écologique pour les ménages. Cela suppose que la croissance du PIB soit entièrement consacrée à augmenter l’investissement sans prélever sur la consommation des ménages. Le problème est que, dans ce cas, le rythme de la transition sera dépendant du niveau de croissance économique. Or, celle-ci n’est pas assurée. Aussi, le scénario le plus réaliste et le plus responsable serait de ne pas trop compter sur la croissance. Dans ce cas, pour s’assurer que les investissements soient réalisés le plus rapidement possible, il faudra réorienter des ressources productives de la consommation vers l’investissement. Cela se traduira, sur le plan monétaire, par une baisse des revenus et du pouvoir d’achat des ménages.

Aucune solution magique n’existe pour résoudre les paramètres de cette équation. La transition écologique sera d’autant plus rapide et efficacement mise en œuvre que le pouvoir d’achat des ménages sera globalement réduit. Ainsi, la seule manière d’organiser politiquement cette réduction et d’y introduire un minimum de justice sociale sera de faire en sorte que les ménages les plus aisés supportent l’essentiel de cette baisse. Et la façon la plus simple de baisser le pouvoir d’achat des catégories aisées c’est encore par la fiscalité. Pardon de tenir un « discours dogmatique », mais promouvoir de fausses solutions aux naïfs est encore le moyen le plus sûr de ne jamais organiser une transition écologique ambitieuse.

Lire aussi...

Comment les prix de l’énergie sont devenus fous

Chronique

Comment les prix de l’énergie sont devenus fous

Dans son dernier ouvrage sorti le 6 octobre dernier, Aurélien Bernier brosse le portrait d’une crise énergétique, conséquence non de l’invasion russe de l’Ukraine, mais bien de l’aveuglement et du dogmatisme de nos classes dirigeantes, lesquelles n’ont eu de cesse de détruire le service public de l’énergie au nom de la libéralisation, du marché unique et de la concurrence libre et non faussée. Le résultat est que les Européens disposent d’un système de production et de distribution de l’énergie coûteux, opaque et inefficace.

Le 4 octobre dernier, le gouvernement allemand annonçait un nouveau recul de ses objectifs climatiques en renonçant provisoirement à fermer ses centrales au lignite (un type de charbon très polluant). L’argument avancé était que cette réserve de production d’électricité devait pouvoir être activée en cas de pic de consommation afin « d’économiser du gaz dans la production ». Mais le plus important était surtout que le gouvernement allemand espérait que cette décision permette de maintenir un prix de l’électricité bas pendant l’hiver. Il faut dire que depuis l’invasion russe de l’Ukraine, le gaz importé coûte beaucoup plus cher, en particulier parce qu’il ne passe plus par des gazoducs mais par des plateformes de gaz naturel liquéfié (GNL) ; il faut donc trouver des expédients pour éviter l’explosion des factures qui ne sont bonnes ni pour le moral des ménages, ni pour la compétitivité des entreprises.

Comble de l’ironie, quelques mois plus tôt ce même gouvernement avait annoncé la fermeture définitive de ses trois derniers réacteurs nucléaires dont les capacités de production, décarbonées, étaient pourtant plus de deux fois supérieures à celles des centrales au lignite maintenues (4 GW contre 1,9 GW).

La gestion de l’énergie, soulève de nombreuses questions, en Allemagne comme ailleurs en Europe. Comment organiser la transition énergétique à l’heure où les impératifs climatiques imposent la réduction de nos émissions de gaz à effet de serre ? Comment se passer de notre dépendance au gaz russe sans faire exploser les coûts de l’énergie ? Comment reprendre le contrôle sur les prix sans pour autant réactiver nos vieilles centrales à charbon ?

Préserver la souveraineté des politiques énergétiques

En réalité, la question qui englobe toutes les autres est celle de la souveraineté énergétique. Pour l’aborder, le dernier ouvrage d’Aurélien Bernier, L’Energie hors de prix est un guide salutaire. Pour commencer, il convient de poser quelques définitions. En premier lieu, lorsqu’on parle de souveraineté énergétique, de quoi parle-t-on exactement ? Comme le note très justement Bernier, « la France n’atteindra jamais la souveraineté énergétique » (p. 165). L’uranium, tout comme les énergies fossiles, sont massivement importés. Quant à la production d’énergie renouvelable et de batteries électriques, elle a besoin de composants eux aussi importés. Mais si la France ne devient jamais autonome en matière énergétique rien ne l’empêche de décider de l’organisation de la production et la distribution de l’énergie sur son territoire. C’est la souveraineté en matière de politiques énergétiques qu’il faut préserver. Comme l’expliquait la regrettée Coralie Delaume, la souveraineté est l’autre nom de la démocratie. Être souverain, c’est confier au peuple le pouvoir de décider de ses propres affaires. Or, « le principal obstacle à cette souveraineté en matière de politique énergétique, c’est le marché », note Bernier à juste titre (p. 165).

Ainsi, remettre l’énergie au cœur du débat et de la démocratie suppose de comprendre comment le marché s’est étendu au détriment du politique et de s’interroger sur les moyens de recouvrer le pouvoir de contrôler à nouveau la manière de répondre à nos besoins énergétiques. C’est tout l’intérêt du livre de Bernier que de décrire l’histoire de cette spoliation et, par effet de miroir, de comprendre ce qu’il faudrait faire pour l’inverser.

Le livre de Bernier s’inscrit dans un travail ancien, puisqu’il avait déjà publié un livre remarqué sur le sujet, Les Voleurs d’énergie (Utopia, 2018). Sans surprise, on trouve des éléments communs aux deux ouvrages, notamment dans les deux premiers chapitres qui abordent l’histoire des privatisations et leurs conséquences. Dans ce passage, comme dans le reste de l’ouvrage, Bernier étudie les secteurs du gaz et de l’électricité. Il n’aborde pas le sujet du pétrole et des carburants dont l’histoire a pourtant bien des points communs avec celle du gaz et de l’électricité (Total et Elf Aquitaine ont été des groupes publics avant d’être privatisés, puis fusionnés, et enfin se transformer en grands conglomérats transnationaux).

Deux éléments sont marquants dans cette histoire. Le premier, ce sont les aller-retours permanents entre régulation et dérégulation, entre objectifs de flexibilité et de sécurité. Bernier insiste sur le fait que la production et la distribution de gaz et d’électricité ont d’abord été confiées au secteur privé dans la plupart des pays du monde. Cependant, l’incapacité du privé à organiser une distribution généralisée de l’énergie et son inefficacité à assurer un service convenable ont conduit les gouvernements à nationaliser ou à sérieusement encadrer les systèmes de production et de distribution de l’énergie.

De plus, la conception qu’on a de la manière dont un marché doit fonctionner varie selon les époques. Ainsi, Bernier rappelle qu’au début de la libéralisation il fallait absolument limiter les contrats à long terme avec les pays producteurs de gaz afin de rendre le marché plus « liquide » (p. 87). Puis, lorsque la trop grande liquidité du marché de l’énergie a fait exploser les tarifs, il a fallu faire l’inverse et favoriser les contrats de long terme afin de sécuriser les prix. D’un côté on nous dit qu’un bon marché doit être fondé sur le « signal-prix », censé permettre les adaptations mutuelles de la demande et de l’offre (et on crée des bourses de l’énergie pour cela), de l’autre dès qu’une crise importante survient et que les prix deviennent fous, on propose davantage de régulation et de contrats à long terme, et on autorise les gouvernements à subventionner l’énergie au nom de la compétitivité des entreprises et de la paix sociale.

Le rôle central de l’idéologie néolibérale

Le second élément qui ressort de la synthèse historique proposée par l’auteur est le rôle central de l’idéologie et de la politique dans la libéralisation des marchés de l’énergie. Faut-il le rappeler ? Un marché n’existe pas « naturellement ». Il doit être pensé, créé, mis en œuvre. Tout cela nécessite une puissante volonté politique qui s’inscrit dans la durée. En l’occurrence, c’est la force de l’idéologie néolibérale d’avoir mis au cœur de son projet politique la gestion marchande de l’énergie. Depuis la libéralisation chilienne des années 1970 sous Pinochet, jusqu’à celle de l’Union européenne dans les années 1990-2000, en passant par la libéralisation thatchérienne au Royaume-Uni, il y a plus qu’une continuité. Les mêmes penseurs et les mêmes principes sont à l’œuvre, comme le souligne l’auteur (p. 25). On regrettera toutefois l’usage impropre de qualificatifs tels que « ultralibéraux » (p. 23) pour parler des Chicago boys, ces économistes chiliens formés par Milton Friedman. De même, qualifier de « libérale » l’idéologie qui a conçu cette forme de libéralisation est extrêmement réducteur. En effet, le libéralisme traditionnel entend organiser le retrait de l’État de l’économie et conçoit le marché comme une institution naturelle. Or, ce que démontre les exemples des marchés du gaz et de l’énergie, c’est qu’absolument rien n’est « naturel » dans les dispositifs choisis. Ces derniers ne sont pas libérés de l’État ; c’est lui (ou plutôt l’Union européenne pour le cas de la France) qui a instauré ces marchés et leurs systèmes de régulation et qui l’organise selon des critères très précis censés à la fois produire des signaux-prix pertinents, organiser la transition écologique ou encore préserver la concurrence.

La forme qu’a pris la libéralisation des marchés de l’énergie n’a donc rien de « libérale », contrairement à ce qu’écrit Bernier. C’est du néolibéralisme à l’état pur. Par ailleurs, tout en étant mue par des considérations politiques et idéologiques extrêmement fortes, ce qui est largement souligné dans l’ouvrage, la transformation de la gestion et de la distribution de l’énergie n’a fait l’objet d’aucun débat démocratique. C’est dans les arcanes de Bruxelles et à l’issue de négociations opaques entre États que les marchés de l’énergie ont été libéralisés de la manière dont ils l’ont été. Et ce sont d’ailleurs les mêmes négociations opaques qui se tiennent à l’heure actuelle et promettent de tirer les leçons de la crise de 2022. À aucun moment les citoyens n’ont été directement consultés sur la forme que devait prendre la gestion de l’énergie. Et c’est toujours sans consultation des populations que l’on réforme aujourd’hui le marché de l’électricité ou que l’on engage d’importants investissements pour construire de nouveaux terminaux méthaniers.

Une libéralisation complexe et opaque

On répondra que tout cela est beaucoup trop complexe pour être arbitré par de simples citoyens. C’est parfaitement exact. Rien n’est plus compliqué que le fonctionnement actuel des marchés de l’énergie. Mais d’où vient cette complexité ? Du temps des monopoles publics d’EDF et de GDF, la chose était plutôt simple. Nul besoin, alors, d’un régulateur, d’un médiateur, de négociations franco-allemandes interminables. Le responsable de l’approvisionnement en énergie des ménages et des entreprises était le ministre de tutelle des monopoles publics. Pas besoin, dans un monopole public, d’une bourse de l’énergie ou d’une gestion des producteurs d’électricité en fonction du « merit order »(1), c’est-à-dire de leur coût de production marginal. Inutile d’organiser un « marché de capacités » (p. 105) pour éviter le blackout en période de pointe ; pas besoin de revendre à un tarif privilégié une partie de l’électricité nucléaire aux distributeurs dans le cadre de l’ARENH (accès régulé à l’électricité nucléaire historique). Et surtout, comme le souligne très bien Bernier, le monopole d’Etat est sans doute l’instrument le plus sûr pour organiser des politiques publiques de l’énergie, par exemple pour décarboner nos usages, protéger la population de l’inflation ou trouver des recettes publiques permettant de financer des projets gouvernementaux (p. 85). Avec le monopole public de l’énergie, on sait qui décide et qui est responsable des dysfonctionnements. Avec les marchés actuels de l’énergie, chacun peut s’exonérer de sa propre responsabilité et les défaillances deviennent systémiques.

Lire : Comment et pourquoi le marché européen de l’électricité a déraillé.

En fin de compte, si la libéralisation de l’énergie s’est avérée d’une incroyable complexité, c’est sans doute parce que la gestion privée d’un service aussi essentiel que l’approvisionnement énergétique n’a rien d’évident. On n’a pas libéralisé pour plus de performances ou davantage de transparence, mais on a réduit les performances et opacifié le système pour rendre la libéralisation possible. Comme le souligne l’économiste et ancien dirigeant d’EDF Marcel Boiteux, cité par l’auteur, « Il ne s’agit plus d’ouvrir la concurrence pour faire baisser les prix mais d’élever les prix pour permettre la concurrence »(2).

On comprend à la lecture du livre d’Aurélien Bernier que la complexité est au cœur des stratégies de libéralisation. Ainsi, le prix de l’électricité est le produit d’une architecture fondée sur une combinaison de prix dont chacun remplit un rôle spécifique. Car, contrairement à ce qu’on pourrait penser, les prix de gros sur le marché de l’électricité, celui auquel s’approvisionnent les distributeurs, n’est pas le simple résultat des rapports de force entre offreurs et demandeurs. « Au bout du compte, écrit Bernier, le prix de bourse de l’électricité empile le prix de la production (en grande partie celui des centrales au gaz), le prix du mécanisme de capacité, le prix du carbone. Pour peu que l’offre soit ‘‘verte’’, on ajoute le prix de la garantie d’origine. Avec de la spéculation à chaque étage » (p. 106).

Et ce n’est pas fini. Car le prix de marché n’est pas celui que paie le consommateur. Pour retrouver le prix des factures il convient d’ajouter les tarifs des organismes publics qui gèrent les lignes haute et basse tension (RTE et Enedis), les coûts de la quarantaine de distributeurs qui se livrent une guerre commerciale elle aussi très coûteuse en dépenses de communication et en démarchages en tous genres, le coût de la régulation et des institutions publiques de médiation qui visent à informer les consommateurs perdus dans la jungle des tarifs et des pratiques commerciales douteuses… et bien sûr le coût des taxes diverses dont la fameuse « Contribution au Service Public d’Electricité » qui, c’est le comble de l’ironie, date justement de l’époque où le service public a été abrogé. « Tout ceci pour avoir le ‘‘choix’’ entre des détaillants qui vendent presque tous la même marchandise », note Bernier avec malice (p. 80).

Quelles leçons tirer de la crise de 2022 ?

Cette véritable cathédrale de complexité conçue au nom de la libéralisation du marché de l’énergie a complètement disjoncté en 2022. Le gaz russe s’étant soudainement arrêté de circuler dans les gazoducs, les prix du gaz et de l’électricité ont atteint des sommets délirants, menaçant la survie d’une grande partie du secteur industriel et productif. Que s’est-il passé à ce moment-là ? Le livre d’Aurélien Bernier permet d’entrer dans le détail de cette histoire et de déconstruire quelques mythes.

Première leçon : si l’invasion russe de l’Ukraine a incontestablement renforcé la crise européenne de l’énergie, elle n’en est pas à l’origine. Les prix avaient commencé à augmenter bien avant, en réalité dès l’été 2021, au moment de la reprise post-covid. Ainsi, dès le mois d’octobre, certains fournisseurs alternatifs, sentant le vent tourner, avaient décidé de se retirer du marché. C’est le cas par exemple du danois Barry Energy qui promettait de mettre en place une tarification dynamique. Le principe étant que le prix payé par l’usager est indexé sur le cours du marché de gros. La tarification dynamique a été rendue possible par l’introduction du compteur Linky qui peut déterminer la consommation d’un foyer en temps réel et donc modifier la tarification à chaque instant. Comme le souligne Bernier, cela revient à « reporter une grande partie du risque boursier sur l’abonné » (p. 145).

L’offre de Barry Energy n’a de sens que dans un contexte où les cours boursiers sont en moyenne inférieurs au tarif régulé. Or, ce n’était déjà plus le cas six mois avant l’invasion russe de l’Ukraine, et c’est ce qui explique que ces tarifs n’ont pas encore été proposés en France (ils existent dans d’autres pays). Si cette pratique devait se généraliser, on imagine que les clients de ces contrats devront jouer des interrupteurs plusieurs fois par jour en ayant les yeux rivés sur les cours de la bourse de l’électricité.

La deuxième leçon que l’auteur tire de la crise est qu’elle a donné lieu à un nombre incalculable de malversations de la part des fournisseurs alternatifs. Ayant acquis des quotas d’électricité à bas coût grâce au mécanisme de l’ARENH, certains fournisseurs ont cherché à se débarrasser de leurs clients en augmentant subitement leurs tarifs ou en leur conseillant de repasser chez EDF. Grâce à cette manœuvre, ils pouvaient revendre au prix fort à EDF l’électricité qu’ils lui avaient acheté au tarif de 42€ le MWh (p. 115). Aurélien Bernier souligne que ces opérations sont parfaitement légales, puisque certains fournisseurs tels Mint Energie n’hésitent pas à s’en vanter auprès de leurs actionnaires (p. 118). Au passage, si les fournisseurs alternatifs les plus malins ont pu profiter de la crise pour revendre très cher une électricité achetée à bas prix à EDF, l’entreprise publique a, pour sa part, perdu beaucoup d’argent, un fait qui aurait mérité d’être davantage souligné dans l’ouvrage.

Troisième leçon de la crise, le marché s’avère incapable de produire les bons investissements et d’anticiper les crises. Dans le cas du gaz, l’épuisement progressif des gisements de la Mer du Nord n’a pas conduit les fournisseurs européens à diversifier leurs sources d’approvisionnement. Au contraire, ils ont laissé la Russie développer ses propres infrastructures d’exportation, ce qui a amplifié les conséquences de la rupture de l’approvisionnement russe. Pour ce qui concerne les investissements dans la production d’électricité, ils vont prioritairement là où les prix sont les plus élevés. Or, pour que les prix de l’électricité soient élevés, il faut que le système de production se retrouve régulièrement à la limite du blackout. Du fait de sa conception, le marché européen de l’électricité ne peut rémunérer les producteurs à des tarifs élevés que dans la mesure où des centrales coûteuses sont mises en route en période de pic de demande. Ainsi, une surcapacité productive fait perdre beaucoup d’argent à l’ensemble des producteurs. Il faut donc absolument l’éviter… et donc sous-investir !

Enfin, la dernière leçon de la crise est que, si l’on en croit les experts qui conseillent la Commission européenne et le gouvernement français, il est urgent… de ne rien changer. Ainsi, pour la Commission, toute réforme du marché européen de l’électricité doit avant tout « préserver le cœur du marché intérieur ». Il en va de même pour l’économiste Jean-Michel Glachant qui publie fin 2022 une note de travail pour le Centre Robert Schuman où il affirme qu’« il serait irresponsable de casser ou de brider ce remarquable outil ». Quant à Nicolas Goldberg et Antoine Guillou, ils n’hésitent pas à juger, dans une note écrite pour le Think Tank de gauche néolibéral Terra Nova que « contrairement à ce qu’affirment certains acteurs économiques et politiques, sortir tout bonnement du marché européen de l’électricité serait contre-productif et même dangereux car il s’est révélé être un facteur de résilience indispensable en cas de crise et son fonctionnement envoie le bon pour équilibrer le réseau électrique à tout moment » (citations extraites des pages 151-153).

En fin de compte, ce que nous apprend la crise européenne de l’énergie c’est que le dogmatisme idéologique, le conservatisme des classes dirigeantes et certains intérêts bien compris se sont coalisés pour ôter à la population le droit de gérer son énergie en la baignant dans un environnement où les forces de la concurrence et du marché décident à la place du citoyen quels investissements doivent être faits et qui doit en bénéficier. Ce qui est sûr, c’est que ce n’est pas ainsi que nous parviendrons à relever les défis climatiques qui nous attendent ni à planifier la décarbonation de nos économies. Mais tant que le marché produit le « bon » signal-prix, nous sommes sauvés !

David Cayla

 

Références

(1)Voir David Cayla « Comment et pourquoi le marché européen de l’électricité a déraillé », Le Temps des ruptures.

(2) Marcel Boiteux « Les ambiguïtés de la concurrence. Electricité de France et la libéralisation du marché de l’électricité », Futurible n° 331, juin 2007.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

Inflation ou récession ?

Chronique

Inflation ou récession ?

Le dilemme de la Fed et l’impuissance européenne
Dans sa chronique mensuelle, David Cayla craint que la disparition des politiques monétaires accommodantes du fait de l’inflation ne débouche sur une récession. Mais tandis que les Etats-Unis se sont dégagés des marges de manœuvre en matière de politiques économiques qui pourraient leur permettre d’éviter une crise, l’Union européenne reste coincée dans ses institutions néolibérales qui l’empêchent d’agir. La récession qui vient sera-t-elle enfin l’occasion d’une remise en cause du modèle européen?

Les mauvaises nouvelles économiques s’accumulent. Cet été, la Chine a connu une déflation historique sur fond de crise immobilière, d’endettement des collectivités territoriales et d’un niveau record de chômage des jeunes. Si la crainte d’une récession a longtemps plané sur l’économie américaine, c’est aujourd’hui la zone euro qui est touchée, avec une récession technique au début de l’année 2023 mise en évidence par la révision des chiffres du PIB du 8 juin dernier.

Le problème est que les marges de manœuvre laissées aux États pour modifier le cours de l’économie sont réduites. Une vidéo d’Alexandre Mirlicourtois, publiée le 31 août dernier sur Xerfi Canal, concluait d’un épuisement du modèle économique européen. Fondée sur le commerce et les exportations, l’économie européenne ne serait plus adaptée au grand basculement géopolitique que le monde connaît aujourd’hui et qui nécessiterait une réaffirmation de l’autonomie stratégique de l’UE. Le danger est que, face au conflit Chine / États-Unis, l’Europe soit progressivement reléguée, voire vassalisée par la puissance américaine. Militairement dépendante de l’OTAN et privée de gaz russe, elle a de fait accru sa dépendance vis-à-vis des États-Unis ces derniers mois.

L’échec des stratégies économiques européennes

L’impasse européenne d’aujourd’hui est sans aucun doute la conséquence des échecs d’hier. Dans les années 2000, le grand projet européen était la « stratégie de Lisbonne » qui visait à faire de l’UE « l’économie de la connaissance la plus compétitive et la plus dynamique du monde ». Rien que ça ! Dans les années 2010, la stratégie « Europe 2020 » prit le relais avec les mêmes ambitions en matière de recherche et d’innovation, mâtinée d’une dose d’écologie et de croissance verte. Que constate-t-on plus de vingt ans plus tard ? Non seulement l’essentiel de l’innovation, en particulier dans le numérique, est venue des États-Unis (smartphones, voitures électriques performantes, réseaux sociaux, Uber, Netflix, Chat GPT, …) mais surtout l’économie européenne progresse moins vite que celle des États-Unis.

L’écart qui s’accroit entre ces économies est un fait nouveau. Jusqu’aux années 1980, l’Europe de l’Ouest avait une croissance structurellement plus forte que celle des États-Unis du fait du rattrapage de l’après-guerre. L’écart s’est ensuite stabilisé, avant de se creuser. En termes réels (c’est-à-dire hors inflation), entre 1999 et 2022, le PIB par habitant a augmenté de près de 33% aux États-Unis, contre 25% au sein de la zone euro et au Royaume-Uni (figure 1). Autrement dit, les revenus aux États-Unis augmentent 30% plus vite que sur le continent européen alors qu’ils sont deux fois plus élevés ($37 150 par habitant pour la zone euro contre $76 400 aux États-Unis en 2022). Du rattrapage, on est passé au décrochage.

Figure 1 : Évolution comparée des revenus réels (PIB/hab) entre 1999 et 2022

On peut bien entendu questionner la pertinence du PIB comme indicateur pertinent du niveau de vie et relever, par exemple, qu’en termes d’espérance de vie, d’émissions de CO2, d’inégalités et même de bien-être social, la situation des Européens est sans doute meilleure que celle des Américains. Mais on manquerait alors l’essentiel : la question n’est pas de savoir où l’on vit le mieux, mais d’analyser la capacité des politiques publiques à accomplir les objectifs que les responsables politiques se sont donnés. Or, si on entend devenir l’économie la plus « innovante » et la plus « compétitive » au monde et que l’on aboutit, vingt ans plus tard, à une économie où la croissance et l’innovation sont plus faibles qu’ailleurs, c’est qu’il y a quelque chose qui dysfonctionne dans la capacité des dirigeants européens à agir sur la réalité.

Plus largement, si cette situation est inquiétante c’est aussi parce que les enjeux économiques et climatiques auxquels l’UE est confrontée sont immenses. Pour l’avenir, il ne s’agira pas simplement de préserver l’innovation et la compétitivité mais d’organiser une vaste et profonde transition écologique afin de décarboner le système productif européen. Or, si l’UE n’est pas parvenue à devenir une économie innovante et compétitive entre 2000 et 2020, qu’est-ce qui nous garantit qu’elle pourra atteindre ses objectifs climatiques d’ici 2050 ? C’est toute la crédibilité européenne qui est mise à mal par l’échec de la stratégie de Lisbonne et l’impuissance de ses politiques économiques.

L’impuissance des politiques économiques européennes

Il est nécessaire, à ce stade, de rappeler quelques définitions. Tout d’abord, une politique économique se définit comme l’action discrétionnaire d’une autorité publique sur le système économique, entreprise dans le but d’accomplir des objectifs politiques. Ainsi, mener une politique économique, c’est changer les règles, « bousculer le réel », afin de corriger une trajectoire qui ne serait pas conforme aux objectifs qu’on s’est donnés. La nature d’une politique économique est donc d’être discrétionnaire, c’est-à-dire qu’elle doit relever d’un choix souverain. Elle représente l’action d’une autorité publique investie d’un pouvoir et d’une légitimité institutionnelle pour agir.

Dans les faits, on distingue quatre grands types de politiques économiques. Les politiques budgétaires visent à utiliser le levier du budget (fiscalité, dépenses…) pour redistribuer les ressources au sein de l’économie ; les politiques monétaires déterminent les taux d’intérêt et encadrent le fonctionnement du système bancaire ; les politiques commerciales entendent réorganiser les échanges avec l’extérieur (plus ou moins de protectionnisme ou de libre-échange) ; enfin les politiques industrielles accompagnent la transformation du système productif en intervenant directement dans certains secteurs stratégiques par des subventions, la mise en place de normes, voire, au sein même des entreprises par des nationalisations.

Dans un État pleinement souverain et démocratique, les politiques économiques, ainsi que leurs objectifs, devraient être débattues publiquement, mises en œuvre, puis leurs effets évalués, avant d’être éventuellement révisées au cours d’un processus de consultation citoyen. Le problème est que la plupart de ces politiques ont été soustraites à l’action souveraine des États et donc au débat public. Ce processus d’ « impuissantisation » des politiques économiques s’est produit en deux temps.

Dans un premier temps, on a redéfini le cadre légitime de l’action publique dans l’économie. Pour cela, les théoriciens du néolibéralisme ont proposé une nouvelle norme, basée sur les prix de marché dans un système concurrentiel. L’idée sur laquelle cette norme repose est que la performance économique émane d’un environnement concurrentiel qui permet d’ajuster les prix en fonction de l’offre et de la demande. Les prix véhiculent alors l’information et permettent d’ajuster les comportements de manière à maximiser l’utilité sociale. Ainsi, pour les néolibéraux, le rôle de l’État serait essentiellement d’assurer le bon fonctionnement de cette dynamique en instaurant les institutions visant à renforcer la régulation marchande : une autorité de régulation de la concurrence, une banque centrale dont le mandat est basé sur la stabilité des prix, un système social minimal afin de prévenir les désordres politiques, et enfin une mondialisation instaurant l’ouverture la plus large possible des économies aux marchés mondiaux, tant pour les marchandises que pour les capitaux.

Lire : Le dernier ouvrage de David Cayla : déclin et chute du néolibéralisme

Une fois son cadre normatif posé, le néolibéralisme s’est ensuite imposé via la création d’institutions juridiques et politiques spécifiques. En Europe, la signature de l’Acte unique européen en 1986 constitue un moment de basculement. La création du marché unique a de fait imposé une double contrainte aux politiques économiques. D’abord, le principe de libre circulation du capital au sein de l’UE et vis-à-vis des pays tiers accéléra brutalement la financiarisation des économies et la perte de contrôle du politique dans ce domaine ; ensuite, l’interdiction de « fausser « la concurrence par des aides publiques empêcha toute politique industrielle. Les traités de Maastricht en 1992 et d’Amsterdam en 1997 parachevèrent la « néolibéralisation » de l’UE par l’instauration de nouvelles contraintes budgétaires (le fameux critère de 3% de déficit public) et par la création d’une banque centrale indépendante des pouvoirs élus et ayant pour mandat quasi exclusif la stabilité des prix. Ajoutons à ce tableau la création de l’Organisation mondiale du commerce (OMC) en 1995 et la réaffirmation, dans les traités européens, de l’objectif libre-échangiste et nous avons dressé le panorama complet des nouvelles institutions qui encadrent et limitent l’action publique dans l’économie.

Un point mérite d’être souligné. Avec la création du marché unique, la marchandisation de l’économie s’est étendue. Ainsi, les services publics tels que l’énergie, les transports, les télécommunications… n’ont plus été considérés comme relevant du domaine de l’action publique mais de celui du marché. C’est ainsi qu’on a créé les marchés des transports aérien et ferroviaires, que les services de téléphonie et d’accès à internet sont aujourd’hui fournis par des entreprises privées en concurrence et que l’électricité et le secteur énergétique ont été libéralisés.

Lire : Comment et pourquoi le marché européen de l’électricité a déraillé ?

La mise en place, sur le continent européen, de ces nouvelles institutions héritées de l’Acte unique et du traité de Maastricht a contribué à démanteler la capacité des autorités élues à mener des politiques économiques. Au discrétionnaire de la politique, le néolibéralisme préfère la stabilité de la règle.

La seule politique qui est restée entre les mains des élus est la politique budgétaire, dans le sens où chaque année le Parlement vote le budget. Mais la portée de cette dernière fut considérablement amoindrie. Ainsi, la règle des 3%, jugée insuffisante pour éviter les « dérapages » budgétaires des États fut complétée par la pratique du « semestre européen » qui consiste à faire avaliser en amont la politique budgétaire par la Commission ainsi que par le Pacte budgétaire de 2012 qui instaura des sanctions automatiques en cas de déficit public structurel. Enfin, l’interdiction faite aux banques centrales de financer directement les États ont conduit ces derniers à se soumettre à la loi des marchés financiers pour emprunter à moindre coût.

La politique budgétaire est restée formellement souveraine mais elle a été mise sous surveillance, ce qui fait qu’il est de plus en plus difficile d’affirmer qu’elle relève encore du discrétionnaire. Pour ce qui est des politiques industrielles, commerciales et monétaires, elles ont été entièrement soustraites à l’arbitrage démocratique. Ainsi, la politique industrielle, jugée incompatible avec le principe de la coordination concurrentielle fut démantelée avec la fin du commissariat général au plan en 2006. L’extension du principe de concurrence et les libéralisations privèrent l’État de sa capacité à agir concrètement sur le tissu industriel. La politique commerciale, compétence exclusive de l’UE, fut quant à elle déléguée à la Commission qui s’empressa de signer une série de traités de libre-échange, conformément aux textes. Enfin, la politique monétaire fut déléguée à la BCE, sans aucun contrôle politique et dans le cadre d’un mandat ayant pour premier objectif la stabilité des prix.

Au terme de ce processus de néolibéralisation de l’UE, la capacité du pouvoir politique à agir sur l’économie fut ainsi réduite à presque rien. À quoi bon, dès lors, réunir les chefs d’État des pays européens et s’engager sur une stratégie quelconque si les leviers de l’action politique échappent aux élus ? N’est-ce pas là qu’il faudrait chercher l’origine de l’échec de la Stratégie de Lisbonne et d’Europe 2020 ?

Les brèches dans un système cadenassé

Dans Populisme et néolibéralisme, paru en 2020, j’estimais que l’impuissance publique à agir sur l’économie était l’une des causes principales de la perte de confiance envers le politique et les institutions et qu’elle expliquait pour partie la montée des mouvements populistes. Pourtant, ces dernières années ont montré que des failles pouvaient apparaitre dans le cadenassage néolibéral et que des marges de manœuvre pouvaient réapparaître.

La première brèche fut celle de l’explosion de la crise financière en 2008. Tétanisée par l’éventualité d’un effondrement des institutions financières, la banque centrale américaine (appelée aussi Réserve fédérale ou Fed), s’est mise à sortir de ses prérogatives habituelles en intervenant directement sur les marchés par le rachat des titres immobiliers puis de bons du Trésor. Cette nouvelle politique monétaire, qu’on a appelé « quantitative easing » (assouplissement quantitatif) visait à faire baisser les taux d’intérêt à long terme afin de faciliter le financement des plans de relance. Elle fut bientôt imitée par les autres banques centrales qui devinrent les régulatrices des marchés financiers.

La deuxième brèche fut celle produite par la crise du covid. À cette occasion, les banques centrales fournirent non seulement toutes les liquidités nécessaires pour éviter une crise bancaire, mais elles intensifièrent leurs rachats de titres publics afin de garantir aux États des taux d’intérêt très faibles permettant de financer le « quoi qu’il en coûte ».

Ainsi, pendant plus de dix ans, les politiques monétaires jouèrent un rôle prépondérant dans la régulation de l’économie mondiale. Car même si les banques centrales ne sont pas contrôlées par les gouvernements du fait du principe d’indépendance, ce sont les seules institutions qui ont gardé intactes leurs prérogatives et qui peuvent se permettre d’agir encore souverainement. Depuis 2008, profitant de la faiblesse de l’inflation qui leur donnait des marges de manœuvre, les banques centrales ont donc utilisé les politiques monétaires pour soutenir l’économie mondiale. En maintenant des taux d’intérêt faibles, elles ont incité les prêts bancaires et ont soutenu l’investissement. Ce contrôle par les banques centrales des marchés financiers s’avéra très efficace. Depuis 2008, aucune crise financière d’envergure mondiale n’a éclaté. Une si longue phase de stabilité financière est tout simplement inédite depuis le début des années 1980 et la libéralisation financière.

La fin des politiques monétaires accommodantes ?

Les crises de 2008 et du covid ont permis aux politiques monétaires de rompre avec la logique néolibérale en renouant avec un certain souverainisme. Le problème est que cette période est sans doute en train de se refermer. Tant que l’inflation était contenue, les banques centrales avaient les coudées franches. Elles pouvaient respecter leur mandat tout en menant des politiques favorables à la croissance. Mais depuis que l’inflation a fait sa réapparition, elles sont tenues de résorber la hausse des prix, quitte à prendre le risque de la récession.

C’est aux États-Unis qu’un dilemme se pose désormais à la Fed. Jusqu’au printemps 2022, la banque centrale américaine avait pu mener une politique monétaire favorable à la croissance en maintenant des taux d’intérêt proches de zéro. Du fait de la hausse de l’inflation, le taux d’intérêt réel (qui représente le coût réel du crédit calculé par la différence entre le taux d’intérêt nominal à court terme et le taux d’inflation) a rapidement baissé et s’est enfoncé dans le négatif. Cette situation a contraint la Fed à augmenter rapidement son taux de refinancement et l’écart avec le taux d’inflation s’est réduit. Il s’est réduit d’autant plus vite que l’inflation a elle aussi diminué, ce qui fait qu’en un an le taux d’intérêt réel s’est rapidement redressé pour s’approcher de zéro en avril 2023 (figure 2).

Figure 2 : évolution du taux d’intérêt, du taux d’inflation et du taux d’intérêt réel aux États-Unis entre janvier 2021 et juillet 2023

En dépassant l’inflation, les taux directeurs de la banque centrale américaine ont engendré des taux d’intérêt réels positifs. Une première depuis 2009 ! Pour autant, la marge de manœuvre de la Réserve fédérale ne s’est pas rétablie puisqu’avec une inflation qui se maintient au-delà de 3%, l’économie américaine n’atteint pas l’objectif d’inflation de 2%. Ainsi, du point de vue de son mandat, tel qu’il est interprété par la théorie économique dominante[1], la Fed est tenue de maintenir des taux d’intérêt élevés.

Ces taux élevés engendrent plusieurs conséquences néfastes pour l’économie américaine.

Tout d’abord, cela rend l’accès au crédit plus cher. Or, beaucoup d’entreprises se sont fortement endettées durant la période de taux d’intérêt faibles qui a duré plus de dix ans. Lorsque leurs emprunts arriveront à échéance, elles devront en recontracter de plus onéreux, ce qui pourrait menacer leur solvabilité et les pousser à la faillite.

Qui dit crédit plus cher dit aussi difficulté à consommer pour les ménages et à investir pour les entreprises. Cela contribue à freiner la demande et à limiter les débouchés. La baisse de l’investissement sera d’autant plus forte que des entreprises chercheront par ailleurs à se désendetter.

Si la demande faiblit, l’offre doit s’adapter. En réduisant leur production, les entreprises sont amenées à licencier une partie de leur personnel. L’emploi diminue et le chômage augmente.

Enfin, les banques elles-mêmes sont doublement touchées. D’une part elles doivent assumer le risque de non-remboursement de la part d’entreprises qui ont été mises en faillite ; d’autre part elles subissent une perte dans leur bilan, puisque les créances qu’elles détiennent sont dévalorisées en raison de leur rémunération qui devient plus faibles que le taux d’inflation. Certes, lorsque les taux augmentent les banques gagnent en chiffre d’affaires car les nouveaux crédits qu’elles accordent sont mieux rémunérés. Mais la valeur des crédits accordés par le passé diminue. L’effet négatif de la hausse des taux sur les bilans des banques peut ainsi être supérieur à son effet positif sur le chiffre d’affaires et menacer ainsi leur solvabilité.

Un nouvel espoir… mais aux États-Unis seulement

La politique monétaire de la Réserve fédérale condamne-t-elle les États-Unis à terminer l’année 2023 en récession ? La fin des politiques monétaires accommodantes du fait de l’inflation va-t-elle entrainer une nouvelle crise financière ? C’est tout à fait possible, mais les États-Unis gardent quelques marges de manœuvre pour éviter la trajectoire d’une récession inéluctable. En effet, contrairement à l’Union européenne, ils n’ont pas commis l’erreur d’institutionnaliser le néolibéralisme dans leurs textes fondamentaux. Ainsi, alors que la politique monétaire devient impuissante, le gouvernement Biden n’hésite pas à faire usage des trois autres leviers des politiques économiques.

Tout d’abord, la politique budgétaire est très massivement mise à contribution de l’économie. Dans un article publié le 3 septembre dernier le Washington Post notait que le déficit de l’État fédéral américain devrait doubler en 2023 par rapport à l’année précédente, porté par une croissance de 16% de ses dépenses et une chute de 7% de ses recettes. Un tel déficit – le Washington Post l’évalue à plus de 2000 milliards de dollars – alors que l’économie américaine n’a pas connu de récession au cours de l’année fiscale[2] est tout simplement inédit.

Ensuite, la politique commerciale américaine, depuis l’ère Trump, n’est plus du tout libre-échangiste, et sur ce plan Biden joue la continuité. Les sanctions imposées à la Chine et à la Russie ainsi que le refus de nommer les juges chargés de faire fonctionner l’organe de règlement des différends de l’OMC participent d’un retournement de la politique commerciale américaine. Il y a un an, la secrétaire au Trésor Janet Yellen a défini la nouvelle politique commerciale américaine en utilisant le l’expression « friendshoring » qui signifie qu’au libre-échange généralisé les États-Unis souhaiteraient instaurer une mondialisation « entre amis »… pour ne pas dire « avec des vassaux ».

Enfin, en ce qui concerne la politique industrielle, les États-Unis ont là aussi montré toute l’étendue de leur souveraineté avec l’Inflation reduction act (IRA), une ambitieuse loi dont l’objectif est de réorienter en profondeur l’économie américaine par une série de normes et de subventions, en particulier dans l’industrie de la transition écologique et de la construction de voitures électriques.

En somme, les États-Unis ont pris acte des limites de la politique monétaire et mettent donc en œuvre une nouvelle approche globale qui leur permet de réactiver les autres leviers des politiques économiques. Pendant ce temps, l’Union européenne assiste, impuissante, à la perte de capacité de sa politique monétaire sans être capable de réactiver véritablement ses propres leviers. Ainsi, le Green New Deal européen apparaît nettement moins ambitieux et volontariste que l’IRA américain, tandis que la politique commerciale européenne refuse de rompre avec le libre-échange et que la politique budgétaire redevient restrictive avec la fin de la parenthèse covid.

Dans une récente chronique au Monde, l’économiste Jean Pisani-Ferry, corédacteur avec Selma Mahfouz d’un rapport remarqué sur l’impact économique de la transition écologique, faisait le constat désabusé de l’incapacité de l’Union européenne à gérer les chocs du réel. Estimant la cible d’inflation de 2% trop bas, il écrit que « le moment viendra bientôt où la BCE pourra investir sa crédibilité dans un changement de cible. » Mais même cela ne devrait pas suffire : « la réponse à l’instabilité ne devrait pas relever de la seule politique monétaire, ajoute-t-il. Il y faudra sans doute une nouvelle division du travail entre celle-ci et la politique budgétaire. C’est maintenant qu’il faut commencer à réfléchir au nouveau régime de politique économique ».

Soutien critique de la politique d’Emmanuel Macron et européen convaincu, Pisani-Ferry ne va pas jusqu’à recommander la mise en œuvre d’une politique commerciale protectionniste et n’appelle pas au retour d’une politique industrielle ambitieuse. Mais on voit bien que, même chez les partisans les plus enthousiastes du néolibéralisme, la foi dans la régulation spontanée par les prix de marché a faibli.

Malheureusement, les traités européens continuent de cadenasser toute politique économique un peu ambitieuse et il est à craindre que cette lucidité tardive ne se heurte à l’incapacité de la machine européenne à changer de cap.

David Cayla

Références

[1] Il existe des théories qui contestent l’idée que la hausse des taux d’intérêt soit systématiquement nécessaire pour résoudre les épisodes inflationnistes. Lire par exemple cet article de l’économiste Dani Rodrik.

[2] Aux États-Unis, l’année fiscale commence le 1er octobre et se termine le 30 septembre de l’année suivante.

Lire aussi...

Réflexions sur le bon usage du PIB

Chronique

Réflexions sur le bon usage du PIB

Et quelques questions à Timothée Parrique et aux partisans de la décroissance
La décroissance est-elle un projet réaliste ? À entendre ses principaux partisans, elle constituerait à la fois une réponse aux injustices du capitalisme marchand et une solution pour mettre en œuvre une économie respectueuse des limites écologiques de la planète. En proposant une lecture critique du dernier ouvrage de Timothée Parrique, théoricien français de la décroissance, David Cayla explique pourquoi le projet décroissant, selon lui, représente une rupture anthropologique d’une grande violence qui a très peu de chances de rencontrer une acceptation sociale.

Dans un ouvrage paru il y a quelques mois, Ralentir ou périr : l’économie de la décroissance, l’économiste Timothée Parrique entend proposer une réflexion générale sur la décroissance. Étrangement, pourtant, Parrique a du mal à en dégager une définition précise, pas plus qu’il ne définit vraiment la croissance ou le PIB. « Mais qu’est-ce que la croissance ? écrit-il au début du chapitre 1. Une hausse du PIB, répondront certains. Mais encore ? Définir la croissance comme une hausse du PIB revient à décrire la chaleur comme une hausse de la température ; c’est une description sans explication ».

En ce qui concerne la décroissance, plusieurs définitions sont proposées, ce qui finit par créer une certaine confusion. À la fin de l’introduction, la décroissance est définie comme une « réduction de la production et de la consommation pour alléger l’empreinte écologique planifiée démocratiquement dans un esprit de justice sociale et dans le souci du bien-être » qui permettrait d’aller vers une société « post-croissante », c’est-à-dire indifférente à la croissance. Mais d’autres définitions s’ajoutent par la suite. Dans le chapitre 5, on assiste ainsi à une profusion de définitions souvent abstraites et sans contenu opérationnel : « la décroissance est avant tout une théorie critique », peut-on lire. Puis : « La décroissance est plus qu’un concept académique, c’est devenu un vaste domaine d’action ». Le début du chapitre 6 s’ouvre par ces phrases : « Qu’est-ce que la décroissance ? Si la question est simple, la réponse, elle, l’est nettement moins. Car la décroissance, c’est beaucoup de choses à la fois : une stratégie de transition, mais aussi un mouvement, une mosaïque de pratiques, un courant de pensée, une théorie critique, et un domaine d’étude. »

Peut-on dire que la décroissance signifie la baisse du PIB ? Même cela n’est pas très clair. « La baisse du PIB n’est pas un objectif mais seulement l’une des conséquences d’une politique de décroissance. Assimiler une douloureuse récession à une politique maîtrisée de décroissance juste parce qu’elle provoque une baisse du PIB est aussi absurde que de comparer une amputation à un régime juste parce qu’elle engendre une perte de poids » écrit-il. Il faut arriver au début du chapitre 7, pour trouver la formule qui semble le mieux résumer la pensée de l’auteur : « la décroissance est une stratégie qui vise à atteindre une taille économique théorique qui garantit le bien-être et la justice sociale (les planchers sociaux) sans dépasser la capacité de charge des écosystèmes (le plafond écologique) ». Remarquons que la formulation, s’est précisée par rapport à celle proposée en introduction. On ne parle plus d’un « souci » de bien-être et d’un « esprit » de justice sociale mais plutôt de les garantir. Elle est également complétée par deux lignes rouges. Un « plancher social », c’est-à-dire un niveau de production minimal acceptable socialement, et un « plafond écologique », c’est-à-dire un niveau maximal d’empreinte écologique. Cette précision permet de comprendre en quoi la décroissance est un pari. En effet, quelle certitude avons-nous que le plancher social sera plus bas que le plafond écologique ? Et que fait-on si ce n’est pas le cas ?

Réduire le PIB ou réduire l’économie ?

La formule du chapitre 7 pose un autre problème : elle semble contredire le propos du chapitre 1 consacré au PIB. Dans ce premier chapitre, Parrique insiste sur l’importance de distinguer l’indicateur de ce qu’il est censé représenter, à savoir l’économie. Le PIB, explique-t-il, ne représente que la partie émergée de l’iceberg économique car l’économie est avant tout « anthropologique ». Elle constitue « l’organisation sociale de la satisfaction des besoins ». Or, une grande partie de l’économie, celle qui est immergée, est invisible aux yeux des responsables politiques car non prise en compte dans l’indicateur. « Le PIB n’est qu’une estimation sélective et approximative de la production, et uniquement selon une certaine conception de la valeur. Il ne mesure pas l’économie anthropologique, mais une représentation simplifiée et quantifiable de celle-ci », écrit-il avec justesse.

L’insistance mise dans ce premier chapitre à distinguer le PIB (la mesure quantifiable) et l’économie anthropologique (la satisfaction des besoins) donnait à penser que la décroissance visait à réduire le PIB tout en préservant la pleine satisfaction des besoins sociaux. Pourtant, on vient de voir que ce n’est pas ainsi qu’est définie la décroissance au chapitre 7 puisque Parrique évoque non pas la réduction de la taille du PIB, mais bien celle de l’économie dans son ensemble. L’enjeu de la décroissance ne serait donc pas, contrairement à ce qu’il écrit dans le chapitre 1, de « sortir l’iceberg de l’eau » mais de réduire l’iceberg lui-même, et donc de diminuer la capacité de la société à satisfaire certains besoins sociaux. C’est d’ailleurs le sens de son propos introductif : « Le défi qui se tient devant nous est celui du moins, du plus léger, du plus lent, du plus petit. C’est le défi de la sobriété, de la frugalité, de la modération, et de la suffisance ».

Modération, frugalité, sobriété… La décroissance ne vise pas seulement à réduire le PIB mais surtout à limiter les besoins auxquels entend répondre l’économie anthropologique. Cette posture, il est vrai, est cohérente avec le concept de « plafond écologique ». Du point de vue de la planète, peu importe que l’atteinte à l’environnement soit le fait d’une activité incluse ou non dans le PIB. Par exemple, si j’appelle un taxi pour me rendre à la gare, je fais croître le PIB ; si je demande à un ami de m’y emmener en voiture, je réponds au même besoin sans faire varier le PIB. Mais du point de vue de la planète, les deux opérations sont parfaitement équivalentes. Dans les deux cas du pétrole aura été consommé, du CO2 émis. Le fait de transformer une activité marchande comptabilisée dans le PIB en activité bénévole qui n’est pas comptabilisée ne réduit en aucun cas le problème des émissions de CO2. Aussi, ce n’est pas le PIB qu’il faudrait réduire, mais bien l’économie dans son ensemble.

Si tel est l’objectif de la décroissance – limiter nos besoins sociaux pour limiter notre emprise sur l’environnement – pourquoi dans ce cas commencer le livre par une critique du PIB ? En réalité, l’ouvrage de Timothée Parrique ne cesse de multiplier les fausses pistes et semble avoir du mal à expliquer clairement son projet. Par exemple, le chapitre 3 intitulé « Marché contre société » évoque l’importance des « forces reproductives de l’économie », autrement dit le fait qu’une société marchande ne peut fonctionner durablement sans s’appuyer sur le travail et le soutien des nombreuses activités non marchandes qui participent à la reproduction sociale. J’avais exprimé la même réflexion dans l’introduction de L’Économie du réel et je ne peux donc qu’adhérer à l’idée que la « croissance de l’activité marchande n’est pas toujours synonyme de progrès ». Mais dire qu’il faut réduire la marchandisation de la société n’est pas équivalent à dire qu’il faut réduire le PIB ou la taille de l’économie. Tout le PIB n’est pas marchand, et toute l’économie ne se résume pas au PIB.

La vraie signification du PIB

En fin de compte, quel est l’objectif de la décroissance ? Est-ce de réduire la taille de l’économie, c’est-à-dire d’aller vers une forme de sobriété en renonçant à certains de nos besoins superficiels (c’est ce que semble dire l’introduction et la définition du chapitre 7) ? Est-ce qu’il s’agit de réduire le PIB qui constitue la partie de l’économie qui est monétarisée (c’est ce que semble dire le chapitre 1) ? Ou alors l’objectif serait-t-il surtout de réduire la part marchande du PIB comme le laisse entendre le chapitre 3 ?

Pour bien comprendre l’enjeu de ce débat, il faut justement en revenir au PIB. Dans le chapitre 1, Timothée Parrique explique la manière dont il est calculé sans trop s’appesantir sur sa signification et sa composition. Il écrit notamment que le PIB est « le résultat d’une gigantesque addition » calculée de trois manières : par la production de valeur ajoutée, par les revenus et par les dépenses. Le lecteur peu attentif aura du mal à comprendre l’information essentielle contenue dans ce passage. Car le PIB ne relève pas d’un simple « calcul » ; il représente réellement l’ensemble de la valeur de la production monétarisée, l’ensemble des dépenses et l’ensemble des revenus. L’un des biais systématiques des théoriciens de la décroissance est d’évacuer un peu rapidement la conséquence de ce fait : réduire le PIB, ce n’est pas nécessairement réduire la production de richesses, car toute la richesse n’est pas monétarisée et donc comptabilisée dans le PIB. En revanche, réduire le PIB c’est forcément réduire les revenus. Il est en effet impossible de diminuer la production de richesses monétaires sans faire baisser les revenus du même montant. Réduisez la production marchande de 100 milliards d’euros, vous réduirez mécaniquement les revenus monétaires de 100 milliards d’euros. Et vous réduirez aussi, par la même occasion, les recettes fiscales et donc la capacité de financer l’activité non marchande, c’est-à-dire des services publics. De même, la consommation individuelle des ménages sera forcément réduite de 100 milliards d’euros, voire de davantage si une boucle récessive s’enclenche.

À ce sujet, il faut insister sur un point. Affirmer que la décroissance n’a rien à voir avec la récession a tout d’un sophisme. Faire un régime n’est certes pas la même chose que de s’amputer un bras ; mais une baisse du PIB est une baisse du PIB. Qu’elle soit voulue et planifiée ou non désirée et non anticipée ne change aucunement ses conséquences : toute diminution du PIB réduira les revenus et engendrera un effet récessif. On ne peut pas jeter à la poubelle les apports de la théorie keynésienne au prétexte que la décroissance serait un projet global, ambitieux et démocratique.

Composition du PIB français

Résumons. Le PIB est égal à la somme des valeurs de la production monétarisée, à la somme des dépenses de consommation et à la somme des revenus. Ces trois sommes relèvent exactement de la même chose, c’est pour cette raison qu’elles sont identiques.

Pour comprendre ce que cela implique observons les chiffres de l’économie française. En 2022, le PIB s’élevait, d’après l’INSEE, à 2351 milliards d’euros. Ce montant représente tous les revenus produits par l’économie à destination des agents résidents (ménages, entreprises, administrations) pendant un an. Un peu plus de la moitié de ces revenus, soit 1213 milliards d’euros ont été dépensés par les ménages pour leur consommation personnelle. 625 milliards d’euros, soit environ le quart du PIB, a été consacré à financer la consommation non marchande (575 milliards venant des administrations publiques, et 50 milliards des associations caritatives). Le reste, soit 576 milliards (un peu moins du quart du PIB), a été consacré à l’investissement et regroupe celui des entreprises (332 milliards), des organismes publics (84 milliards) et l’investissement immobilier des ménages (128 milliards). Si l’on fait la somme de toutes ces dépenses, on s’aperçoit qu’elle est supérieure aux revenus. 1213 + 625 + 576 = 2414. On en déduit que l’économie française, dans son ensemble, a davantage dépensé qu’elle n’a reçu de revenus. La différence est égale à la balance commerciale qui était négative en 2022. Les exportations (744 milliards) ont été inférieures aux importations (829 milliards). L’écart entre ces deux sommes (-85 milliards) auquel il faut ajouter le solde des revenus issus de l’étranger (+22 milliards) représente l’écart entre les revenus et les dépenses (-63 milliards).

Ces chiffres sont importants à avoir en tête. Car avant de dire qu’il faut réduire le PIB, il est important de savoir de quoi parle-t-on exactement, ce que les théoriciens de la décroissance font rarement. En fin de compte, on peut dire, pour simplifier, que le PIB est constitué pour moitié de la consommation marchande des ménages, pour 25% de la consommation non marchande et pour 25% des dépenses d’investissement. Enfin, ajoutons qu’environ un tiers de la richesse monétaire consommée en France provient de nos achats à l’étranger, et qu’un peu moins du tiers de la richesse monétaire produite est exportée.

Que doit-on réduire ? Pourquoi ce n’est pas si simple

À présent que ces chiffres sont clairs, imaginons que nous réduisions le PIB de manière organisée et démocratique. Que devrait-on réduire de manière prioritaire ? Les dépenses de consommation des ménages ? La production de services publics et des associations caritatives ? L’investissement ? Et dans quelle proportion le PIB devrait-il être réduit ?

Le livre de Timothée Parrique n’apporte aucune réponse claire à ces questions. Voici ce qu’il écrit dans le chapitre 6.

« Les secteurs amenés à décroître ne seront pas dépecés au fendoir ; imaginons plutôt une redirection graduelle de l’économie, planifiée démocratiquement, dans laquelle une partie de nos ressources, de notre temps de travail, de notre énergie, et de nos matériaux cessera d’être mobilisée pour produire certaines marchandises (surtout celles qui polluent et qui ne contribuent pas ou peu au bien-être), et pourrait alors être remobilisée partiellement au bénéfice de la société. Il faut également dissiper un autre malentendu : réduire la production par la décroissance ne veut en aucun cas dire s’appauvrir. On peut très bien diminuer fortement la valeur ajoutée monétaire d’une économie (le PIB) tout en augmentant la valeur ajoutée sociale et écologique, par exemple grâce à la hausse du temps libre et à l’amélioration des services écosystémiques. »

Le problème est que cette proposition est contradictoire avec la définition donnée au chapitre suivant où la décroissance est définie comme une réduction de la taille de l’économie. Dans ce passage Parrique semble dire qu’il faudrait substituer des activités non marchandes et non monétarisées aux activités marchandes. Il y aurait donc bien baisse du PIB mais pas nécessairement diminution de la taille de l’économie. Passons. De combien faudrait-il diminuer l’économie ? Une quantification indicative est formulée un peu plus loin : « Imaginons que le contexte écologique nous impose de réduire la taille totale de l’économie de moitié. Il faudrait donc produire moitié moins, et donc, travailler moitié moins ». Parrique évoque bien, cette fois, la « taille de l’économie ». Donc, on suppose qu’il parle de l’économie anthropologique. Mais cela est contradictoire car la solution proposée qui consiste à diminuer le temps de travail. En effet, celui-ci représente une activité rémunérée et donc liée au PIB. Si on diminue le temps de travail et qu’on augmente le temps d’activité libre dans les mêmes quantités, l’activité économique sera maintenue tout en étant démonétarisée. Dans ce cas, la taille de l’économie ne diminue pas et rien ne permet d’affirmer qu’on allège les contraintes écologiques. Faire le taxi de manière rémunérée ou conduire un ami à la gare ne réduit pas l’empreinte carbone du déplacement.

C’était bien la peine d’écrire tout un chapitre visant à distinguer le PIB de l’économie anthropologique pour ensuite confondre systématiquement les deux dans les chapitres suivants ! À nouveau, la confusion entre économie / PIB / marchandisation pose des problèmes de cohérence au raisonnement.

Les conséquences d’une baisse du PIB

Admettons qu’on souhaite réduire le PIB pour respecter le « plafond écologique » et admettons que l’activité non monétarisée ne puisse s’y substituer entièrement. Quelle serait notre marge de manœuvre ? De combien pourrait-on baisser le PIB sans pour autant crever le plancher social ? Prenons une hypothèse optimiste et admettons qu’on ait pour objectif une diminution de 25% du PIB. Si on en croit l’estimation de l’association Global Footprint Network, la France a atteint le « jour du dépassement » le 5 mai dernier, date à laquelle l’économie française est réputée avoir consommé l’ensemble des ressources que la nature met un an à produire et à renouveler. Le 5 mai, c’est environ le tiers de l’année. Ainsi, d’après cette estimation, le plafond écologique serait très bas et il faudrait envisager une réduction du PIB des deux tiers plutôt que de seulement 25%.

Mais limitons-nous à une baisse de 25% et voyons où cela nous mène. Qu’est-ce qu’il faudrait diminuer ? À lire l’ouvrage de Parrique, l’objectif serait de diminuer la part du PIB consacrée à la consommation de marchandises. À l’inverse, il faudrait préserver le PIB consacré à la consommation non marchande. Quid de l’investissement ? Parrique n’en parle pas dans son livre mais on peut raisonnablement penser, si l’on en croit le rapport Pisani-Ferry – Mahfouz consacré à la stratégie de transition climatique, que de nombreux investissements vont devoir augmenter. Certes, ce rapport n’est en rien partisan de la décroissance, mais les impératifs écologiques impliqueront de changer en profondeur notre système productif, ce qui nécessite des investissements dans le ferroviaire, la rénovation des bâtiments, la décarbonation de notre système productif… D’autres investissements à vocation purement marchande devraient sans doute être réduits. Quel serait le solde global ? La réponse n’est pas claire. Comme, à ma connaissance, aucun calcul n’existe à ce sujet chez les théoriciens de la décroissance, on est contraint de spéculer. Optons donc pour un montant préservé des dépenses d’investissement par rapport au volume actuel et admettons que les énormes besoins de la transition pourront être compensés par un désinvestissement du même montant dans le secteur marchand.

Comme on l’a vu plus haut, le PIB actuel représente 50% de consommation marchande des ménages, 25% de consommation non marchande et 25% de dépenses d’investissement. Si l’on entend préserver à la fois les dépenses d’investissement et celles liées à la consommation non marchande, alors toute réduction du PIB ne peut reposer que sur la consommation marchande. Une réduction de 25% du PIB implique donc une division par deux des dépenses de consommation des ménages. Il faudrait donc passer d’une économie 50/25/25 à une économie 25/25/25 pour réduire de 25% le PIB sans diminuer les dépenses non marchandes et les dépenses d’investissement. Pour cela, il sera nécessaire de diviser par deux les revenus disponibles des ménages (en réalité un peu moins car il faut comptabiliser l’épargne qui correspond aux revenus non dépensés).

L’illusion de la sobriété heureuse

Est-il possible, dans une optique décroissante et démocratique, d’organiser une réduction de 25% du PIB en divisant par deux les revenus disponibles des ménages ? C’est à cette question qu’il faudrait répondre. Dire que cela serait acceptable politiquement dans un régime démocratique me semble totalement déraisonnable. Notons par ailleurs que cette division par deux des revenus se ferait sans amélioration notable des services publics et sans accélération des dépenses d’investissement. Notons également que rien ne dit que les pays voisins suivraient la même politique. Or, au sein de l’UE, la circulation des personnes est libre ; on ne pourra pas empêcher les familles de s’expatrier pour profiter de revenus deux fois plus élevés de l’autre côté de la frontière. Comment gérer politiquement une telle décroissance et le choc que cela produirait ? Dans son chapitre 1, Parrique affirme que « ce qui compte, au final, ce n’est pas le ‘‘pouvoir d’achat’’ mais plutôt le ‘‘pouvoir de vivre’’ ». Là aussi, il s’agit d’une formule pratique mais peu opérante. Pour une grande partie des Français le pouvoir d’achat c’est le pouvoir de vivre : celui de prendre des vacances, de faire une sortie au restaurant, au cinéma, de renouveler sa garde-robe… toutes ces consommations marchandes doivent-elles être divisées par deux ? Qui décidera quelles sont les consommations utiles et superfétatoires ? Et, surtout, comment parvenir à faire accepter ces décisions à la population ?

Loin d’être un instrument absurde, le PIB mesure parfaitement les revenus monétaires. Et même si « l’argent ne fait pas le bonheur » comme on dit, il est difficile d’affirmer que baisser les revenus assurera aux ménages d’être plus heureux, plus émancipés et plus libres, surtout si cette baisse pèse exclusivement sur la part de la consommation qu’ils peuvent librement choisir.

Les théoriciens de la décroissance ont sans doute raison sur un point : la baisse du PIB, et en tous cas la fin de sa hausse indéfinie sera sans doute nécessaire, à terme, pour éviter l’effondrement écologique. Disons les choses de manière plus réaliste : le risque d’effondrement écologique conduira sans doute l’humanité à réorganiser en profondeur son économie pour parvenir à une forme de post-croissance. Quantitativement, quel sera alors le niveau de PIB de cette économie ? Pourra-t-on limiter sa diminution à 25% ? Personne ne peut l’affirmer avec certitude. Et si le plafond écologique nécessite plutôt une baisse de moitié du PIB, devrait-on supprimer toute la production marchande et organiser une forme de collectivisation des moyens de production pour s’assurer que chacun pourra vivre dans un confort minimum malgré les contraintes très fortes qui pèseront alors sur la consommation ? Et devrions-nous limiter l’accès à certaines ressources pour éviter que, dans le cadre de leur temps libre les individus continuent de produire et d’approfondir leur empreinte écologique ?

Ce qui est certain, c’est qu’il est hautement improbable que la transition vers la post-croissance se fasse dans le bonheur et la félicité pour tous. De même, il est absurde d’affirmer que la décroissance n’affectera qu’une partie minoritaire de la société. La réalité c’est que la décroissance représentera une rupture anthropologique d’une violence inouïe pour tout le monde. On ne diminue pas la moitié de la consommation marchande des ménages en taxant un peu les 10% les plus riches. En masquant cette violence pour rendre leur projet désirable, les partisans de la décroissance risquent de rendre bien plus difficile l’acceptation des mesures qu’ils seraient amenés à prendre s’ils parvenaient au pouvoir. Churchill avait eu le courage de dire aux Britanniques qu’il leur promettait « du sang et des larmes » afin de vaincre l’Allemagne nazie. On attend des décroissants qu’ils aient la même honnêteté intellectuelle. Chiche ?

David Cayla

Lire aussi...

Un tout petit effort pour ne rien rater …

Inscrivez-vous à notre newsletter