L’ouverture à la concurrence : la solution miracle pour rendre le transport ferroviaire de nouveau attractif ?

État & transition

L’ouverture à la concurrence : la solution miracle pour rendre le transport ferroviaire de nouveau attractif ?

Suite à l’adoption de réglementations européennes, les pays de l’Union ont eu l’obligation d’ouvrir le marché ferroviaire à la concurrence au début du XXIème siècle. Ceci explique en partie l’adoption en France de différentes législations, notamment de la loi pour un nouveau pacte ferroviaire en 2018. La mise en concurrence de ce secteur s’inscrit dans une tendance globale de déréglementation des monopoles publics. Face à l’attrait que suscite encore la voiture individuelle, l’ouverture à la concurrence du transport ferroviaire a rapidement été brandi comme la solution miraculeuse pour le rendre plus attractif, en engendrant : la baisse des prix, l’amélioration de la régularité ou encore l’augmentation des dessertes. Mais peut-on réellement compter sur l’ouverture à la concurrence pour réduire l’utilisation de la voiture individuelle et les maux qui frappent le transport ferroviaire ? Alors que la région Provence-Alpes-Côte d’Azur a annoncé il y a quelques mois confier le contrat d’exploitation de la ligne Marseille-Nice à Transdev, une société concurrente de la SNCF et que le dernier rapport du GIEC rend responsable les voitures individuelles de 17% des émissions de gaz à effet de serre il est urgent de s’interroger sur l’intérêt de l’introduction de la concurrence.
Les origines : la déréglementation des secteurs caractérisés par une situation de monopole

A partir de la deuxième moitié du XXème siècle, la part des déplacements effectués en train s’est fortement réduite, notamment en raison de la place de plus en plus prépondérante prise par la voiture individuelle. En 2010, les déplacements s’effectuaient en Europe à 79% par la route, contre 6% pour le rail(1). Ceci explique en partie que depuis les années 2000, l’Union européenne a adopté différentes réglementations (également appelées les « paquets ferroviaires européens ») avec pour objectif de redynamiser le transport ferroviaire. Pour l’Union européenne, la concurrence a semblé être la solution ultime. A noter que l’adoption de ces réglementations s’inscrit dans un mouvement global de déréglementation et de démantèlement des secteurs considérés comme des monopoles(2) (les télécommunications, le secteur du gaz, l’électricité ou encore l’aérien), notamment les monopoles dits « naturels », qui a débuté dans les années 1990.

Un monopole naturel se caractérise par l’existence de coûts fixes, irrécouvrables en cas de faillite (également appelés les « sunk costs ») et par des effets réseaux (quand le nombre d’utilisateurs d’un même réseau augmente, l’utilité qu’ils en retirent augmente(3)). Pour ces secteurs considérés comme des monopoles publics, il est plus intéressant d’avoir une seule firme sur le marché, ce qui permet de ne pas faire augmenter les coûts de production. On peut ajouter à cela les coûts de certaines infrastructures (par exemple ferroviaires), qui initient de fait des monopoles naturels car personne d’autre que l’État ne peut les assumer en raison de leur échelle.

Le ferroviaire est un secteur qui a longtemps été considéré comme un « monopole naturel » car cochant l’ensemble de ces critères et étant un service d’utilité publique car permettant le désenclavement des territoires et l’accroissement de la mobilité. La vision du secteur ferroviaire comme étant un monopole naturel a longtemps été défendue par des économistes comme Jules Dupuit. Néanmoins, les notions de monopole et de monopole naturel ont progressivement été remises en cause par les théories libérales, principalement celle des marchés contestables (ou « contestable markets ») de William Baumol. Cette théorie émet le postulat suivant : les pressions concurrentielles que les monopoles historiques subissent permettent de réguler leurs comportements défaillants. L’intérêt n’est pas d’avoir une multitude d’entreprises sur un même secteur, mais de faire en sorte que le prix du marché se situe au niveau du coût marginal de production. Il évoque pour appuyer sa théorie l’exemple du secteur monopolistique de l’électricité dans les pays en développement. Selon lui, ce monopole a engendré plusieurs dysfonctionnements : une faible productivité, de nombreuses pannes, l’embauche d’un surplus d’agents… Le meilleur moyen de rendre ces marchés plus efficaces, était donc selon lui de les rendre contestables en y introduisant la concurrence. Ces théories libérales faisant la promotion de l’ouverture à la concurrence ont fini par convaincre l’Union européenne et les États membres, débouchant sur sa mise en place dans le secteur ferroviaire. 

L’adoption des paquets ferroviaires européens

Quelles sont donc les mesures clés de ces différents paquets ferroviaires ?

Le premier paquet adopté en 2001 avait pour objectif de préparer l’ouverture à la concurrence du fret ferroviaire européen et d’amorcer la séparation entre l’exploitant (l’entreprise réalisant et opérant les déplacements sur les lignes, activité assurée par SNCF Mobilités en France) et le gestionnaire de l’infrastructure (l’entreprise en charge de rénover le réseau, de mener et prioriser les travaux, etc. activité assurée par SNCF Réseau en France, anciennement Réseau Ferré de France). A noter que la déréglementation concerne uniquement les exploitants des réseaux et non pas les gestionnaires : en effet, la gestion de l’infrastructure continue d’être considérée comme un monopole « naturel » du fait des coûts associés.

Le deuxième paquet est adopté en 2004 et permet de créer une agence ferroviaire européenne, dont l’objectif est l’harmonisation des législations européennes pour permettre la création d’un grand réseau ferroviaire européen. Il a aussi acté l’ouverture à la concurrence du fret ferroviaire.

Le troisième paquet adopté en 2007 ouvre à la concurrence le marché international de voyageurs et rend possible le cabotage (défini comme la possibilité pour une compagnie ferroviaire de commercialiser des dessertes ferroviaires nationales dans le cadre d’une liaison internationale).

Enfin, c’est le quatrième et dernier paquet ferroviaire adopté en 2016 qui ouvre à la concurrence le dernier pan du secteur : le marché national de voyageurs. Les lignes nationales peuvent désormais être ouvertes à la concurrence de deux manières :

  • Par « open-access »: pour les lignes nationales non-conventionnées (généralement les lignes à grande vitesse). Dans le cadre de cette concurrence, une société ferroviaire souhaitant faire circuler des trains sur une ligne donnée à des horaires définis doit adresser une demande au gestionnaire de l’infrastructure qui lui en donne l’accord.
  • Par appels d’offres: pour les lignes conventionnées (en France, les trains du quotidien (TER) dont la gestion est assurée par les régions, et les trains d’équilibre du territoire (TET ou également connus sous le nom d’Intercités), dont l’Etat est considéré comme l’autorité organisatrice).

Les États ont eu l’obligation de retranscrire ces paquets ferroviaires dans les législations nationales Selonl’Union européenne, ces réglementations devaient permettre d’améliorer la qualité de service, d’augmenter les dessertes, de diversifier l’offre et de baisser les prix.

La dernière loi d’envergure est celle adoptée en 2018 en France visant à préparer l’ouverture à la concurrence du transport ferroviaire de voyageurs

La traduction de ces paquets ferroviaires dans le cadre juridique français

Comment s’est traduit l’adoption de ces réglementations dans le droit français ? Il est important de revenir sur certaines lois phares afin de comprendre comment s’organise la gestion du transport ferroviaire aujourd’hui en France.

En 1997, l’Etat décide de séparer la gestion (par la création de Réseau Ferré de France) de l’exploitation ferroviaire (qui reste à la main de la SNCF). Aujourd’hui cette distinction existe toujours, bien que Réseau Ferré de France ait été remplacé par SNCF Réseau.

En 2000, l’Etat transfère la compétence ferroviaire aux régions, qui deviennent des autorités organisatrices des transports du quotidien : elles récupèrent la gestion des trains express régionaux et des petites lignes ferroviaires sur leurs périmètres géographiques(4). Ce sont elles qui sont chargées de négocier les conventions avec l’exploitant ferroviaire (avant l’ouverture, le seul exploitant était donc la SNCF) : l’exploitant n’est qu’un « prestataire » au service des régions. A noter que les conseils régionaux consacrent en moyenne 17% de leurs budgets au transport ferroviaire.

La dernière loi d’envergure est celle adoptée en 2018 visant à préparer l’ouverture à la concurrence du transport ferroviaire de voyageurs. Elle comporte plusieurs mesures clés.

1/ Tout d’abord, elle modifie la structure de la SNCF. L’entreprise autrefois sous le statut d’établissement public de caractère industriel et commercial (EPIC(5)) devient une société anonyme à capitaux publics, dont l’unique actionnaire est l’Etat français(6). Dans la nouvelle organisation, les 3 anciens EPIC deviennent 5 sociétés anonymes, chapotées par la maison-mère SNCF : SNCF Réseau (Gare & Connexions en charge de la gestion des gares devient une filiale de SNCF Réseau), SNCF Voyageurs, Rail Logistics Europe, Geodis, et Keolis(7).

2/ Cette loi met fin à l’embauche au statut de cheminot, qui conférait aux travailleurs des avantages négociés autrefois par les partenaires sociaux.

3/ L’Etat s’engage à assainir financièrement le groupe en reprenant la dette à hauteur de 35 milliards d’euros. A noter que cette dette ne découle pas uniquement des choix faits par l’entreprise, mais aussi des virages stratégiques de l’Etat : le développement massif du réseau TGV (différent du réseau des trains express régionaux) a demandé des investissements engendrant une hausse de l’endettement.

4/ Enfin, cette loi acte l’ouverture à la concurrence du transport ferroviaire de voyageurs et fixe un calendrier :

  • La concurrence en « open-access » est autorisée dès 2021 ;
  • La concurrence par appels d’offres (pour les TER et TET) est obligatoire dès 2024 mais possible à partir de 2020 ;
  • La concurrence devient obligatoire pour le RER A, B, C, D, E en 2040. A noter que certaines lignes de RER sont exploitées entièrement par la SNCF, d’autres partiellement avec la RATP ou uniquement par la RATP.
Le ferroviaire, un mode de transport prometteur délaissé ?

Comme évoqué plus haut, le transport ferroviaire a connu un déclin majeur : alors qu’au XIXème et XXème siècles, le transport ferroviaire représentait 90 % des déplacements, sa part modale n’est même pas de 10 % aujourd’hui. Ce déclin s’explique par le développement des infrastructures routières, qui sont parfois plus compétitives et globalement moins coûteuses par rapport au transport ferroviaire (que ce soit pour le transport de voyageurs ou de marchandises) et également par l’essor de l’aérien avec le développement des offres low-costs.

Pourtant, dans une optique de réduction des gaz à effet de serre, dont une grande partie est générée par les transports (27% en 2006), le rail est le transport à privilégier puisqu’il n’est responsable de l’émission que de 0,5% de ces gaz contre 72% pour le transport routier(8). Cela s’explique notamment par le fait que le train est un transport « mass transit » ayant la capacité de transporter un nombre de voyageurs bien plus important que la voiture individuelle. L’Etat a concentré les efforts financiers sur la construction d’infrastructures routières avec l’apparition de la voiture individuelle, considérée à l’époque comme un moyen de transport révolutionnaire. Pour autant, le constat est aujourd’hui clair sur ses effets environnementaux. Du fait de la concentration massive des investissements sur le transport routier, les Français vivant dans des territoires enclavés ou éloignés des aires urbaines, n’ont aucun moyen de transport alternatif performant. D’où l’urgence de proposer des alternatives viables et performantes.

Les résultats disparates (pas exemple entre le Royaume-Uni et l’Allemagne) entre les pays européens ayant ouvert à la concurrence s’explique par le degré d’ouverture choisi. Certains ont poussé l’ouverture à son paroxysme et les dégâts s’en font ressentir.

Les bénéfices de l’ouverture à la concurrence : coup d’œil chez nos voisins européens

La concurrence est supposée avoir des effets sur un ensemble de paramètres (les prix, les dessertes, la régularité, etc.). Quels ont donc été les résultats obtenus dans les pays précurseurs en Europe, notamment en Allemagne et au Royaume-Uni, qui ont ouvert le marché national de voyageurs à la concurrence il y a déjà plusieurs années voire décennies ?

  1. L’effet de la concurrence sur les prix

Dans certains pays les prix ont eu tendance à augmenter : en Allemagne, en Angleterre et en Suède, c’est le cas pour les lignes conventionnées. Un autre exemple marquant est celui du Royaume-Uni. De 1994 à 2010, les prix ont augmenté de 27% en moyenne. Ceci s’explique par l’absence de régulation étatique(9).

Dans d’autres pays les prix ont baissé, parfois au détriment de l’équilibre économique des sociétés ferroviaires nationales : c’est par exemple le cas en République-Tchèque. Prenons l’exemple de la ligne Prague-Ostrava, une des plus importantes du pays : trois opérateurs se sont positionnés sur ce segment, ce qui a engendré une guerre commerciale et donc une baisse drastique des prix, en venant à rendre l’exploitation de cette ligne non-rentable(10). Est-il souhaitable d’en arriver là ? Surtout dans le cas de la France, où rappelons que la SNCF est possédée à 100% par l’Etat français qui vient d’en racheter la dette.

  1. La répartition des parts de marché 

Ce point est important car comme évoqué précédemment, la plupart des sociétés ferroviaires appartiennent en partie ou complètement aux Etats (c’est le cas en France). Globalement, dans les pays européens ayant ouvert à la concurrence, les opérateurs historiques ont conservé environ 70% des parts de marché(11): le reste a été capté par les nouveaux opérateurs. En Allemagne, les parts de marché possédées par la Deutsche Bahn (société ferroviaire historique) varient énormément en fonction des Länder. Dans les régions proches de Berlin comme le Brandebourg, la Bavière ou la Saxe, elle conserve l’intégralité de l’exploitation du réseau quand elle n’en garde qu’1/4 dans les régions de Schleswig-Holstein ou encore à Bade-Wurtemberg. Un phénomène comparable pourrait se produire en France.

  1. Augmentation des dessertes et de la fréquentation:

En Allemagne, la Deutsche Bahn a réussi à conserver des revenus financiers équivalents même si elle a perdu une partie de ses parts de marché. Cela peut s’expliquer par l’augmentation de la fréquentation du réseau et donc des rentrées financières. Pour autant, peut-on attribuer cette hausse de la fréquentation à l’ouverture à la concurrence ? Difficile à dire, puisque l’ouverture a été accompagnée d’investissements ferroviaires massifs, ce qui peut être le facteur déterminant. Entre 1993 et 2006, l’offre de transport a augmenté de 30% et la demande de 45%(12) : est-il possible d’attribuer ces changements uniquement à l’ouverture à la concurrence ?

Au Royaume-Uni, s’est produite la situation inverse : de nombreux trains étaient régulièrement supprimés, les sociétés ferroviaires pouvant gérer les dessertes comme bon leur semblait. La gestion a été un tel désastre que le gouvernement a fini par renationaliser et assurer la gestion de certaines lignes, laissées parfois complètement à l’abandon.

Ces variations entre les pays (par exemple entre l’Allemagne et le Royaume-Uni) peuvent s’expliquer par la manière d’ouvrir à la concurrence et la politique mise en place pour accompagner cette ouverture. En Allemagne, l’ouverture à la concurrence a été accompagnée d’investissements massifs, de lancement de grands projets ferroviaires (ex. Stuttgart 21, désengorgement du nœud ferroviaire de Leipzig, etc.) et de travaux de rénovation. Au Royaume-Uni, l’ouverture à la concurrence a été poussée à son paroxysme : le système a été entièrement privatisé entre 1994 et 1997, la société ferroviaire nationale Network Rail démantelée et le réseau ferroviaire découpé en 16 franchises, dont l’exploitation a été répartie entre différentes compagnies. Les conséquences de cette privatisation sont connues aujourd’hui et ont été évoquées (augmentation drastique des prix, suppression de trains, manque de régularité, accidents importants liés à la réduction des effectifs dans les trains, etc.). Le gouvernement britannique, pour mettre un terme à ces disfonctionnements, a annoncé il y a quelque mois la création de Great British Railways pour 2023, une société publique qui sera en charge de signer les contrats avec des sociétés privés, de fixer les horaires, les prix et les liaisons(13). En quelque sorte un « garde-fou » dont le rôle sera de chapeauter les sociétés ferroviaires pour empêcher la reproduction des dérives du passé. Le Royaume-Uni est le parfait exemple de ce qu’il ne faut absolument pas faire et démontre bien que l’ouverture à la concurrence poussée à son paroxysme, qui n’est pas accompagnée d’investissements et sans surveillance étatique, est une catastrophe. 

L’ouverture à la concurrence n’est pas le remède miracle

L’ouverture à la concurrence du secteur ferroviaire n’a certainement rien du remède miracle annoncé sous le quinquennat d’Emmanuel Macron et ne va pas changer la donne, du fait de plusieurs raisons :

  • Limites dans les modes d’ouverture:

Ouverture par « open-access » : la limite première de cette forme de concurrence est qu’une ligne ne peut pas supporter un nombre illimité de trains. Une autre limite est que les opérateurs vont forcément se positionner sur les dessertes les plus rentables (ex. Marseille-Paris) et délaisser d’autres lignes moins fréquentées et donc moins voire non rentables. Un moyen pouvant être utilisé par les compagnies est de se positionner sur des dessertes proches de lignes fréquentées où les prix des péages ferroviaires[14] sont moins élevés : un exemple phare est le trajet Marseille-Marne-la-Vallée plutôt que Marseille-Paris Gare de Lyon. Pour autant, le positionnement actuel de Ouigo (l’offre « low-cost » développée par la SNCF) complique la tâche pour les autres entreprises ferroviaires souhaitant surfer sur la vague du « low-cost » en France. 

Ouverture par appels d’offres : l’exclusivité de l’exploitation sur une ou plusieurs lignes données va être attribuée pour une période spécifique, pour des conditions définies(15). Cette concurrence présente donc une certaine forme de stabilité ets’exerce de nouveau à chaque fin de contrat. Reste qu’elle n’est que peu réellelors de l’exécution du contrat puisqu’il n’y a qu’un seul opérateur sur la ligne. L’offre peut plus difficilement être modifiée pour s’adapter à la demande. Les marges de manœuvre des régions peuvent donc être réduites.

La vétusté du réseau ferroviaire : le réseau ferroviaire français des lignes régionales est vieillissant (29 ans en moyenne(16)). Ce vieillissement influence donc fortement la vitesse et la régularité des trains : de nombreux problèmes techniques sur ces lignes sont liés à la vétusté. En effet, pendant des décennies, les gouvernements ont préféré investir massivement dans le réseau des trains à grande vitesse, plutôt que sur les dessertes fines du territoire et les lignes structurantes, pourtant essentielles dans les déplacements quotidiens des Français.

Impacts sur les petites lignes ferroviaires: économiquement peu viables, elles sont cruciales pour le désenclavement des territoires, d’où la nécessité de les maintenir et de les moderniser en lançant des travaux. Ces lignes font souvent parties des plus « âgées », ce qui engendre des problèmes techniques et des retards etne permet pas d’attirer les voyageurs, notamment face à l’attractivité de la voiture individuelle. Les entreprises concurrentes de la SNCF ne se positionneront jamais sur des segments économiquement peu viables. Les régions vont donc continuer à financer tant que les gouvernements successifs y seront favorables.

L’ouverture à la concurrence n’est pas le remède miracle annoncé sous le quinquennat Macron. Il est urgent, au regard des enjeux climatiques et de désenclavement des territoires, de penser une réelle politique de transports en commun, intégrant le ferroviaire, favorisant l’intermodalité. 

Alors, que faire ? Le transport ferroviaire à l’heure du réchauffement climatique et de la nécessité de désenclaver l’ensemble des territoires

Selon le Conseil des Ponts et Chaussées, la demande de mobilité ne va pas cesser d’augmenter dans les 30 à 40 prochaines années : lors qu’un Français parcourait environ 14 000 kilomètres par an en 2000, en 2050 il devrait en parcourir près de 20 000(17).

Au regard des projections quant à l’augmentation des flux de personnes dans les prochaines décennies et à l’heure du réchauffement climatique, il apparaît nécessaire de mener une politique ferroviaire ambitieuse dans la mesure où le train constitue encore de nos jours l’avenir des mobilités à faible impact environnemental. Et plutôt que sur la pure mise en concurrence, cette politique ferroviaire doit s’appuyer sur trois piliers:

  • Pilier I : un investissement massif pour la rénovation / modernisation du réseau à inscrire dans les contrats plan Etat-régions : en effet, si pour certains Conseils régionaux, ouverture à la concurrence rime avec amélioration du service et augmentation des dessertes, cela est impossible sur un réseau à bout de souffle ;
  • Pilier II : une mise en place de grands projets d’infrastructures permettant de désengorger les différents nœuds ferroviaires et d’augmenter les dessertes : on pense notamment au projet de ligne Nouvelle Provence-Alpes-Côte d’Azur, bien que les impacts d’un tel projet sur la population soient importants, d’où la nécessité de conduire des enquêtes publiques pour les minimiser le plus possible ;
  • Pilier III : une promotion de l’intermodalité (amélioration de la connexion entre les différents modes de transports en commun et doux): pour faciliter le parcours des usagers et ainsi augmenter la fréquentation des transports publics dont le ferroviaire. A noter que, pour que l’intermodalité soit efficace, la connexion entre les différents modes de transports doit être optimisée, que ce soit en termes de durée ou de coûts (par exemple en instaurant un pass multi-transports) afin que cela soit plus attractif que l’utilisation de la voiture individuelle. Pour améliorer cette connexion, il faut évidemment augmenter l’offre de transports existante (augmentation des lignes de bus, de trains, aménagement de pistes cyclables et de parkings vélos, etc.). Enfin, il s’agit de faire la promotion de ces parcours intermodaux auprès des voyageurs, notamment grâce aux applications de transport (comme l’application SNCF ou l’application Ile-de-France Mobilités). Cela requiert donc que l’Etat investisse davantage ce sujet et aille bien plus loin que ce qui est proposé dans la loi d’orientation des mobilités adoptée en 2019.

D’autres leviers peuvent être activés (pour le transport de voyageurs mais également le fret) :

  • La mise en place d’une taxe sur les poids lourds pour désengorger les routes tout en repensant les politiques tarifaires liées au fret ferroviaire qui incitent actuellement les entreprises à se tourner davantage vers le transport routier de marchandises ;
  • Le lancement de travaux de modernisation des gares de triage, etc.

En matière de transport notamment ferroviaire (que ce soit pour les voyageurs ou les marchandises), beaucoup reste à faire et des solutions existent.

Références

(1)Commission européenne. (2010) Politique européenne des transports à l’horizon 2010, livre blanc

(2)Selon Vie Publique, un monopole est une situation de marché dans laquelle un seul vendeur fait face à une multitude d’acheteurs (définition issue de Vie Publique)

(3)Encyclopedia Universalis (s. d.). effet de réseau, économie

(4)Loi Solidarité et renouvellement urbain (SRU). (2020, avril 14)

(5)Un EPIC est une personne morale de droit public ayant pour but la gestion d’une activité de service public de nature industrielle et commerciale.

(6)Vie publique (2018). Pour un nouveau pacte ferroviaire, loi d’habilitation, ordonnances

(7)Pour en savoir plus : https://www.sncf.com/fr/groupe/profil-et-chiffres-cles/portrait-entreprise/sncf-2020-nouveau-groupe

(8)Soppé, M. & Guilbault, M. (2009). Partage modal et intermodalité. Évolutions structurelles de l’économie. Revue d’Économie Régionale & Urbaine, novembre (4), 781-805

(9)Informations issues de cet article : https://www.latribune.fr/economie/union-europeenne/au-royaume-uni-la-privatisation-des-chemins-de-fer-deraille-628489.html

(10)Tomeš, Z., Kvizda, M., Nigrin, T., & Seidenglanz, D. (2014). Competition in the railway passenger market in the Czech Republic. Research in Transportation Economics, 48, 270‑276

(11)Broman, E., & Eliasson, J. (2019). Welfare effects of open access competition on railway markets. Transportation Research Part A: Policy and Practice, 129, 72‑91

(12)Ibid

(13) Informations complémentaires dans cet article : https://www.latribune.fr/economie/union-europeenne/au-royaume-uni-la-privatisation-des-chemins-de-fer-deraille-628489.html

(14)Chaque exploitant ferroviaire doit payer le prix d’un péage au gestionnaire : ce prix varie en fonction des dessertes. Le prix du péage d’une desserte fortement fréquentée (ex. Marseille-Paris) sera plus élevé.

(15)Rapport ministériel & Spinetta, J. (2018). Rapport Spinetta : l’avenir du transport ferroviaire

(16)Ministère de la transition écologique et solidaire. (2020a). Chiffres clés transports 2019

(17)Crozet, Y. (2020, mai 8). L’Europe ferroviaire dans cinquante ans

Lire aussi...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)

Refaire de la dette publique un enjeu politique

État & transition

Refaire de la dette publique un enjeu politique

Au fil des crises économiques et des aléas budgétaires, la question de la dette publique déchaîne perpétuellement les passions, non sans charrier toujours la même rhétorique paniquée et austéritaire en filigrane. Dans cet article, Paul Vignat défend une nouvelle vision économique et historique d’une dette publique qui doit être repolitisée, et dont la question de l’annulation doit se poser démocratiquement.

8 Octobre 2020. Auditionné par le Sénat au sujet d’un rapport de la Cour des Comptes évaluant le financement de la Sécurité Sociale, Pierre Moscovici, son Premier Président, est grave : la santé coûte cher et « La Dette se vengera ». La menace est claire, le péril est grand ; un spectre hante la France, et gare à celui qui osera lui tenir tête. Déjà en 2018, alors Commissaire Européen, M. Moscovici avait eu ces exacts mêmes mots, alertant sur la cruauté implacable de cette ombre malfaisante que nos orgueils dépensiers alimentaient.

Ces interventions constituent peut-être le paroxysme de cette personnification panique, de cette vision glaçante de la Dette Publique comme horizon insoluble nous plongeant dans un enfer des plus dantesques. Plus encore que la crise climatique, qui pourtant ne cesse de nous rapprocher concrètement d’un futur scientifiquement catastrophique, c’est l’horizon de la Dette qui plonge médias et politiques dans une terreur biblique qu’ils prennent bien soin de communiquer à l’opinion. La Dette se vengerait, pèserait déjà 40 000€ de culpabilité sur chaque citoyen(1), et interdirait tout futur à un Etat qui irait, pénitent, payer pour ses fautes dépensières. Ce sujet, déjà latent depuis de nombreuses années, réveillé par la Crise de l’Euro en 2010, a refait surface avec force après la crise sanitaire. Ainsi le « quoi qu’il en coûte » -que l’euphorie macronienne d’un Jupiter providentiel avait laissé filer- a été rappelé à l’ordre par un néolibéralisme austéritaire secoué mais certainement pas K.O., et bien décidé à reprendre la main sur la Dépense Publique. Timidement ressurgi dans ce contexte, le débat de l’annulation a été tué dans l’œuf par tous les Ministres et les Gouverneurs de la Zone Euro, dans des déclarations aussi caricaturales qu’infantilisantes(2), révélatrices de la force du consensus néolibéral quant à la dépolitisation substantielle de la Dette. Cette immense somme d’argent serait un impondérable technique, sujet à aucune discussion, simplement bon à être craint, et à justifier les plus dures politiques d’austérité.

Cet article se propose de déconstruire cette mystique panique et totémique de la Dette Publique, qui, nous le verrons, n’a pas de fondement économique solide. On tentera ici de déchirer le voile technocratique qui a drapé cette question, la vidant de toute substance, faisant de la Dette un fétiche sur lequel le politique n’aurait surtout aucune prise. 

Car non, la Dette Publique n’est pas une fatalité, une punition divine. C’est d’abord un outil économique utile et sain, qui permet l’expression de la légitimité économique de l’Etat, qui permet son action dans le réel. Car non, la Dette publique n’est pas un immuable objet comptable, c’est une résultante sociale, historique et anthropologique que le politique doit se réapproprier et investir, comme cela a déjà été fait dans l’Histoire de France, quand la conduite de l’Etat n’était pas subordonnée au marché. Car non, la Dette Publique n’est pas un problème en soi, il existe même des solutions pour la remettre au service du Commun, pour éviter de nouvelles crises souveraines et se détacher du pouvoir de la finance.

La Dette Publique est un outil économique sain, pas un châtiment divin
  1. Du principal et de son roulement

Commençons par rappeler brièvement ce qu’est la Dette Publique (au sens de Maastricht, c’est-à-dire la Dette de l’Etat et des administrations sociales). Chaque année, pour combler la différence entre ce qu’il perçoit et ce qu’il dépense (le déficit), l’Etat émet des titres de Dette, que les banques et les investisseurs privés achètent contre promesse de remboursement avec intérêts. L’argent récupéré par ces émissions de bons du Trésor vient ramener la balance budgétaire à zéro, équilibrant les comptes de l’Etat. Dans le même temps, pour rembourser les détenteurs de titres de Dette Publique arrivant à maturité, l’Etat réemprunte sur les marchés, et paye son dû avec de l’argent fraîchement levé : on dit qu’il refinance, ou qu’il « fait rouler » sa Dette. Donc, ce sont seulement les intérêts que l’Etat paye de sa poche : le principal de la Dette, qui sert à combler le déficit budgétaire d’année en année, est simplement payé par de la nouvelle Dette au fur et à mesure du temps. Est-il soutenable, sur le long terme, de réemprunter pour rembourser continuellement ? Pour un Etat, oui. Pourquoi cela ne pose-t-il pas de problème ? Car contrairement à un ménage, mortel et donc condamné à rembourser toutes ses dettes avant de les emporter dans la tombe, ou à une entreprise, risquant à tout moment la faillite comptable si elle ne surveille pas son bilan, l’Etat perdure. L’Etat conserve et rembourse ses Dettes indéfiniment, et la finance le sait si bien qu’elle considérera toujours les Etats comme les meilleurs des payeurs possibles.

Cette simple définition de la Dette permet déjà d’enfoncer deux coins dans le mysticisme panique de la Dette Publique.

D’abord, que le niveau de la Dette, la somme totale d’argent que la France doit à autrui (estimée à 3 750 Milliards d’euros, soit environ 115% du PIB), n’a aucune importance que la symbolique qu’on veut bien lui prêter. Cette somme -certes vertigineuse- ne sera jamais remboursée en totalité : on émettra toujours de la nouvelle Dette pour financer l’ancienne. Chaque année, le montant total de la Dette augmente à hauteur du déficit courant. Ce tranquille processus a toujours restitué leur argent aux créanciers de la France, et continuera de le faire indéfiniment. Quant à la question de savoir si cette augmentation perpétuelle du total de la Dette est un problème, non pas au niveau du remboursement, mais sur la capacité des marchés à fournir toujours plus d’argent à l’Etat, rappelons que la création monétaire par le crédit n’a pas de limite (et qu’elle n’est pas forcément synonyme d’inflation, contrairement à ce qu’affirment les théories monétaristes(3)), et qu’il existe de toute façon largement assez d’argent déjà existant en circulation spéculative sur les marchés secondaires, pour en rediriger une partie vers un emploi réellement utile. 

Donc, il n’y a aucun intérêt pour un Etat à vouloir réduire le montant total de sa Dette : le but du jeu n’est pas de tomber à zéro. Pas plus qu’il n’y a d’intérêt à comparer le flux de richesses produites en un an (le PIB), avec le stock en renouvellement perpétuel et autosuffisant du Principal de la Dette. Notons à ce titre que le Japon, qui compte un ratio de Dette/PIB supérieur à 250% depuis des années, n’est pas à proprement une économie ruinée et dévastée par la colère biblique d’une Dette qui se serait vengée. De quoi relativiser le vent de panique soufflé par les défenseurs de la rigueur budgétaire, paniqués devant la barre franchie des 100% de Dette/PIB l’année dernière.

Deuxième brèche : ce ne sont ni les taxes ni les impôts qui payent cette Dette. C’est un point fondamental, car nos funestes augures austéritaires ne cessent de clamer que « nos enfants » paieront pour les péchés décadents de leurs aînés. C’est faux : les quelques milliards de Dette que la France doit, seront remboursés par d’autres milliards que la France empruntera, indépendamment de son budget, du niveau de ses impôts ou de sa santé économique.

Ceci étant dit au sujet du Principal, de tous les bons du trésor que la France a émis et qui virevoltent actuellement de mains en mains sur les marchés financiers en attendant d’être remboursés par une nouvelle dette, parlons maintenant des intérêts.

2. Des intérêts et de l’irrationalité financière

La thèse de cet article n’est certainement pas de considérer la Dette Publique comme sans danger pour une économie nationale. L’Histoire récente de la Grèce ou de l’Argentine, pour ne citer qu’elles, a montré comment une pression à rembourser trop forte sur une économie trop faible, ou une trop faible capacité à emprunter sur les marchés, pouvaient conduire à des issues désastreuses. Plus haut, nous avons vu comment le Principal de la Dette ne constituait pas un problème en soi. Il n’en est pas de même des taux d’intérêts, qui doivent être payés en plus du principal chaque année, et qui constituent actuellement dans un climat de taux très bas 0,02% des dépenses budgétaires de la France (33 Milliards d’euros par an(4)). Ce service de la Dette s’accroît au même rythme que le stock de Dette augmente, et est fonction des taux d’intérêts en vigueur sur les obligations d’Etat (actuellement autour de 0 ,13%). Symboliquement, cette somme à régler chaque année envers chaque détenteur d’un bon du Trésor, est le prix à payer de notre déficit : pour pouvoir continuer de dépenser plus que ce qu’il perçoit, l’Etat paye des intérêts. On voit que ce prix est extrêmement faible.

Dans une économie en croissance, ce service de la Dette n’est pas un fardeau insupportable, et permet de soutenir une Dette Publique élevée à long terme. L’augmentation de la production nationale gonfle les recettes de l’Etat, qui peut assumer le paiement d’intérêts plus élevés avec le temps(5).  

Alors, dans quels cas une Dette peut-être devenir intenable pour un pays ? Dit autrement, quels facteurs peuvent rendre le service de la Dette trop lourd pour être soutenable budgétairement ? Le premier découle de sa relation avec la croissance, établie plus haut. Dans le cas d’une récession qui affaiblirait le budget de l’Etat par plus de dépenses d’urgence et moins de recettes tirées d’un cycle économique en peine, le paiement des intérêts pourrait devenir un fardeau intenable. Ce premier risque est le moins discuté, mais deviendra peut-être le plus prégnant avec la crise climatique qui vient, et la structurelle impossibilité de maintenir nos économies à des taux de croissance constants à long terme.

Le deuxième risque, beaucoup plus courant, sur lequel on insistera, est celui de la valeur des taux d’intérêts. Indirectement, il pose la question centrale de la « confiance » des créanciers dans les capacités d’un pays à tenir ses engagements. Si les financiers sont rassurés, les taux resteront bas : ils considéreront que le risque qu’ils prennent en confiant leur argent est suffisamment limité pour ne pas justifier un prix de la Dette trop élevé. Au contraire, s’ils pensent que le risque de ne pas revoir leur argent est trop haut, ils chargeront un taux élevé pour compenser la perte en capital potentielle. C’est en ce sens que le taux d’intérêt est censé être une métrique de représentation du risque en finance : « high risk = high reward, low risk = low returns ».

C’est précisément ce lien de confiance qui déclenche des crises de Dettes Souveraines. Si la finance ne croit plus en les capacités de l’Etat à rembourser ses créances, les taux grimperont, voire flamberont. Alors, le pays verra exploser ses coûts de service de la Dette et de refinancement (car rappelons que l’ancienne Dette est remboursée avec de la nouvelle), créant un effet boule de neige qui, sans restructuration ou annulation, mène à la faillite de l’Etat et à sa désagrégation économique. L’exemple de la Grèce en 2010-2012 est ici évidemment le plus parlant. La flambée des taux d’intérêts sur les obligations souveraines grecques (de 5% jusqu’à 16% en quelques mois de 2009 à 2010) a été la résultante d’une perte de confiance des marchés dans les capacités de l’Etat à honorer ses créances. Cette flambée des taux mit l’Etat Grec dans une difficulté budgétaire inouïe où il ne se trouvait pas avant ce vent de panique : c’est parce que les financiers ont paniqué, que la Grèce s’est retrouvée techniquement en défaut de paiement ! En fuyant la Grèce et en la punissant préventivement, les financiers ont provoqué ce qu’ils voulaient éviter, ils ont créé de toutes pièces la catastrophe de la Dette : un cas d’école de prophétie auto-réalisatrice.

La panique des financiers était-elle compréhensible ? Jean Tirole(6) explique qu’elle était surtout due à une réaction inquiète des marchés aux promesses de renflouement par l’Etat des banques mises en difficulté par la crise de 2008. Des renflouements qui auraient fragilisé le budget grec : Tirole parle d’un « baiser de la mort » entre Banques et Etat. Notons au passage le cynisme culotté d’un système financier qui plonge unilatéralement un Etat dans la faillite, en le punissant d’avoir voulu réparer les errements de ce même système.

Ce que nous apprend cette crise grecque, et toutes les crises de Dette souveraine sur le même modèle, c’est qu’il ne peut y avoir de problème de remboursement d’une Dette, tant que les financiers ne croient pas qu’il peut y en avoir ! Tant qu’ils n’exigent pas des taux insoutenables, les pays n’ont aucun problème pour rembourser, en faisant rouler leur Dette et en ajustant leur paiement du service de la Dette au niveau de croissance. Bien plus que le montant de la Dette, c’est son coût qui devrait attirer toute notre attention. Et le fait qu’il soit contrôlé par les esprits animaux(7) de la finance, capables des pires accès de panique qui ne font que déclencher leurs pires craintes, se pose comme un lourd problème.  Et même si les craintes entraînant une hausse des taux sont justifiées (budget mal tenu, croissance ralentie), l’effet d’une augmentation des intérêts sera toujours une terrible aggravation de la santé économique d’un Etat ! Trop sérieuse, et cette aggravation peut amener au non recouvrement de certaines créances, issue qu’un maintien de taux bas aurait pu éviter !

3. De l’utilité économique intrinsèque de la Dette Publique

Cette partie économique et théorique aura donc insisté sur la sûreté du Principal, et la nature paradoxale et auto-réalisatrice des risques liés aux taux d’intérêts. Terminons brièvement par rappeler quelques éléments comptables et théoriques souvent oubliés, mais qui posent toute la légitimité de la Dette Publique, loin d’un fardeau inutile et dangereux.

La Dette n’est pas un trou sans fond, elle est au contraire le carburant de l’action économique concrète de l’Etat, tout autant que les recettes fiscales qui structurent le budget. Elle permet justement au budget de s’équilibrer et de remplir les missions fondamentales de la Dépense Publique (éducation, défense, prestations sociales, etc.). En plus de ce qu’elle permet de marge budgétaire, rappelons qu’une Dette, en comptabilité, au passif, est ce qui permet le financement d’actifs, de biens matériels et financiers. Et les actifs de l’Etat Français, quels sont-ils ! Routes, logements, terrains, bâtiments, mais aussi liquidités du Trésor, participations actionnariales dans des entreprises stratégiques… tout ce patrimoine public (actifs financiers et non financiers) est supérieur de 303 Milliards d’euros à la Dette totale de la France. Chaque enfant de France n’hérite donc pas d’une Dette abyssale de 40 000€, mais bien d’un patrimoine net de plus de 4 000€. Cela étant dit, ce chiffre ne prend pas en compte le patrimoine et les actifs non monétaires de la France : sécurité, démocratie, Etat de Droit, et tant d’autres choses qu’un Etat bien alimenté d’une Dette nécessaire à son fonctionnement peut créer et soutenir. En allant plus loin, avec un ton un brin provocateur, on peut considérer que cet argent public investi grâce à la Dette, constituera toujours le meilleur usage collectif de la monnaie, car conditionné à rien d’autre que la recherche de l’intérêt général. L’idée n’est pas forcément de plaider pour toujours plus de Dette et de dépense publique, mais au moins de considérer que les existantes sont au moins tout autant bénéfiques pour la Société que n’importe quel autre usage privé de l’argent. La Dette constituerait donc un outil pour transférer de l’épargne ou du crédit privé vers un usage public, bénéfique à tous, permettant l’action concrète d’un Etat aux missions capitales. L’échec criant des choix macroéconomiques et politiques de ces dernières années, faisant reposer sur le privé la responsabilité d’orienter et d’allouer la monnaie dans l’économie (les exemples vont du CICE à la suppression de l’ISF, en passant par le Quantative Easing de la BCE), mériterait un article entier, mais est suffisamment clair pour plaider en faveur d’un plus grand rôle de l’Etat dans l’allocation de la dépense.

La Dette est un objet politique à part entière
  1. Histoire de revirement anthropologique

Sur l’Histoire de la Dette en tant qu’institution sociale et politique, rien ne vaut la lecture de David Graeber(8) qui réinvoque les théories Chartalistes pour replacer la Dette, ou plutôt le prêt désintéressé et solidaire, en tant que structure anthropologique fondamentale. Graeber rappelle que le prêt est un ciment de confiance entre des individus semblables et en paix, là où le commerce monétaire serait l’expression économique et froide d’une guerre concurrentielle entre deux peuples hostiles. Quel revirement, avec notre vision moderne de la Dette comme « faute » (littéralement, en Allemand !), preuve de l’inconstance morale d’un débiteur vivant au-dessus de ses moyens, et du commerce comme modèle de paix et d’harmonie (les travailleurs victimes des concurrences déloyales de la mondialisation apprécieront) !

L’anthropologue M. Mauss(9), avec ses travaux sur le don et le contre-don, ajoute que des transferts de valeur peuvent bien exister sans lien de domination, sans relation de dépendance, sans intéressement quelconque.

En plus de ces constatations scientifiques, les héritages philosophiques et théologiques d’Aristote à Ibn-Khaldoun, en passant par Saint Thomas et toute la doctrine de l’Eglise catholique, insistent sur l’immoralité de l’usure. Le taux d’intérêt, devenu la kryptonite ultime de notre Dette Publique, était interdit par la Loi et la Vertu jusqu’à la fin du Moyen Âge ! Quelques siècles de profits bancaires plus tard, pourrait-on peut-être reconsidérer la légitimité de cet instrument qui fait peser sur celui qui n’a pas assez un poids supplémentaire, qui viendra enrichir celui qui a déjà plus que nécessaire. Et concernant la Dette Publique, quelle légitimité pour les banquiers de profiter de crédits accordés à un pays qui les héberge, les sécurise, les ont éduqués et éduquent leurs enfants ?

2.Histoire d’un rapport de force

Car en effet, le système de financement actuel de l’Etat, qui doit passer par les banques ou les marchés pour financer son activité, est synonyme d’une soumission totale au monde de la finance. Sous prétexte que des politiciens peu regardants et électoralistes pourraient abuser d’un circuit de financement public pour faire rugir la planche à billets et créer, ô malheur, de l’inflation, il a été décidé politiquement de se soumettre au bon vouloir des financiers, et au couperet de leurs taux d’intérêt. Ce ne fut pas toujours le cas dans l’Histoire de France. Loin de moi l’idée de vouloir émuler la solution radicale de Philippe le Bel pour se libérer de ses Dettes et de ses créanciers (les brûler vifs, dissoudre leur Ordre et saisir leurs biens), mais il a été prouvé qu’il est possible pour un gouvernement de considérer que la raison d’Etat justifie le modelage les canaux de financement publics, et pas l’inverse. Sully opérant un grand moratoire sur la Dette royale et en annulant une partie, Louis XIV faisant de même, Bonaparte créant la Banque de France pour contrôler directement la source de ses financements, de Gaulle mettant en place le « Circuit du Trésor » pour directement capter l’épargne des Français sous intérêts réglementés, ou simplement acceptant un taux d’inflation conséquent pour réduire mécaniquement le poids de la Dette(10).

Sans nécessairement revenir sur une pratique absolutiste du pouvoir où l’économie était totalement sous le contrôle arbitraire de la Couronne, et où les financiers pouvaient finir en prison pour avoir trop prêté aux guerres du Roi, il semble important de rappeler qu’un autre circuit de financement public, moins contraignant, moins asservissant, mais ni moins stable ni moins efficient, a existé avant la financiarisation de l’économie et le contrôle européen sur la monnaie. Que ce soit à travers le recours à la création monétaire des banques centrales (et non des banques privées comme c’est le cas aujourd’hui), ou bien à la création d’un circuit d’épargne fermé et réglementé, le recours au marché et à ses caprices n’est pas la seule issue. La construction européenne, bâtie sous la tutelle allemande et sa peur panique de l’inflation, aura jugé que le risque d’un Etat trop gourmand et potentiellement inflationniste justifiait d’externaliser et de marchandiser la Dette Publique. Le résultat de cette privatisation de la source même de l’existence économique de l’Etat aura été une crise majeure des Dettes souveraines déclenchée par l’irrationalité panique des marchés, et un nouveau paradigme culpabilisant et rabougri, rendant très difficile voire impossible tout grand plan d’investissement public, au hasard, pour la transition écologique et énergétique.

Pistes et horizons
  1. L’annulation (ce mot terrible !)

Pour tenter de sortir de cette impasse monétaire où l’austérité semble être le seul horizon, où la Dette est perçue comme une punition indépassable, et où les marchés, les banques et les investisseurs détiennent seuls le contrôle de l’action économique de l’Etat, la question de l’annulation est beaucoup débattue, notamment à gauche. Deux écoles principales existent. Nous appellerons les premiers, minoritaires, les « annulationistes durs », partisans d’un grand moratoire sur la Dette, pour savoir exactement à qui nous devons quoi, et simplement refuser de rembourser une partie de cette Dette, considérant qu’elle n’est pas légitime. Frédéric Lordon, qui va même plus loin, proposait de ne rien rembourser à personne, et de profiter du chaos complet engendré par ce tsunami dans le système financier pour racheter -par saisie pure et simple- les banques et fonds d’investissements réduits en miettes par ce trou énorme dans leurs bilans. D’autres, plus modérés (la plupart des Economistes Atterrés, Nicolas Dufrêne, Gaël Giraud…), considérant qu’il faut maintenir un lien de confiance entre investisseurs, banquiers et Etat, proposent d’utiliser à fond le pouvoir de création monétaire de la Banque centrale européenne pour qu’elle rachète systématiquement les titres de Dette détenus par les banques, solidifiant ainsi leurs bilans, et les assurant de revoir leur argent très vite sous forme de liquidités crées pour l’occasion par la BCE. Ensuite, les Etats pourraient rembourser directement à la Banque Centrale qui ne les y presserait pas trop (une Banque Centrale ne peut pas faire faillite), voire ne rembourser qu’une partie ou rien du tout, en fonction de la monnaie qui devrait rester en circulation dans l’économie.

En fait, depuis la crise de 2008, la BCE a déjà institutionalisé le rachat d’actifs, faisant tourner massivement sa propre planche à billets pour alimenter la zone euro en monnaie et débarrasser les banques d’actifs trop risqués. Le succès de cette politique a été très mitigé à destination des banques : le Quantitative Easing a surtout servi d’échappatoire à moindre coût pour les banques qui ont réinvesti l’argent du QE dans la sphère spéculative : on rappellera que seuls 12% des actifs détenus par les banques européennes sont des prêts accordés à des entreprises productives(11). Cependant, concernant les rachats de Dette Publique (la BCE détient aujourd’hui environ 20% de la Dette de l’Etat français, rachetée aux banques européennes), la dynamique est encourageante. Tous ces titres de Dette arrachés à la finance avec de la création monétaire de la BCE sont autant de pouvoir de contrôle en moins pour les créanciers privés. De plus, sachant que leurs titres de Dette publique peuvent être rachetés par la BCE, et donc constituent un investissement peu risqué, ce mécanisme incite les banques à ne pas relever leurs taux sur les bons du trésor.

Depuis cette dynamique, il n’y a qu’un pas pour passer à l’annulation en ne remboursant pas la BCE, et en dégrossissant le principal au fur et à mesure. Cependant, cela signifierait que la BCE a créé de l’argent utilisé par les Etats sans contrepartie (l’argent non remboursé n’est pas détruit), et c’est précisément ce qu’interdisent les traités, sous prétexte de la peur de l’inflation. Quoi qu’il en soit, comme les Etats sont actionnaires uniques de leurs Banque Centrales, les intérêts qu’ils paieraient en remboursant cette Dette… leurs seraient reversés sous forme de profits par la BCE (comme le rappellent entre autres Thomas Porcher(12) et Eric Berr(13)). Rembourser ou pas la BCE, pour se libérer du principal, pourrait donc être une variable d’ajustement en fonction des besoins de l’économie et des risques inflationnistes. Sil’Etat a besoin de fonds, il pourrait ne pas rembourser le Principal et profiter d’une planche à billets centrale sans contrepartie. Mais s’il peut se le permettre et que l’économie a besoin de stopper une éventuelle surchauffe, il pourrait confier une partie de sa Dette monétaire à la BCE pour destruction et paiements de profits.

2. Caper légalement les taux d’intérêts

Cette perspective de l’annulation, ou en tout cas d’une plus grande responsabilité des banques centrales dans la gestion des obligations d’Etat achetées par les banques, est passionnante, simple et parfaitement faisable, mais se heurte à un consensus ordo-libéral solidement installé qui tient toujours en horreur la dépense publique et le court-circuitage du Tout-Puissant-Marché. En témoignent les déclarations de Messieurs Le Maire(14) ou Villeroy de Galhau, faisant semblant de ne pas comprendre que cette technique ne flouerait absolument pas les investisseurs, pour décrédibiliser la mesure. Permettez-moi donc de finir cette article sur une proposition moins radicale, pas interdite par les traités européens, et qui pourrait permettre de sortir de notre dépendance morbide aux esprits animaux de la finance.

Comme nous l’avons montré plus haut, un taux d’intérêt est censé représenter un risque. Or, comme nous l’avons vu également, rien n’est moins risqué pour une banque ou un investisseur que de prêter à un Etat : il est éternel, peut faire rouler sa Dette, et ses créances sont de plus en plus implicitement couvertes par une Banque Centrale qui rachète à tour de bras pour arroser les banques en liquidité. Je veux le redire avec force, un Etat sera toujours l’acteur économique le plus fiable et solvable. Aucun ménage ou entreprise ne peut prétendre à autant de solidité débitrice. D’ailleurs, même s’il lui arrive de paniquer toute seule, la finance connaît bien cette réalité : les taux d’intérêts en vigueur sur les obligations d’Etat sont toujours et de loin les plus bas du marché.

A ce titre, pourquoi ne pas imaginer d’encadrer légalement les taux d’intérêts sur les Dette Publiques, avec un prix plafond très bas (imaginons 0.5% sur 10 ans) ? Cela viendrait casser le cercle vicieux de financiers qui paniquent en augmentent le taux d’un pays en difficulté, réalisant sa chute. Et cela viendrait cimenter cette réalité empirique que le risque zéro existe bien quasiment sur les solvabilités souveraines, à condition que des financiers irrationnels et paniqués n’en décident pas autrement. Peu d’études ont été faites sur les effets potentiels d’une limitation légale des intérêts sur les Dettes souveraines. Mais la mesure a déjà été testée sur l’économie en générale, notamment dans des pays en développement afin de protéger les populations et les entreprises de taux d’usures ingérables, interdisant tout développement économique. Un rapport de la Banque Mondiale(15) concluait à ce sujet que si l’idée était noble, sa mise en place donnait souvent lieu à une baisse de la production de crédit (les banques refusant de prêter à des taux trop bas si elles estiment que le risque est trop élevé). Cette critique est bien sûr entendable et semble logique, mais ne s’applique pas aux Dettes Souveraines ! En effet, les gestionnaires d’actifs savent bien qu’il n’est pas de produit financier plus liquide, stable, reconnu et fiable, qu’une obligation d’Etat (encore plus si la Banque Centrale peut la racheter à tout moment) ! Les banques auront toujours besoin dans leurs bilans de tels safe assets, mobilisables et revendables à tout moment ! L’exemple récent des taux de rémunération négatifs mis en place par la BCE sur les réserves obligatoires est parlant ! Même en perdant de l’argent, les banques se bousculaient au portillon pour confier leur argent à la BCE sous forme de liquidités fiables.  On peut donc tout à fait imaginer que la production de crédit et l’investissement envers les Etats ne baisserait que très peu, même avec des taux d’intérêts drastiquement limités. Ces dernières années, on ne peut pas dire qu’ils furent élevés, mais cela n’a pas empêché les banques de s’arracher des obligations d’Etat. Et même si une telle réduction de la production du crédit se produisait, la Banque Centrale pourrait toujours intervenir, et pourquoi pas, acheter directement aux Etats des titres de Dette !

Cet article, volontiers provocateur mais résolument honnête, aura donc tenté de réhabiliter la Dette Publique, moteur indispensable et sain d’un Etat qui assume son rôle économique et social. Dans un climat où elle est érigée en chimère malfaisante, symbole présumé de la folie dépensière de peuples et gouvernements immatures, on a souhaité rappeler sa solidité à long terme, sa nature indispensable et légitime. Aussi, on aura plaidé pour une repolitisation de ses enjeux : furent des époques où la Dette était un facteur de solidarité, un instrument au service de l’Etat, et pas une ombre planant sur lui en limitant son action. Enfin, on aura rapidement exploré deux pistes (l’annulation / captation par la Banque Centrale, et le plafonnement des taux d’intérêts) pour se libérer de l’emprise des marchés sur cette Dette si capitale pour la pérennité de la collectivité. Bien sûr, ces mesures se heurtent encore au refus catégorique et idéologisé des tenants de la rigueur, des fanatiques de la désinflation, et des dévots du Saint Marché, mais le but de cet article était justement de leur opposer une humble mais ferme contestation. Et surtout, de rappeler qu’aucun sujet ne devrait être laissé aux technocrates et aux prétendues vérités inaliénables : tout est politique, à commencer par la manière dont l’Etat se finance. 

Références

(1)Damon, Julien. (2021) « Et si chaque Français remboursait 40 000 euros de dette publique? ». Le Point, 29 Mars 2021, https://www.lepoint.fr/invites-du-point/julien-damon/damon-et-si-chaque-francais-remboursait-40-000-euros-de-dette-publique-29-03-2021-2419871_2968.php

(2)Villeroy de Galhau, François. (2021) « Une dette doit être remboursée, tôt ou tard ». Challenges, 27 Janvier 2021. https://www.challenges.fr/economie/interview-villeroy-de-galhau-gouverneur-de-la-banque-de-france-une-dette-doit-etre-remboursee-tot-ou-tard_747988

(3)Pour les monétaristes (et leur chef de file Milton Friedman), toute création monétaire qui ajoute de l’argent arbitrairement dans l’économie implique inévitablement une hausse des prix. Mécaniquement, si plus d’argent est disponible dans une économie pour opérer des échanges de marchandises dont le nombre n’a pas augmenté, le prix nominal associé à chaque marchandise augmenterait en effet. Cependant, cette théorie n’admet aucun impact de la création monétaire sur l’augmentation de la production. Or, il est tout à fait possible que le nombre de marchandises produites augmente grâce à une augmentation de l’argent en circulation (gains de productivité grâce à des hausses de salaire, hausse des investissements etc). Si la production augmente en même temps que l’argent mis en circulation pour échanger cette production, les prix n’augmentent pas. Côté théorique, voir la Modern Monetary Theory. Côté empirique, constater que la hausse vertigineuse des masses monétaires de la zone euro et des USA depuis la crise de 2008 n’a quasiment généré aucune inflation.

(4)INSEE. (2021) « Comptes nationaux des administrations publiques – premiers résultats – année 2020 », https://www.insee.fr/fr/statistiques/5347882

(5)Blanchard, Olivier. (2019) « Public Debt and Low Interest Rates. » American Economic Review, 109 (4): 1197-1229.

(6)Farhi, Emmanuel & Tirole, Jean. (2018). “Deadly Embrace: Sovereign and Financial Balance Sheets Doom Loops.” Review of Economic Studies 85 (3): 1781-1823.

(7)Keynes, John Maynard. (1936). « Théorie générale de l’emploi, de l’intérêt et de la monnaie ». Cambridge University Press.

(8)Graeber, David. (2011). “Debt : The First 5,000 Years”. Melville House, New York. (ISBN 978-1-933633-86-2)

(9)Mauss, Marcel. (1924). «Essai sur le don : Forme et raison de l’échange dans les sociétés archaïques »

(10)En période d’inflation, la valeur d’une monnaie diminue (les prix augmentant, chaque unité monétaire permet d’acquérir de moins en moins de bien). La monnaie devient donc moins précieuse en termes nominaux. Mais comme les dettes sont contractées en nominal, rembourser 1€ après inflation (qui permet d’acheter une baguette de pain) est beaucoup moins douloureux que de rembourser 1€ avant inflation (qui permettait d’en acheter deux). Créer de la monnaie par la Dette, si cela génère de l’inflation, est en fait un excellent moyen… de rembourser la Dette sans problème.

(11) Finance Watch : https://www.finance-watch.org/uf/bank-lending-to-the-real-economy/

(12) Porcher, Thomas (2018). «Il faut arrêter de diaboliser la dette publique», Le Temps, 20 Juin 2018. https://www.letemps.ch/economie/thomas-porcher-faut-arreter-diaboliser-dette-publique

(13)Les Économistes atterrés. (2020) « La Dette publique, Précis d’économie citoyenne », Le Seuil

(14) https://www.linkedin.com/posts/brunolemaire_faut-il-rembourser-la-dette-covid-la-r%C3%A9ponse-activity-6772793286273847296-aHOW

(16)“Maimbo, Samuel Munzele; Henriquez Gallegos, Claudia Alejandra. (2014). “Interest Rate Caps around the World : Still Popular, but a Blunt Instrument.” Policy Research Working Paper. No. 7070. World Bank Group.

Lire aussi...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)

Reconsidérer la dimension spatiale du social et de l’économique

État & transition

Reconsidérer la dimension spatiale du social et de l’économique

L’urbanisme n’est aucunement neutre : si les élus ne projettent pas directement leur vision de la société sur la ville, cette vision participe à façonner la cité, lieu où se concentrent les hommes et les femmes et des activités diverses. Depuis quelques années, la reconquête des espaces urbains est un sujet en vogue. Cette idée, bien souvent présentée comme une modernité à l’encontre du futurisme et de ses villes géantes, a pris des formes concrètes dès les années 1970, ce fut par exemple le cas dans le cadre du communisme municipal manceau (Le Mans) entre 1977 et 1989. Dès leur arrivée aux commandes de la ville, Robert Jarry (le maire) et son équipe souhaitent limiter l’étalement urbain et densifier le maillage. Cette reconquête est celle du centre et de ses périphéries, une reconquête au singulier puisque ces deux espaces ne sont pas pensés en concurrence, mais comme répondant à un équilibre au sein de la ville. Limiter la concurrence entre les espaces urbains doit permettre le développement de chacun et une limitation de la ségrégation socio-spatiale. Sans utiliser l’histoire comme modèle ou repoussoir, un retour en arrière permet de replacer dans le temps long quelques problèmes rencontrés par les villes et des stratégies pour y faire face.
« La morphologie entre la matière et le social(1) »

Les politiques sociales étant protéiformes, que cela soit dans leur nature ou dans leur matérialité, l’appréhension de l’espace peut être une démarche salutaire à la reconstruction d’une République sociale, émancipatrice et écologique.

Dans notre exemple, l’aménagement du territoire doit avant tout être empreint d’un caractère social : prendre d’abord — mais pas seulement — en compte ceux qui ont été les victimes d’un sous-équipement. Le terme « victime » est un choix de vocabulaire très intéressant, au-delà de l’aspect tribunitien, il montre que la ville est vécue et qu’elle peut être subie. Ainsi, l’expression du géographe Marcel Roncayolo « La morphologie entre la matière et le social(2)» prend tout son sens : l’aménagement d’une ville relève bien sûr de la matière et de l’espace, mais aussi, et peut-être surtout, du social puisqu’elle est un lieu de vie. Une vie qui est à la fois quotidienne, économique, de loisirs, de travail ou encore de déplacements, les élus se donnent pour mission de repenser l’existant en fonction des besoins, non pas de conquérir l’espace.

La morphologie sociale

S’intéresser aux composantes sociales de la morphologie d’une ville n’implique pas un désintérêt des formes, au contraire, c’est précisément penser les formes à travers l’histoire politique, économique et sociale de la ville. Les formes de la cité sont ici des objets relevant du social. Il serait vain d’analyser les ensembles forgés par les voies, le parcellaire et le bâti indépendamment de la société en étant à l’origine d’un point de vue historique ; tout comme il serait stérile de les concevoir en dehors de la société que l’on souhaite construire d’un point de vue politique. En d’autres termes, que disent les formes matérielles de la société et de ses phénomènes ? Le terme « forme » est à comprendre de manière large. Comme Maurice Halbawchs, nous comprenons à la fois les formes naturelles et les formes intentionnellement construites et situées, elles sont à concevoir comme évolutives. La société ne se construit pas en dehors des formes, ce n’est pas une fois que les questions sociales sont tranchées que nous projetons la société dans l’espace, les formes sont parties prenantes des réflexions. Il semble que nous ayons aujourd’hui besoin de re-clarifier notre rapport à l’espace, que cela soit dans sa dimension environnementale, économique, sociale ou temporelle.

Habiter pour donner forme à la ville

Le domaine de l’habitation ne peut être limité au logement. Les divers bâtiments formant l’espace urbain sont habités par les hommes, pour autant ils n’y habitent pas nécessairement, c’est-à-dire qu’ils n’y constituent pas leur logis.

« Habiter serait ainsi, dans tous les cas, la fin qui préside à toute construction. Habiter et bâtir sont l’un à l’autre dans la relation de la fin et du moyen. Seulement, aussi longtemps que notre pensée ne va pas plus loin, nous comprenons habiter et bâtir comme deux activités séparées, ce qui exprime sans doute quelque chose d’exact ; mais en même temps, par le schéma fin-moyen, nous nous fermons l’accès des rapports essentiels. Bâtir, voulons-nous dire, n’est pas seulement un moyen de l’habitation, une voie qui y conduit, bâtir est déjà, de lui-même, habiter(3). »

Dès lors, construire est d’ores et déjà une manière d’habiter la ville puisque c’est un travail d’appréhension de la cité. D’ailleurs, buan (bâtir en vieux-haut-allemand) signifie habiter, la signification habiter du verbe bauen s’est perdue plus tard(4). L’étude linguistique d’Heidegger dans sa conférence « Bâtir, Habiter, Penser » explique que la manière dont nous sommes sur terre est le buan, soit l’habitation, et donc être sur terre c’est habiter. De plus, les constructions, c’est-à-dire le fait de bâtir et d’habiter la ville, font ressortir des éléments naturels et des fonctions de l’espace urbain. Ainsi, les choix d’aménagements faits par les élus mettent en exergue une vision de la société qu’ils désiraient construire, ce qu’ils souhaitent faire ressortir de la ville. En nous concentrant sur la forme (au sens large), nous visualisons un idéal. À l’heure d’une nécessaire remise en question de notre rapport à l’environnement et d’une lutte contre la hausse de la ségrégation sociale (qu’elle soit spatiale ou non), ré-apprendre à interroger notre action d’habiter peut être d’un grand secours. Si nous reprenons l’exemple du pont par Heidegger(5), nous comprenons que c’est par la construction de la ville que l’espace se crée et se forme : le pont reliant deux rives existantes ne fait pas que les relier, c’est par le pont que les rives ressortent en tant que rives puisqu’il les oppose l’une à l’autre. Si le lieu créé existe, c’est par le pont, ainsi, les espaces créés par les choix d’urbanisme des élus locaux existent par les aménagements répondant à des besoins sociaux-économiques de la population. Un espace est quelque chose qui est ménagé (6) à l’intérieur d’une limite, sachant que la limite ne veut pas dire là où quelque chose cesse, mais à partir de quoi quelque chose commence à être. Ainsi, les espaces sont par les lieux, qui sont eux-mêmes l’être de la chose bâtie, la morphologie de la ville peut donc être comprise par les constructions réalisées via les politiques d’aménagement des élus — sachant qu’elles répondent à des besoins économiques et sociaux — ; c’est-à-dire qu’ils ménagent des espaces et produisent alors la ville, il s’agit là du bâtir en tant que produire. Or produire l’espace est une manière de l’habiter, cela relève bien d’un comportement vis-à-vis de l’espace, un comportement trouvant ses sources dans l’élaboration d’un programme politique comprenant une vision de l’urbanisme très politisée dans notre exemple. L’urbanisme est un outil des politiques sociales et économiques menées par les élus. Et ce ne sont pas uniquement les constructions dans leurs formes qui font la ville, c’est leurs rôles, leurs fonctions et leurs usages par les populations qui participent alors à une construction de l’espace de la ville à la fois dans sa forme et dans son vécu par la société.

Maîtriser l’évolution sociale des espaces

Les politiques foncières menées par les élus relèvent des politiques d’aménagement de la ville, autant que des politiques économiques et sociales. La maîtrise du foncier permet d’anticiper la conception de l’espace, par leurs actions d’acquisition les élus se donnent la possibilité de modeler les espace acquis, de maîtriser la spéculation foncière de la ville et se dotent alors d’outils pour enrayer la ségrégation socio-spatiale et pour réintroduire de la mixité dans les fonctions urbaines des différents quartiers.

Dans les archives mancelles, des notes rédigées entre 1981 et 1983 précisent qu’il est nécessaire de mener une politique de réserves foncières plus agressive. Ce témoignage permet de recadrer le débat : lorsque les stratégies financières d’acquisition du foncier de sociétés et d’individus sont effectivement agressives au détriment du commun, une radicalité est nécessaire face à l’accaparement belliqueux de l’espace, sans quoi le droit à la ville sera l’apanage de quelques-uns.

Dans les années 1970 et 1980, les communistes revendiquent un droit à la ville et à l’habitat, mais aussi un droit au centre-ville, que cela soit pour y habiter — au sens de se loger — ou pour le pratiquer. Ce droit à la ville fait aujourd’hui écho avec le roman Les furtifs (2019) d’Alain Damasio. L’auteur y décrit des villes endettées privatisées qui pourraient être les nôtres dans quelques décennies, non forcément sous la forme de villes rachetées par des multinationales proposant des forfaits standard, premium ou privilège permettant d’accéder de manière inégale à la ville, mais parce que ces forfaits existeraient de fait par la ségrégation socio-spatiale et la hausse des inégalités.

Le besoin de logements abordables doit se faire dans une logique d’équilibrage, non seulement entre les villes pour que les villes déjà densément fournies ne soient pas celles qui en construisent le plus, mais aussi au sein même des villes afin de lutter contre le renforcement des frontières structurant la ville et séparant les habitants comme dans Les furtifs.

Dans notre exemple du communisme des années 1970-1980, la municipalité s’attache à développer les logements sociaux en centre-ville et dans les différents quartiers afin de freiner la hiérarchisation socio-spatiale de l’espace. Si cette idée apparaît comme une évidence, elle demande un véritable portage politique en raison des coûts plus élevés d’une telle opération dans le centre. Elle demande également un contrôle de l’évolution des loyers lors des opérations de réhabilitation afin que les populations en place ne se retrouvent pas rejetées en périphérie. L’objectif poursuivi est clair :  « rétablir un peu de justice dans la ville et ne pas laisser le centre être confisqué par des privilégiés de la fortune (7)».

La réponse de la municipalité va au-delà d’une forte de demande de logements sociaux, elle pense la répartition sociale de la ville, à la fois directement en implantant des logements sociaux dans le centre de la ville, mais aussi plus indirectement puisque leurs implantations participent à la limitation de la spéculation foncière dans ces quartiers. L’implantation spatiale des logements est un choix politique : soit nous répondons uniquement à une demande dans une démarche d’assistance et les plus pauvres devront se contenter du minimum, soit nous profitons du levier que représentent les logements sociaux pour réguler une forme de privatisation de l’espace favorable au développement des communautarismes.

À la reconquête de l’espace urbain

La reconquête de l’espace urbain, dans notre exemple, demande tout à la fois une limitation de l’étalement urbain, une densification du maillage et un développement de l’urbanité. Cette reconquête ne doit pas générer d’inégalités entre les territoires et les habitants, or le fait que la recherche d’urbanité passe par un développement du centre rend difficile l’annulation de toutes les externalités négatives pour les espaces périphériques.

L’espace du travailleur

Les constructions qui ne sont pas des logements sont malgré tout déterminées à partir de l’habitation, ce prisme se comprend dans les archives lorsqu’il s’agit de mieux placer les usines de production par rapport à l’habitation. Un des défis contemporains de la France est de réindustrialiser le pays, mais pas à n’importe quel prix. Si nous ne tenons pas compte des problèmes écologiques et sociaux, les premières victimes seront les travailleurs. La désindustrialisation n’étant pas nouvelle, des réflexions ont déjà pu être menées.

Le développement du télétravail a permis de questionner la durée de la journée de travail, et ce sur trois points essentiels : son allongement en raison de l’impossible déconnexion ; la place du temps de transport dans les villes modernes ; et enfin l’usage productiviste de l’espace urbain qui a détérioré le lien entre l’usager et son temps utile.

Parmi les avantages du télétravail, certains ont pointé du doigt la fin des longues et nombreuses heures de transport par semaine ; le temps de trajet est donc vécu comme une partie intégrante de la journée de travail. Dès lors, certains se sont précipités sur le télétravail pour en faire une solution miracle aux problèmes de l’éloignement entre habitation et lieu de travail. Or la proximité du travail n’est ici que numérique, elle peut donc être comprise comme illusoire. De nombreuses études et commentaires ont montré les conséquences délétères du télétravail pour les travailleurs, et tout particulièrement pour les travailleuses, nous ne reviendrons pas dessus. Plutôt que de choisir une réponse à portée de main, économique pour les employeurs, mais dont le coût social est lourd, l’arbitrage doit se faire à la faveur d’une meilleure répartition des emplois entre les territoires et dans les territoires.

Ces dernières années, les recherches et les réflexions sur l’équilibre des quartiers re-questionnant l’être de la ville se sont largement développées, elles ont même bénéficié des transformations de notre rapport à la ville durant la crise du Covid-19. 

Par exemple, la ville du quart d’heure, concept développé par Carlos Moreno, est une méthodologie territoriale qui vise à « changer nos modes de vies, à reprendre le contrôle, voire la possession de notre temps utile et prendre le temps de vivre (8)». Sont mis en lien le territoire, ses usages et le chrono-urbanisme afin de développer une ville polycentrique où les quartiers sont riches d’une mixité fonctionnelle. Six fonctions sont identifiées : habiter, travailler, s’approvisionner, se soigner, s’éduquer et s’épanouir. La relation entre le temps et la qualité de vie n’est pas née avec Carlos Moreno ; Clarence Perry au début du xxe siècle travaillait déjà sur la proximité. Au-delà des développements théoriques, les politiques municipales allant dans le sens d’un urbanisme d’équilibre, considérant donc la proximité et le temps comme des facteurs déterminants de l’aménagement urbain, ne datent pas du xxie siècle.

Dès les années 1970, le PCF et le PS dénoncent les problèmes de temps de transport pour se rendre au travail qui allongent les journées des travailleurs, tout particulièrement des catégories défavorisées. Si l’on additionne le temps de travail journalier au temps de transport, on obtient un total similaire à la durée de la journée de travail de la fin du xixe siècle, lorsque le travailleur logeait une faible distance de son travail. Le temps de travail baisse mais, dans le même temps, les mutations spatiales éloignent les travailleurs de leur lieu de travail, ainsi une partie du temps libre gagné est consacré aux transports. Le gain du travailleur est en partie volé.

L’une des réponses proposées est de mieux articuler les déplacements en fonction des zones résidentielles. En 1979, Robert Jarry déclare que la Ville doit affirmer la priorité aux transports en commun dans un souci de justice sociale. Puisque les inégalités de revenus entraînent une division de l’espace urbain — et ce malgré les politiques mises en place à l’échelle locale pour freiner ce phénomène —, les classes sociales les moins favorisées logent à une distance plus élevée du centre-ville. Ainsi, il apparaît nécessaire de desservir les grands ensembles des quartiers périphériques en offrant des dessertes par transports en commun à un rythme soutenu. Nous sommes en 1978, mais plus de 40 plus tard nous faisons toujours les mêmes constats et les mêmes appels. Il y a une recherche d’équilibre entre, d’une part le développement de la centralité accessible à chacun ; d’autre part la nécessité de rééquilibrer la répartition des services au sein de chaque quartier, tout en connectant les espaces entre eux. L’accent est davantage mis sur les transports collectifs que sur l’aménagement routier car il ne s’agirait pas d’une politique sociale si les inégalités de motorisation n’étaient pas prises en considération dans les possibilités de déplacement. Ainsi, la réponse à des besoins sociaux engendre des formes particulières de la ville. Il s’agit de s’attaquer aux inégalités socio-spatiales et à l’amélioration du cadre de vie des citadins puisque « les déplacements par les nuisances multiples qu’ils produisent, jouent un rôle prépondérant dans la dégradation de la qualité de la vie des citadins (9) », notamment la pollution engendrée par les déplacements.

Le rapprochement entre le travail et l’habitat passe également par des choix stratégiques concernant l’implantation des entreprises. L’objectif premier des communistes manceaux entre 1977 et 1989 est l’emploi. Dans les années 1970, les politiques privilégiant le plein emploi ont été mises en déroute. La décennie suivante, l’École de Chicago explique que la monnaie ne peut pas servir à relancer l’économie, il ne faut donc pas espérer une amélioration de l’économie par la relance monétaire. L’objectif prioritaire n’est plus le plein-emploi mais la désinflation, ainsi le plein-emploi apparaît comme un objectif dérivé dans les politiques économiques nationales. Entre 1977 et 1989 les communistes manceaux confrontés à la désindustrialisation et à la massification du chômage placent la défense de l’emploi comme l’objectif premier des politiques économiques locales. La municipalité croit en son rôle moteur, une conviction renforcée après les lois de décentralisation (1982-1983), sans pour autant prétendre être en capacité de résoudre la crise de manière globale. L’aménagement urbain, quel qu’il soit, est pensé pour favoriser l’emploi, cela est d’autant plus direct lorsqu’il s’agit de favoriser l’implantation d’entreprises.

Pour répondre à la ligne directrice « vivre et travailler au pays », ce qui signifie que les travailleurs doivent pouvoir rester au Mans et/ou ne pas se retrouver à parcourir de longue distance pour être employé, les élus doivent participer à l’implantation d’activités économiques. Ainsi, ils cherchent à encourager le développement d’entreprises dont les besoins en main-d’œuvre sont cohérents avec les formations disponibles sur place.

Dès la fin des années 1970, les acteurs mènent des actions intégrant la dimension spatiale de l’emploi : c’est le cas notamment avec la réintroduction d’unités de production non polluantes intégrées dans la ville. Les entreprises sont alors de tailles moyennes, s’enchevêtrent dans le tissu urbain existant et ne doivent pas nuire à la zone d’habitation.  Compris à la fois comme une nouvelle approche du secteur productif, mais également comme un nouveau rapport au travail, il s’agit alors de rapprocher l’usine du lieu de vie du travailleur afin d’améliorer sa vie quotidienne. Si nous sommes aujourd’hui dans une forme d’urgence en ce qui concerne la relocalisation de la production, il est indispensable d’anticiper sa dimension spatiale et sociale. Cela implique une articulation entre les besoins économiques, la qualité de vie des travailleurs et l’urbanité souhaitable.

De la même manière, les élus souhaitent implanter des logements dans les quartiers proches des zones d’emploi existantes.

Le droit au centre ne doit pas marginaliser les espaces périphériques

Penser le centre et sa reconquête n’est pas contradictoire avec la gestion des extrémités de la ville, il y a une complémentarité. Le centre est certes affirmé comme un lieu d’exception, de rencontres, d’échanges, de culture et d’animation, mais devant être partagé par tous et accessible à tous.

L’expression « franges périphériques » est à comprendre comme fraction de la population périphérique qui est marginalisée à plusieurs niveaux : spatial, économique et social, et qui a été délaissée par les municipalités précédentes. Dès lors, ce terme nous renvoie aux marges urbaines qui sont dénigrées en raison des sols, des constructions (usines, chemins de fer, faible qualité de l’habitat) ainsi que par la sociologie des habitants. Pour valoriser les périphéries, l’équipe communiste de 1977 opte pour l’urbanisme d’équilibre. Il se concrétise dans la mixité de l’habitat (collectif et individuel, locatif et accession à la propriété) et des équipements afin de réduire la ségrégation sociale sans pour autant accroître l’étendue du tissu urbain, puisque cela passe par une restructuration des franges de la ville.          

L’urbanisme d’équilibre se traduit également par la réflexion sur l’implantation de logements dans les zones d’activités. Bien entendu cela concerne les activités constituant des zones propices à l’habitat. Doivent alors également s’y développer des écoles, des commerces et des services essentiels. Lorsque ni la zone d’activité, ni la zone d’habitat existe, mais que l’implantation d’entreprises ou d’administrations est prévue, il s’agit de ne pas les isoler et de les inclure dans un projet multifonctionnel. Cependant, cela demande des concessions que les élus ne peuvent pas toujours faire : réduire l’espace disponible au développement des entreprises au sein d’un même lieu.

L’urbanisme d’équilibre se dessinant dans les politiques urbaines mancelles rappelle que la ville est, certes, un ensemble d’agencements matériels, mais qu’elle ne peut se réduire ni à cela ni à ses fonctions. En effet, la ville, comme le rappelle Marcel Roncayolo (10), abrite une population possédant des caractères sociaux, ethniques, démographiques et elle forme une ou des collectivités. De plus, le sol est marqué par l’historique du parcellaire qui se comprend alors selon sa morphologie, son type de propriété, son usage, ses contacts, sa valeur sociale ou encore sa valeur foncière.

Bien que les défis contemporains ne soient pas ceux des années 1970 – 1980, replacer l’humain et ses activités dans l’espace est une méthode utile à l’heure d’une nécessaire réindustrialisation. Elle incite à ne pas oublier les dimensions sociale et environnementale des activités économiques et elle nous aide à mieux définir notre contrat social.

Références

(1)Roncayolo M., « Chapitre 11 La morphologie entre la matière et le social » dans Roncayolo M.  Lectures de villes. Formes et temps, 2002, Marseille : Editions Parenthèses, p. 161-179.

(2)Roncayolo M., « Chapitre 11 La morphologie entre la matière et le social » dans Roncayolo M.  Lectures de villes. Formes et temps, 2002, Marseille : Editions Parenthèses, p. 161-179.

(3)Heidegger M., « Bâtir habiter penser » (1954) dans Heidegger M.,  Essais et conférences, 1980 (réédition), Paris : Gallimard, p. 171.

(4)Heidegger M., « Bâtir habiter penser » (1954) dans Heidegger M.,  Essais et conférences, 1980 (réédition), Paris : Gallimard, p. 173 -174.

(5)Ibid, p. 180.

(6)Ibid, p. 187.

(7)Archives municipales, carton VDM 391W11, document du cabinet du maire du 5 mai 1982 à propos des 81 logements sociaux rue des Filles-Dieu.

(8)Moreno C., « Vivre dans nos métropoles : la révolution de la proximité », Constructif, volume 60, n°3, 2021, p. 75-78.

(9)Archives municipales, carton VDM 391W11, Déclaration du Maire sur les transports en commun et la place des deux roues et des piétons dans la circulation en ville, Le Mans, le 27 septembre 1979, Conseil municipal.

(10)Roncayolo M., « Chapitre 1. La ville : durée ou changement ? » dans Roncayolo M., Lectures de villes. Formes et temps, 2002, Marseille : Editions Parenthèses.

Lire aussi...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)

Anicet Le Pors, une vie au service de l’intérêt général (2/3) : propriété et fonction publique

État & transition

Anicet Le Pors, une vie au service de l’intérêt général (2/3) : propriété et fonction publique

Entretien
Suite de notre grand entretien avec Anicet Le Pors, après une première partie consacrée à son parcours politique hors du commun, de la météo au Conseil d’Etat après avoir été ministre, nous entrons dans le vif des thèmes qui lui sont chers. L’occasion de revenir sur les grandes nationalisations de 1981 et le concept de propriété publique. Mais aussi de comprendre en profondeur ce qu’est la fonction publique, de se remémorer son histoire récente pour mieux réfléchir ensemble à son actualité au XXIe siècle.
LTR : Le concept de propriété publique fait partie des concepts que vous évoquez régulièrement en affirmant que le pouvoir se trouve là où se trouve la propriété publique ? Pouvez-vous nous en dire plus ?
Anicet le pors : 

La notion de propriété a une histoire. En droit romain, la propriété se définit par l’usus, l’abusus et le fructus (utiliser un bien, en retirer les fruits, pouvoir en disposer). Cette notion a joué un rôle positif durant la Révolution française en permettant à des citoyens nouveaux d’accéder à la propriété. La notion de droit de propriété est une dimension de la citoyenneté qu’on retrouve en deux endroits de la Déclaration des droits de l’homme et du citoyen (DDHC). A l’article 1 tout d’abord, « Les hommes naissent et demeurent libres et égaux en droits. Les distinctions sociales ne peuvent être fondées que sur l’utilité commune. », et surtout dans l’article 17 qui tisse un lien très clair entre propriété privée et propriété publique : « La propriété étant un droit inviolable et sacré, nul ne peut en être privé, si ce n’est lorsque la nécessité publique, légalement constatée, l’exige évidemment, et sous la condition d’une juste et préalable indemnité. » Ainsi la propriété publique apparaît comme une contrainte de la propriété privée et ce au nom de la nécessité publique. La propriété est donc un facteur d’émancipation mais dès 1789 elle rencontre une limitation : celle de la nécessité publique.

Toute la jurisprudence qui va se développer par la suite, notamment à partir du Conseil d’État, va faire ressurgir périodiquement cette question avec des positions qui vont varier chez les uns et chez les autres. Longtemps la CGT a été opposée aux nationalisations et ce pour deux raisons : d’une part parce que les nationalisations étaient perçues comme des béquilles pour le capital et ensuite parce que ces dernières auraient été une réponse à la loi du marxisme sur la baisse tendancielle du taux de profit qu’il fallait laisser s’écrouler plutôt que secourir.

On retrouve également cette affirmation de la prégnance de la propriété publique au 9e alinéa du préambule de la Constitution de 1946 : « Tout bien, toute entreprise, dont l’exploitation a ou acquiert les caractères d’un service public national ou d’un monopole de fait, doit devenir la propriété de la collectivité. » C’est sur le fondement de cette disposition que les nationalisations d’après-guerre, dont la portée politique a pu être brouillée du fait de la collaboration de certaines entreprises, ont permis de développer un secteur public dont l’influence positive dans le processus de reconstruction de la France et des capacités d’action de l’État est indéniable.

Durant les années 1960-1965, le PCF théorise la notion de capitalisme monopoliste d’État, ce qui signifie que l’on est arrivé à un stade où se constitue un mécanisme qui allie la puissance de l’État et celle des monopoles. Nous avons déduit, en ce qui nous concerne, qu’il fallait accorder une attention particulière à la notion de propriété publique, qu’il fallait enrichir pour ne pas se contenter de considérer le service public comme simple monopole de fait. Il fallait lui redonner une « épaisseur » sociale, plus importante. C’est pour cela que, dans le programme commun, et je pense y avoir contribué pour l’essentiel, nous avons retenu 4 critères :

  • Les monopoles de fait ;
  • Le caractère de service public ;
  • Les entreprises bénéficiant de fonds publics ;
  • Les entreprises dominant des secteurs clés de l’économie.

 Nous avons réussi à convaincre le Parti Socialiste qu’il ne fallait pas se contenter d’une vision mécanique de la domination (comme la théorie du capitalisme monopoliste d’État le laissait sous-entendre) mais qu’il fallait en avoir une vision stratégique. Dans mon ouvrage les béquilles du capital, dans lequel j’entreprends de critiquer justement la vision réductrice de la théorie du capitalisme monopoliste d’État, c’est justement ce que j’essaye de montrer.

Nous avons réussi donc, à nous convaincre d’abord du bienfondé des nationalisations et également d’en convaincre le Parti Socialiste. Les discussions, néanmoins, ont été âpres et longues puisqu’ils avaient une approche des nationalisations essentiellement financière là où notre approche était une approche « réelle » pour ainsi dire. Nous pensions qu’un bien exproprié par la puissance publique n’était pas divisible, et qu’une nationalisation partielle aurait immanquablement créé une situation hybride, puisque l’entreprise aurait ainsi conserve le caractère marchand que son entrée dans la sphère du service public devait justement annihiler.

Cette question financière donne lieu à un Conseil des ministres épique, en 1981 à Rambouillet, et nous pensons à l’époque, nous les quatre ministres communistes du Gouvernement, que la partie est jouée puisque Mitterrand n’avait jamais été un fervent défenseur des nationalisations. A notre grande surprise le projet de loi présenté en conseil des ministres nous donne satisfaction. Mitterrand ouvre la discussion et interviennent alors des poids lourds du Gouvernement : Pierre Dreyfus qui était ministre de l’Industrie, Robert Badinter, Garde des sceaux, Jacques Delors, ministre de l’Économie et des Finances, Michel Rocard ministre du Plan et de l’Aménagement du territoire, qui tous témoignent leurs réserves – et c’est un euphémisme – sur le sujet des nationalisations totales. A la suite de cela, Jean-Pierre Chevènement intervient pour dire que le projet est moins ambitieux qu’imaginé mais qu’il s’y range, que ça lui convient. Nous avions décidé au préalable, côté communiste, que ce serait Fitterman [Charles Fitterman, alors ministre des Transports et numéro 2 du PCF, ndlr] qui interviendrait en notre nom. Il intervient pour dire que le projet lui convient. Mitterrand avait donc trouvé un point d’équilibre et nous sommes sortis satisfaits. Et, si vous voulez, c’est pour cela que j’en veux tant à Jospin qui est celui qui a vraiment privatisé.

LTR : Comment analysez-vous l’échec des nationalisations de 1981 ?
Anicet Le Pors : 

Avant de vous répondre, je voudrais juste revenir sur les faits : la loi du 11 juillet 1982 sur les nationalisations n’a pas résisté au tournant libéral de 1983. Les formations politiques qui avaient fait des nationalisations un enjeu central ont été surprises et ont tenté de comprendre pourquoi il n’y avait pas eu de réaction par la suite. A mon sens, la réponse tient en deux points : d’une part, si la partie centrale de l’opération, la partie juridique, a été bien menée, les finalités ont, en revanche, disparu très rapidement, dès le printemps 1983, ce qui a d’ailleurs provoqué le départ de Chevènement. Lorsque vous justifiez une nationalisation par la volonté de changer de cap, par la volonté de changer la logique de développement et de mettre en œuvre de nouveaux critères de gestion, et que finalement, vous supprimez ces finalités, alors vos nationalisations n’ont plus de sens. D’autre part, il fallait un soutien fort des salariés des entreprises, des travailleurs, et nous ne l’avons pas eu. Nous ne l’avons pas eu parce que la mise en application des lois Auroux, qui redonnaient du pouvoir aux salariés, s’est étalée sur la première partie du septennat et donc les travailleurs n’ont jamais été en mesure de se saisir de ces lois. La loi de démocratisation du secteur public date du 26 juillet 1983, après le tournant libéral ! Et donc une loi qui aurait pu être décisive – encore aurait-il fallu que les salariés eux-mêmes aient une conscience forte des enjeux – pour soutenir les nationalisations est arrivée trop tard, après le tournant de la rigueur.

On aurait pu faire un bilan de l’échec des nationalisations de 1981 mais personne ne l’a fait, c’est resté un sujet tabou, une blessure pour le PCF qui n’a plus voulu courir le risque d’être accusé de soviétisme et d’étatisation.

LTR : Vous parlez des « finalités » qui présidaient aux nationalisations, changer de cap, changer de modèle de développement et de critères de gestion, qui ont disparu après le tournant libéral de 1983, par quoi ont-elles été remplacées ?
Anicet Le Pors : 

Il aurait justement fallu les remplacer par quelque chose ! La notion de finalité était déjà présente dans chacun des plans mis en œuvre sous De Gaulle : plan de calcul, plan sidérurgie qui a permis de redresser une filière entière, plan nucléaire. Il y avait là des amorces de finalité. Mais après 1983, il n’y avait plus de finalités.

Par exemple, des économistes du PCF comme Philippe Herzog avaient bien tenté d’évoquer les finalités, en théorisant notamment la notion de « nouveaux critères de gestion » afin de renverser la logique capitaliste qui place le profit financier comme seule finalité, et de montrer que ces nouveaux critères de gestion permettent justement d’être plus performant que des entreprises appliquant les critères de gestion propres à la logique libérale. Mais c’est arrivé trop tard et n’a jamais pris parmi les travailleurs, c’était trop théorique.

Tout cela reste à inventer aujourd’hui encore, mais c’est devenu plus difficile qu’à l’époque du Programme commun et ce pour une raison très simple : la mondialisation elle-même. Il faudrait aussi une politique ambitieuse d’internationalisation dans le domaine public, c’est-à-dire de coopération entre des secteurs publics étrangers pour promouvoir ce modèle. Cela existe aujourd’hui, par exemple dans le secteur des transports, mais ce devrait faire l’objet d’une véritable politique volontariste. Ce fut aussi une des limites que nous avons rencontrées : nous avions gardé une vision trop hexagonale sans prendre la mesure du poids, déjà à l’époque, de la mondialisation. Je me souviens d’une réunion durant laquelle le PS défendait l’idée que les exportations ne devaient pas représenter plus de 25% du PIB ! Et je défendais justement, contrairement aux idées reçues, l’idée qu’il ne fallait pas mettre de limitations aux exportations… Vous voyez bien qu’il n’y avait pas de réelle prise en compte ni de réflexion sérieuse sur ces enjeux.

LTR : Après la propriété publique, nous voudrions évoquer la question de la fonction publique. Dans votre réflexion sur cette notion essentielle vous opposez le fonctionnaire sujet au fonctionnaire citoyen, quelle est ici la différence ?
Anicet Le Pors : 

Il y a une phrase que j’emprunte à Michel Debré : « le fonctionnaire est un homme du silence, il sert, il travaille et il se tait. » C’est là la définition même du fonctionnaire sujet et lorsqu’on m’a demandé ce que j’entendais faire, comme ministre de la Fonction publique, lorsque je préparais la loi sur la fonction publique, [loi portant droits et obligations des fonctionnaires du 13 juillet 1983, dite « loi Le Pors », ndlr] je disais justement que je voulais faire l’inverse, le fonctionnaire citoyen !

J’ai veillé, dans la préparation du statut des fonctionnaires, à ce qu’il n’y ait pas d’expression comme « pouvoir hiérarchique » ou « devoir d’obéissance » ou « devoir de réserve ». Ces choses-là existent bien entendu, mais j’ai refusé qu’on les écrive car cela aurait servi de point d’appui pour une conception autoritaire.

Le fonctionnaire citoyen c’est au contraire celui qui est responsable ! Il y a quatre piliers, qui se traduisent par les quatre propositions de l’article 28 de la loi, pour définir ce qu’est le fonctionnaire citoyen :

  • « Le fonctionnaire est responsable de l’exécution des tâches qui lui sont confiées ».
  • « Il doit se conformer aux instructions de ses supérieurs hiérarchiques »
  • « Sauf ordre manifestement illégal ou de nature à compromettre gravement un intérêt public ».
  • « Il n’est dégagé d’aucune des responsabilités qui lui incombent par la responsabilité propre de ses subordonnés ».

Donc les fonctionnaires ont toujours une marge de manœuvre pour accomplir leurs missions, ils se conforment mais ils ne doivent pas obéissance aveugle ! Ils peuvent même désobéir mais, en ce cas, ils prennent leur responsabilité si jamais ils désobéissent à mauvais escient. La dernière proposition signifie que le fonctionnaire est responsable de ses actes mais également des actes commis par ceux dont il est le supérieur : le préfet est responsable de son action mais aussi de celle des sous-préfets, l’ambassadeur est responsable des consuls etc.

LTR : Sur la fonction publique il y a trois thèmes qu’on retrouve dans le débat public, fortement influencé par la pensée libérale, et que nous souhaiterions aborder : la place de la contractualisation, la mobilité entre public et privé et la notion de performance. Sur la notion de contractualisation, est-ce qu’il n’y a pas une place pour la contractualisation au sein de l’Etat, comme cela se fait aujourd’hui dans l’armée où la majorité des militaires du rang sont des contractuels et les cadres des fonctionnaires ?
Anicet le pors : 

Vous savez il y a toujours eu dans le statut des dispositions prévoyant l’embauche de contractuels pour les raisons que vous évoquez : il y a des travaux saisonniers, la compensation de l’imprévision administrative qui doit parfois répondre à un besoin qui surgit soudainement.

L’enjeu est justement de ne pas laisser échapper les emplois permanents au sein de l’administration, qui doivent être occupés par des fonctionnaires et cela pour plusieurs raisons : d’abord parce que cela permet d’avoir une meilleure assurance de leur intégrité, ensuite parce que le principe méritocratique de recrutement sur concours permet d’avoir de solides garanties sur leur intégrité, enfin parce que cela permet de mener des politiques de long terme et non uniquement des missions et des projets ponctuels et temporaires.

Finalement la présence de fonctionnaire, qui s’inscrivent dans le temps long, permet de développer une vision plus conforme à ce qu’est la fonction publique et que je définis d’ordinaire par la reconnaissance de trois réalités : 1 : la fonction publique est une réalité collective ce qui rejoint la question de la responsabilité que nous avons évoquée, de la mutualisation et du travail en équipe ; 2 : la fonction publique est une réalité structurée, ce qui signifie que sa nécessité est consacrée par le temps, qu’il y a donc besoin de construire un ordre pour préserver des structures qui s’inscrivent dans une certaine permanence ; 3 : la fonction publique est une réalité de long terme, ce qui justifie en retour l’existence de structures, et la gestion du long terme implique une certaine prévisibilité pour pouvoir gérer et anticiper les besoin futurs pour s’y adapter, c’est à cela que sert aussi l’INSEE et la statistique publique.

Donc vous voyez bien qu’en application de cette triple réalité, collective, structurée et de long terme, il y a une place justifiée pour les contractuels mais une place restreinte au vu des buts poursuivis. C’est d’ailleurs symptomatique de voir la ministre de la Fonction publique, Amélie de Montchalin, justifier le recrutement de contractuels parce qu’il faut remplir des missions ponctuelles, des projets. A mes yeux,  c’est justement le problème, il manque une vision du temps long au-delà des projets. Et puis il y a une question éthique qui se pose : certes nous n’avons pas à les former, mais nous ne connaissons pas leur carnet d’adresse, ce qu’ils ont fait avant et où ils iront après…

LTR : Cela nous amène au deuxième thème : la mobilité publique / privée, je voudrais recueillir votre avis sur le sujet. Au-delà des impératifs déontologiques, de la prévention du conflit d’intérêts, il peut y avoir un intérêt, pour la fonction publique, à permettre la mobilité publique-privée, ne pensez-vous pas ?
Anicet le pors : 

Vous savez, je vais vous répondre en deux mots, en prenant l’exemple de la mobilité, dans son ensemble. Je pense avoir, à ce titre, donné l’exemple en passant 62 ans dans la fonction publique au sens large : j’ai été successivement ingénieur à la météo nationale, économiste au ministère des Finances, j’ai exercé des mandats politiques au niveau national, des fonctions exécutives au Gouvernement puis j’ai été juriste au Conseil d’Etat et Président de chambre à la cour nationale du droit d’asile, donc j’ai fait la démonstration de la mobilité.

J’ai fait écrire dans le statut des fonctionnaires, à l’article 14, que la mobilité était une garantie fondamentale. Si l’on est fonctionnaire et que l’on aspire à la mobilité, commençons donc par le faire là où on se trouve, si on est en administration centrale, on peut vouloir aller dans les services extérieurs. On doit permettre à des fonctionnaires de l’État de faire un passage dans la fonction publique territoriale ou hospitalière ou bien en entreprise ou organisme public par voie de détachement sans limite de durée. Si on réalise déjà la mobilité dans cet ensemble-là, dans la sphère publique, on répond en partie à la demande de mobilité qui peut légitimement s’exprimer.

Quant à la question de la mobilité publique-privée, celle-ci n’est pas exclue, les gens peuvent se faire mettre en disponibilité pour six années et au bout de cette période ils peuvent démissionner s’ils le souhaitent.

Il y a un livre intéressant de Laurent Mauduit, La caste, dans lequel il analyse le phénomène classique du pantouflage(1) au sein de l’Inspection générale des finances (IGF). Il montre que ce qu’il y a de nouveau c’est le phénomène de rétro-pantouflage, c’est-à-dire des inspecteurs des finances qui vont dans le secteur privé, se font un carnet d’adresses, et reviennent ensuite au sein de leur administration publique. Il y a donc un phénomène de captation de l’action publique. Il y a donc là un jeu de va et vient dont on ne pas dire qu’il soit très sain tout de même. Alors on peut réfléchir à élargir la durée de la mobilité au-delà de six années. Vous savez qu’il y avait même eu, à l’époque, un article de Bernard Tricot – ancien conseiller d’État – qui voulait interdire à des fonctionnaires ayant effectué plus de deux mandats parlementaires de réintégrer leur administration centrale !

On peut poser ces questions sur la mobilité publique-privée, mais il faut des garanties sur l’intégrité du fonctionnaire ainsi que sur l’intégrité des entreprises en question.

Références

(1)Le pantouflage est une pratique qui consiste, pour des hauts fonctionnaires dont les études ont été financées par l’État (dans des écoles tel que Polytechnique ou l’ENA), à quitter le secteur public pour rejoindre des entreprises privées, les entreprises privées rachetant à l’État, par une compensation financière, les années de service dues par le fonctionnaire à l’État, c’est ce que l’on appelle racheter « la pantoufle », d’où l’expression.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)

Les nouveaux oracles : comment les algorithmes prédisent le crime ?

État & transition

Les nouveaux oracles : comment les algorithmes prédisent le crime ?

Entretien avec Vincent Berthet et Léo Amsellem
Comment établit-on des modèles prédictifs ? Comment les algorithmes sont-ils utilisés dans les domaines de la justice, de la police et du renseignement ? Quels sont les biais et les risques inhérents à une telle utilisation ? Enfin, quel impact les algorithmes prédictifs ont-ils sur notre système démocratique ? C’est à toutes ces questions que tente de répondre l’excellent ouvrage de Vincent Berthet et Léo Amsellem “Les nouveaux oracles, comment les algorithmes prédisent le crime ?”. Pour Le Temps des Ruptures, ils reviennent sur tous ces enjeux et tracent un nouveau compromis entre utilisation efficace et protection des libertés publiques.
LTR : A la lecture de votre ouvrage, la prégnance du champ lexical de la mythologie saute rapidement aux yeux. Vous parlez effectivement de nouveaux oracles, de différenciation entre mythe et réalité, de devins, etc… Considérez-vous que votre première tâche en tant que chercheurs et auteurs consistent à déconstruire le sensationnalisme qui peut entourer l’intelligence artificielle ?
L.Amsellem :

Absolument. On a joué autour de cet aspect littéraire. La volonté qui nous anime lors de l’écriture de cet ouvrage c’est de déconstruire l’ensemble des mythes qui existent autour des algorithmes. Il s’agissait de démystifier. C’est le rôle d’un chercheur, de celui qui veut s’inscrire dans un cadre de débat sérieux et sain. Et finalement on s’est rendu compte que les nouveaux oracles représentaient en réalité la crainte de ceux qui les rejettent de voir se former des “boules de cristal” prédictives. On a cherché à descendre d’un cran, à dégonfler cette bulle qui entoure l’IA pour regarder la réalité des systèmes qui y sont liés et leurs effets concrets.

LTR : L’axiome principal de la justice prédictive est de considérer que les comportements humains sont essentiellement prévisibles. N’y-a-t-il pas une forme de réductionnisme là-dedans ? Par ailleurs, cela s’oppose fondamentalement à l’idée démocratique selon laquelle les individus sont souverains et responsables de leurs actions.
V.Berthet :

Tout à fait. Les algorithmes prédictifs réveillent un vieux projet qui relève à la fois des sciences sociales et des sciences physiques qui est celui de la prédiction. Dans le livre nous parlons notamment de l’école de sociologie de Chicago et qui est l’exemple même de ce rêve. Leur approche des comportements humains passe par une quantification de ces derniers afin de mieux les prévoir. Les algorithmes prédictifs réactivent cette idée en exploitant la formidable opportunité que constitue le big data et la disponibilité des données massives. Or la question aujourd’hui est de savoir si le big data introduit un changement de degré ou un changement de rupture par rapport à ce projet de prédiction. A l’heure actuelle, étant donné les limites mentionnées plus haut, on peut dire qu’il y a uniquement un changement de degré dans le sens où les imperfections sont encore trop grandes pour parler de véritable rupture. On est très loin d’une prédiction parfaite et heureusement. Cela permet de préserver le libre arbitre du citoyen. Adolphe Quetelet au XIXe siècle avait déjà ce projet de quantifier les comportements humains.

LTR : Cette déconstruction du mythe vous la menez également sur le terrain de la critique technique. L’idée selon laquelle l’ère de l’IA et du big data se manifeste par la toute puissance des algorithmes en matière de prédiction vous semble fausse. Pouvez-vous revenir sur ce point ? Quelles sont les critiques régulièrement admises à ce sujet ?
V.Berthet :

Exactement. Aujourd’hui, on survend les capacités des algorithmes prédictifs. Les études publiées dans la revue Science notamment montrent qu’en réalité des modèles statistiques simples font aussi bien que les modèles prédictifs considérés comme complexes. L’exemple le plus patent de cela c’est une étude publiée en 2018 dans Science advances a décortiqué le fameux logiciel Compas utilisé dans de nombreuses juridictions américaines afin de prédire le risque de récidive de détenus et de non-comparution. En réalité, la société privée qui commercialise ce logiciel met en avant les capacités de ce dernier à analyser 137 facteurs. Mais dans les faits, l’étude de Science montre qu’un simple modèle d’analyse de 2 facteurs atteint le même niveau de précision que Compas. Ces algorithmes n’échappent donc pas à la règle de Pareto : l’essentiel de la performance prédictive relève en réalité de modèles statistiques très simples, notamment de régression, qui existaient bien avant l’avènement de l’IA. Voilà la première limite technique.

La deuxième limite est celle des potentiels biais qui peuvent affecter ces algorithmes. C’est en effet la base de données renseignée qui va alimenter les prédictions. C’est ce que résume la formule “Garbage in garbage out”. Aujourd’hui, quand ces logiciels sont vendus par des sociétés privées, rien ne garantit les conditions éthiques des bases de données qui sont exploitées.

LTR : C’est ce que vous dites également au sujet de Cambridge Analytica. Par ailleurs, aux Etats-Unis, la police utilisait l’IA (notamment le logiciel Predictive Police) afin de prévenir les crimes et délits. L’utilisation de ce logiciel a été interdite en raison des nombreux biais qu’il introduisait. Loin de prévenir les crimes et délits comme il était censé le faire, Predictive Police a participé à discriminer certains quartiers et certaines populations et à les prédisposer à commettre des délits et des crimes, permettant la réalisation d’une “prophétie autoréalisatrice”. Comment peut-on expliquer l’apparition de tels biais et comment les éviter ?
L.Amsellem :

Le logiciel dont il est question est celui qu’on appelle généralement PredPol. On ne peut pas dire que PredPol introduit des biais, en revanche il s’en nourrit à travers la base de données qui l’alimente. Ce qui signifie qu’à l’origine des données enregistrées il y a une action de police qui est biaisée ou bien une façon de récolter les statistiques de la délinquance qui l’est. En construisant un algorithme basé sur ces éléments de données on aboutit à une situation qui est discriminatoire. C’est une critique émise notamment par la chercheuse Cathy O’Neil dans son ouvrage Weapons of math destruction. Elle montre qu’avec la construction d’un algorithme sur des données biaisées, le risque n’est pas seulement de reproduire le biais mais bien de le répliquer à grande échelle. C’est ce qu’on constate aux Etats-Unis, notamment du fait de la ségrégation socio-spatiale qui existe dans ce pays.

PredPol n’a en revanche pas été interdit. Ce sont certaines villes qui ont décidé (notamment Los Angeles) de rompre leur contrat avec la société privée qui le commercialise. La question de savoir comment on évite l’apparition de tels biais est très compliquée. Cela nécessite de mettre en place un filet de sécurité tout au long du développement de l’algorithme : dès l’enregistrement des données. C’est ce que montre Aurélie Jean
(1)
, qui rappelle deux moyens de répondre à cette situation : toujours accompagner l’algorithme d’une expertise humaine (“human in the loop”), promue par Sara Hooker ; mettre en place un système d’autoévaluation tout au long de l’utilisation et du développement, voire dès le codage de l’algorithme, permettant d’identifier le plus tôt possible les biais.

LTR : Vous évoquez également dans votre ouvrage l’idée selon laquelle l’usage d’algorithmes prédictifs au sein de l’appareil judiciaire peut venir remettre en cause le principe d’individualisation de la peine. A l’inverse, il accentue la subsomption de cas particuliers sous une règle générale.
V.Berthet :

C’est effectivement une des questions de fond que pose l’utilisation de statistiques dans le cadre de la justice. Il y a un paradoxe : au début du XXe siècle, l’approche quantitative a été mise en oeuvre afin d’éclairer les décisions de justice et l’un des motifs donnés était justement de mieux connaître le criminel. Les statistiques pouvaient venir éclairer le cas individuel. D’ailleurs c’est ce que font les assurances dans la logique actuarielle. Paradoxalement, une fois qu’on utilise ces statistiques afin d’éclairer un cas d’espèce, on a l’impression que cette pratique contrevient au principe fondamental d’individualisation de la peine. Ce qui est vrai dans une certaine mesure. On a l’écueil possible de faire tomber chaque cas individuel dans la règle statistique. D’un autre côté, cette dernière peut éclairer des cas individuels.

Il y a néanmoins une limite de fond que présenteront toujours les outils statistiques : c’est ce qu’on appelle la critique de la jambe cassée. Dans les années 1960, un chercheur américain qui s’appelle Paul Meehl nous dit que si on utilise une règle mécanique (par exemple : tous les mardis tel individu se rend au cinéma), celle-ci peut se révéler vraie la plupart du temps ; mais si un jour l’individu en question se casse une jambe et ne peut pas aller au cinéma, la règle devient fausse. En d’autres termes, la règle statistique est statique, elle ne peut pas s’adapter au cas d’espèce. L’humain à l’inverse sera moins régulier que la règle statistique mais il peut s’adapter aux particularités lorsqu’elles se produisent. L’enjeu est donc de trouver le bon équilibre: avoir d’un côté la consistance de la règle statistique et de l’autre la capacité d’adaptation de l’être humain. Et donc dans le cas de la justice d’arriver à individualiser le cas que l’on traite.

LTR : Est-ce qu’il n’y a pas néanmoins une limite à la complémentarité entre algorithmes et raisonnements humains ? Les magistrats en France doivent remplir des tableaux statistiques, notamment le juge pénal, permettant d’évaluer leur activité. Quid d’une situation où des magistrats jugeraient dans un sens opposé à celui de l’algorithme et commettraient une erreur ?
V.Berthet :

Je cite cette collègue de droit privé à l’université de Lorraine qui nous dit “de la recommandation algorithmique à la justice algorithmique il n’y a qu’un pas qu’il est difficile de ne pas franchir dès lors que l’autorité de l’algorithme est difficilement contestable” (Florence G’Shell). La précision et la performance de ces algorithmes vont aller de manière croissante au cours de l’histoire et cela pose la question de la place de l’expertise humaine. Dans l’exemple que l’on prend il y a une complémentarité dans la mesure où l’algorithme est utilisé comme un outil d’aide à la décision. Mais la décision in fine est humaine. Si la plus value de l’appréciation humaine n’est plus significative cela veut dire qu’on se dirige vers une justice actuarielle. C’est-à-dire une justice dans laquelle, pour certains litiges, il n’y a plus d’intervention humaine. C’est l’ombre qui plane sur le futur de la justice.

LTR : Dans le cas de la justice civile ce n’est pas tant l’imperium du juge qui est remis en cause que la décision d’aller au contentieux. On voit les premières legaltechs, comme Case law analytics, qui fournissent au justiciable un service lui permettant de déterminer les chances qu’il a, en fonction des caractéristiques de son dossier, d’obtenir gain de cause devant le juge. Le risque est donc celui d’une déjudiciarisation. Cela entraîne également un recours accru à la médiation, or dans ce champ aussi des starts-up fournissent des solutions algorithmiques permettant de déterminer les chances qu’une médiation aboutisse. on met le doigt dans un engrenage dangereux pour l’accès a la justice.
V.Berthet :

Oui cela va dans le sens d’une déjudiciarisation. C’est précisément la consécration du principe “Minority Report”. C’est-à-dire le principe qui consiste à agir le plus en amont possible à partir d’une prédiction. Si je suis justiciable et que je veux intenter une action en justice, je sais, avec un intervalle de confiance précis, quelles sont mes chances d’échouer dans cette tentative. Je suis donc totalement désinciter à aller devant un tribunal.

Néanmoins on est encore au début de cette tendance. Les services proposés par les Legaltechs concernant la justice prédictive ont les mêmes défauts que ceux mentionnés plus haut pour les algorithmes. Ils sont aussi soumis à l’effet de Pareto.

LTR : Le salon Milipol s’est récemment tenu aux Etats-Unis. C’est un salon consacré aux innovations dans le domaine de l’intelligence artificielle. L’idée de ce salon est de pouvoir prévenir les délinquances du quotidien jusqu’aux attentats terroristes. Est-ce qu’il n’y pas finalement une course à l’IA autour du thème de la sécurité ?
L.Amsellem :

Le salon Milipol est un bon exemple de ce qui se fait en termes d’Intelligence Artificielle mais également de marketing autour de l’IA. Ce sont des entreprises privées qui présentent leurs solutions de la façon la plus avantageuse possible. Dans notre ouvrage, nous avons analysé système par système et logiciel par logiciel le niveau d’efficacité. Ce qu’on nous présente à Milipol doit encore faire l’objet de nombreux tests.

Il y a effectivement une demande de sécurité forte et un sentiment d’insécurité prégnant. On voit l’influence du continuum de sécurité : c’est-à-dire de l’imbrication entre les différentes mesures de prévention et de correction des délits et des crimes. Cela pose la question de la proportionnalité des outils que l’on doit utiliser en fonction du spectre où on se situe (petite délinquance ou attaque terroriste).

Il n’y a en revanche pas de toute puissance du renseignement technique dans la mesure où le renseignement humain continue d’être une source d’informations de grande qualité et qui présente une complémentarité. On observe une tendance à l’augmentation des budgets des agences de renseignement qui permet de ne pas démunir les services de leurs compétences traditionnelles.

LTR : Pouvez-vous revenir sur ce que vous appelez le compromis efficacité-liberté et la façon dont vous voulez en sortir ?
V.Berthet :

Le compromis efficacité-liberté c’est l’enjeu essentiel quand on essaye de mettre en perspective la question technologique dans le champ des libertés. Cet équilibre, c’est ce qu’on essaye d’expliquer dans le livre, il est difficile à trouver pour l’exécutif et le législateur, car ce n’est pas une question technique mais éminemment politique, un choix de société. L’épisode Covid a montré à quel point ces choix sont politiques : les pays du monde entier ont fait des choix différents, ceux de la France sont d’ailleurs révélateurs de son histoire. En matière de sécurité, il y a deux erreurs qu’on souhaite minimiser, que ce soit dans le cadre de la sécurité intérieure ou les attentats :

  • les faux positifs : quand on pense qu’une personne va commettre un acte criminel alors qu’elle ne l’aurait pas fait ;
  • les faux négatifs : une personne qui a priori ne passerait pas à l’acte mais qui le fait.

Ces deux erreurs ont des conséquences différentes. Des faux positifs, c’est un danger pour les libertés individuelles, les faux négatifs, c’est un danger pour la sécurité publique. La question c’est où on met le curseur, quelles erreurs on souhaite minimiser. Voltaire disait “mieux vaut se hasarder à libérer un coupable que condamner un innocent”. La technologie peut potentiellement nous permettre d’échapper à ce compromis et à cette idée que si on améliore l’efficacité c’est au détriment des libertés. L’exemple qu’on donne, même si il n’est pas parfait, est celui de la 1ère version de stop covid (devenue tous anti-covid). Le projet était d’avoir ce système bluetooth permettant de détecter les chaînes de contamination pour enrayer la vague épidémique. Cet outil respectait les législations RGPD et il pouvait apporter toutes les garanties en termes de respect des données individuelles. L’efficacité de stop covid a été limitée par le faible nombre de Français qui l’ont téléchargé et mis en œuvre. Si les citoyens français avaient fortement utilisé cet outil, il n’aurait pas présenté de risques pour les libertés et aurait contribué à enrayer l’épidémie. C’est le message de Peter Thiel, bien que figure controversée aux Etats-Unis : il est possible de concilier avec la technologie respect des libertés et efficacité. Pour converger vers des solutions qui satisfont ces deux conditions il faut expérimenter.

L.Amsellem :

La distinction qu’il importe de mettre en œuvre c’est de considérer que ce ne sont ni les algorithmes ni les nouvelles technologies qui permettront de sortir du compromis de  l’efficacité, mais ce qu’Aurélie Jean appelle la “pratique algorithmique”. Il ne faut pas penser que la technologie va nous sauver, mais sélectionner les bons algorithmes, au service d’un objectif fixé de manière commune avec un accord politique fort, assorti de l’encadrement juridique nécessaire et des contrôles a posteriori nécessaires. D’où l’importance d’associer la population civile pour trouver cet équilibre : ce n’est pas un sujet de chercheurs ni de technocrates, cela ne se décide pas dans un cabinet ministériel, c’est un contrat social 2.0 pour atteindre les buts politiquement visés, pour le faire de la manière la plus sécurisée possible et limiter les risques.

LTR :
Au-delà du compromis liberté-sécurité, cela pose la question de notre capacité, en tant que Français et Européens, à développer des outils souverains. Nous sommes dans cette espèce de course qui a une tendance à s‘accélérer, deux blocs, avec d’un côté les Etats-Unis et la Chine qui connaissent des avancées technologiques gigantesques et de l’autre le continent européen qui a du mal à se faire entendre sur ces enjeux, tant sur l’arbitrage entre libertés et sécurité que sur les libertés publiques. Une IA souveraine est-elle encore possible ou doit-on la considérer comme chimérique ?
L.Amsellem :

Des blocs se constituent et effectivement l’Europe pèse peu géopolitiquement sur ces sujets. C’est un problème, qui fait qu’on ne protège pas nos libertés. On s’interdit l’utilisation de certaines technologies, ce qui mène à ne pas développer d’outils souverains et une fois que l’urgence apparaît on finit par utiliser les outils des autres, qui sont déjà efficaces. Comme lors des attentats de 2015 et l’utilisation de Palantir pour l’analyse des métadonnées du renseignement intérieur ; ce qui est regrettable quand on sait que cela a été financé par le fonds capital risque de la CIA. A noter que l’Union européenne ou la France d’ailleurs ont une capacité, on a un gigantesque marché, des capacités importantes en termes de formation et capital humain, il n’y a pas de raison pour lesquelles on échouerait pourvu qu’on s’y mette tôt et qu’on ne bride pas l’innovation. Alors comment faire ?

Il y a la question du financement. En France un fonds, Definvest, a été créé en 2017 réunissant la BPI et le Ministère des Armées, similaire à ce que font les Américains, pour investir très tôt dans les pépites de la tech, tout en étant conscient que cela serait plus efficace de le faire au niveau européen, mais quand c’est un sujet souverain, cela reste encore difficile de le traiter à cette échelle. La France pourra peut-être profiter de la présidence de l’Union européenne pour mettre ces sujets sur la table. L’UE doit assumer son ambition d’Europe puissance. Elle a aussi un avantage comparatif fort sur le soft power normatif, sur la régulation : c‘est ce qu’on a vu avec le RGPD. On pensait que cela allait contraindre les entreprises européennes, mais c’est faux. Cela a permis d’encadrer les données, les libertés des citoyens, cela n’a pas bridé l’innovation ni bloqué les entreprises européennes. Cela a même été répliqué en Californie avec le CCPA. Dans ce cadre-là, que peut faire l’Union Européenne pour réguler sans obérer l’innovation ? La Commission européenne a identifié les algorithmes présentant un risque inacceptable, comme l’utilisation de la reconnaissance faciale à des fins de notation sociale. Pour le reste des algorithmes dans le domaine de la sécurité elle estime qu’il existe un risque élevé, dont l’utilisation doit être soumise à des conditions restrictives, afin de trouver un équilibre, comme la présence de systèmes d’évaluation et d’atténuation des risques, la qualité des bases de données utilisées, la traçabilité des résultats, l’information des gens que cela vise, un contrôle humain approprié pour réduire les risques. La Commission souhaite encadrer, contrôler, réguler mais pas brider l’innovation.

Pour un compromis efficacité-liberté il faut connaître l’efficacité. Pour cela il faut expérimenter et encadrer en proportionnant cela aux fins poursuivies afin de ne pas nous trouver vassalisés par des puissances étrangères plus avancées.

LTR : Finalement, l’Artificial Intelligence Act du 21 avril 2021 proposé par la Commission, rejoint beaucoup de points évoqués dans le livre.
L.Amsellem :

Absolument, on trouve qu’il y a une continuité entre la position que l’on développe dans le livre qui appelle à une vision pragmatique sur ces sujets-là, rigoureuse pour autant et celle de la Commission. Cela rejoint aussi un rapport remis en septembre par le député Jean-Michel Mis qui présente aussi cette vision du compromis efficacité-liberté qui est pragmatique tout en sachant que lorsqu’on souhaite légaliser un système il faut toujours créer des contrôles nouveaux, plus sérieux, ambitieux. On retrouve un équilibre déjà ébauché par la loi antiterroriste du 24 juillet 2015 qui encadre les pratiques d’analyse des métadonnées par les services de renseignement. Le fait d’encadrer des pratiques déjà existantes, cela évite de laisser un vide juridique. On crée également un organe permettant de contrôler les techniques de renseignement, la CNCTR donc on arrive à préserver le secret défense, contrôler l’action des services de renseignement et les encadrer par le droit.

LTR : L’exemple de 2015, démontre la logique d’encadrement-régulation : on légalise une situation de fait et on met en place un organe de contrôle s’assurant que le bornage mis en œuvre est respecté. Lorsqu’on arrive dans cette situation, cela pose la question de l’impossibilité de revenir en arrière.
L. Amsellem :

Il est vrai qu’il existe des effets de cliquet, quand on les met en œuvre on a du mal à revenir dessus, quand on abandonne une liberté c’est rare de la retrouver, à quelques exceptions près qui sont celles des systèmes peu efficaces. Par exemple pour PredPol, ce logiciel, bien qu’il continue à être utilisé et rentable pour certaines villes américaines, a été tué par deux facteurs à Los Angeles. D’abord, le facteur des biais raciaux que la recherche a largement couvert et qui a subi une pression politique suffisante pour l’interdire. Le deuxième facteur est un audit de mars 2019 de l’inspecteur général du LAPD qui n’arrive pas à conclure à l’efficacité du logiciel. A partir de ce moment-là, le concept efficacité-liberté est compromis : c’est une décision pragmatique prise par la ville de Los Angeles d’arrêter d’utiliser ce logiciel. On a eu aussi ce retour en arrière dans l’Oise ou la police utilisait aussi PredPol qui a été remplacé par Paved un simple logiciel de gestion, de cartes de chaleur, de représentation du crime plutôt qu’un logiciel d’intelligence artificielle prédictive. Il y a donc eu quelques retours en arrière.

Pour le renseignement, les effets de cliquet sont toutefois encore importants, car il est difficile d’évaluer l’efficacité de ces systèmes. D’où l’utilité d’avoir des inspections qui sont très fortes, soit la CNCTR (Commission nationale de contrôle des techniques de renseignement) soit en France l’ISR (Inspection des services de renseignement) qui sert à cela également. Mais il n’y a pas suffisamment de contrôles parlementaires. Il existe la Délégation parlementaire au renseignement (DPR). Mais elle est limitée. Par rapport aux Etats-Unis, il y a certains pouvoirs qu’elle ne possède pas. Par exemple, elle n’a pas accès aux rapports des inspections. La DPR peut auditionner des responsables des services de renseignement mais uniquement des responsables. Mais entre ce que déclarent le directeur des services informatiques, le directeur d’une administration centrale, le directeur du renseignement, et ce que déclare l’agent dans la réalité de son quotidien il peut y avoir des différences. Le Senate Select Committee on Intelligence au Sénat américain possède ce pouvoir d’enquête et d’audition qui est total. C’est un contrôle parlementaire fort. En comparaison, la DPR demeure modeste. C’est aussi lié à sa naissance, elle a une dizaine d’années, aux Etats-Unis elle existe depuis le Watergate.

LTR : Cela pose la question du rapport entre technique et droit, dans quelle mesure le recours à des algorithmes dans des domaines régaliens est acceptable car ce sont des objets difficilement régulés par le droit. Quand il faut mettre le doigt dans le fonctionnement d’un algorithme, beaucoup de juristes en sont incapables car ce n’est pas leur domaine de spécialité. Comment réguler l’usage d’ un algorithme quand celui qui régule n’est pas celui qui produit ?
L.Amsellem :

On touche ici à l’essence même des algorithmes. Effectivement, le juriste n’a pas de prise sur le fonctionnement concret des algorithmes, ni sur leur évaluation. Il faut différencier techniquement les algorithmes explicites et implicites. Quand l’algorithme est explicite, il suffit de regarder l’arbre de décision, demander à l’ingénieur, c’est assez simple à réguler. Mais les algorithmes fonctionnent de plus en plus avec du deep learning ou du machine learning. C’est plus complexe car on ne sait pas quel raisonnement l’algorithme a utilisé, à partir de la base de données, pour arriver à une solution. Comment encadrer par le droit un raisonnement qui est une boîte noire ? Comment rectifier ce défaut essentiel des algorithmes ? Il existe des façons de le faire, imparfaites et encore à l’étude.

Une réponse est de respecter le principe de proportionnalité dans l’usage des algorithmes. A quelles fins on utilise un algorithme et jusqu’où on le raffine, on ajoute des données ? Ajouter des données rend l’algorithme moins lisible, c’est difficile de faire de la rétro-ingénierie, d’analyser quels ont pu être les raisonnements présidant à la décision. Google a montré lors d’une étude en 2016, qu’en doublant les données d’une base déjà importante, sur un algorithme fonctionnant correctement, cela n’améliore que de 3% l’efficacité. On ajoute donc une grande quantité de données, on complexifie l’algorithme, pour un gain d’efficacité marginal.

L’un des moyens à notre disposition pour encadrer l’algorithme est l’ »explainability by design”, qui revient à ne mettre en place des algorithmes que lorsque on a conçu des moyens de les évaluer pendant leur conception. En d’autres termes, l’algorithme fonctionne en suivant des raisonnements jusqu’à atteindre un point nodal où il doit envoyer un rapport sur la manière dont il est arrivé à une décision intermédiaire. La Commission européenne, par exemple, y est très attentive. Par ailleurs, nous encourageons le dialogue entre les juristes, les décideurs publics, et les scientifiques qui effectuent des recherches en IA ou conçoivent les algorithmes.

nos autres entretiens...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)

De Friedrich Hayek aux cryptomonnaies : faut-il interdire le bitcoin ?

État & transition

De Friedrich Hayek aux cryptomonnaies : faut-il interdire le bitcoin ?

« Hausse spectaculaire », « bulle spéculative », « crack dramatique » : depuis quelques années c’est au rythme des fluctuations extrêmes du cours du bitcoin que le grand public a progressivement appris l’existence des cryptomonnaies. Les citoyens, les institutions financières et les Etats sont décontenancés face à l’irruption de ces cryptoactifs fondés sur des technologies cryptographique – la blockchain. Quel projet servent ces cryptomonnaies, quelle est leur genèse ? Et surtout, comment les appréhender politiquement alors qu’elles prétendent concurrencer la souveraineté monétaire des Etats ?
1. DE HAYEK À NAKAMOTO : HISTOIRE D’UNE IDÉE, LA DÉNATIONALISATION DE LA MONNAIE
1947, début de la guerre froide. Le rideau de fer est tombé sur le vieux continent en ruines, les États-Unis sont la seule démocratie qui tienne bien debout face au spectre du Stalinisme dont les agents et relais d’opinion menacent la stabilité d’une Europe plus fragile que jamais. Des intellectuels, économistes pour la plupart – mais pas uniquement puisqu’on retrouve également l’épistémologue Karl Popper – se réunissent alors en Suisse pour défendre un tout autre projet de société, fondé sur une vision économiciste et libérale des relations humaines : la société du Mont-Pèlerin est alors née ! Cousine lointaine du colloque Walter-Lippmann de 1938, parfois considéré comme le point zéro du néolibéralisme, la société du Mont-Pèlerin est ce lieu singulier où se réunissent depuis près de 75 ans de nombreuses figures intellectuelles, dont deux particulièrement nous intéressent ici : Friedrich Hayek et Milton Friedmann. Le premier est le fondateur de ce que l’on nommera plus tard « l’école Autrichienne », le second de « l’école de Chicago ». Deux écoles économiques qui partagent, pour le dire à gros trait, une même finalité : l’avènement de la société ouverte(1), et un axiome commun : l’Etat est la principale menace pour la liberté des individus et la liberté des échanges, la seconde étant une condition nécessaire à l’avènement de la première. Soixante trois années plus tard, nous sommes en 2008, la crise immobilière des subprimes s’est muée en crise financière mondiale et une crise économique subséquente menace désormais la stabilité des États, confrontés à des difficultés pour refinancer leur dette publique. La défiance des citoyens à l’égard de l’industrie bancaire atteint son paroxysme et, par voie de conséquence, la confiance en l’Etat, jugé coupable d’avoir laissé faire des banquiers avides, se délite. Cette même année, un certain Satoshi Nakamoto publie le « livre blanc du bitcoin(2) » dans lequel il propose la mise en œuvre d’un protocole informatique permettant de garantir la sécurité de transactions en ligne entièrement désintermédiées. Le point fondamental est bien la notion de désintermédiation, puisque la garantie apportée par ce protocole permet de se passer de l’intervention d’un tiers de confiance qui valide d’ordinaire une transaction dont les caractéristiques principales sont : 1) de se faire dans une monnaie garantie par une banque centrale, 2) entre deux comptes sécurisés, identifiés et domiciliés par des institutions bancaires soumises à une réglementation stricte et contrôlée par un régulateur.
Comme Satoshi Nakamoto l’écrit dans sa conclusion « nous avons proposé un système de transactions électroniques se passant de confiance ».
Comme Satoshi Nakamoto l’écrit dans sa conclusion « nous avons proposé un système de transactions électroniques se passant de confiance ». Tout est là : la notion de confiance fait le lien entre la fondation de la société du Mont-Pèlerin en 1947 et la publication du « livre blanc du bitcoin » en 2008. Pourquoi donc ? Quels sont les liens entre néolibéralisme, confiance et cryptomonnaies ? Un peu d’histoire d’abord. En 1976, Friedrich Hayek publie un ouvrage passé relativement inaperçu à l’époque tant sa thèse paraît radicale – y compris aux yeux de certains économistes libéraux tel Milton Friedman – intitulé The Denationalization of money (Pour une vraie concurrence des monnaies, PUF, 2015). La thèse est sans équivoque : le monopole des États sur la production monétaire est source d’instabilité puisque la monnaie est utilisée à des fins politiques, forçant les banques centrales à procéder à des correctifs sans fins qui nuisent à l’équilibre du système monétaire (inflation) et par conséquent au bon fonctionnement du marché. Reprenant l’axiome fondamental des néolibéraux acceptant la naturalité du marché et l’importance de ne pas laisser la contingence politique perturber son bon fonctionnement, il défend un monde sans banque centrale où les monnaies seraient mises en circulation par des opérateurs privés, telles les banques. Pour la défense d’Hayek, le livre sort en 1976, alors que les économies occidentales sont touchées par une hyperinflation qu’elles ne parviennent pas à réguler suite à l’abandon progressif de la convertibilité en or du dollar sous Nixon entre 1971 et 1976(3). La suite de l’histoire donne d’ailleurs partiellement raison à Hayek, la mise en application des thèses monétaristes par Paul Volcker à la tête de la FED ayant permis de réguler l’inflation, au prix d’une généralisation des politiques monétaires restrictives. Nous entrons alors dans l’ère du fameux « consensus de Washington », véritable coup d’envoi de l’hégémonie néolibérale : la monnaie n’est désormais plus qu’une marchandise dont la production doit être contrôlée par des banquiers centraux indépendants, dont la fonction est d’assurer la stabilité du système financier en assurant la stabilité monétaire, c’est-à-dire en contrôlant l’inflation et donc l’émission de monnaie. Ce consensus de Washington va se fissurer et progressivement se briser à partir de la crise financière de 2008 qui révèle les insuffisances de la théorie monétariste tant pour prévenir la survenance de bulles spéculatives que pour relancer une économie mondiale exsangue. En réalité, la solution pour lutter contre l’hyperinflation proposée par Hayek est plus radicale encore que celle de Friedman et des monétaristes. Il s’éloigne de la théorie quantitative de la monnaie pour défendre sa privatisation pure et simple. D’après Hayek, l’action des banquiers centraux est encore de trop et il faudrait renoncer à l’idée même de monopole monétaire, c’est-à-dire d’une entité centrale seule autorisée à réguler la quantité émise de monnaie. Il démonte dans son ouvrage le supposé mythe de la souveraineté monétaire des États, arguant que celle-ci trouverait son origine dans l’entre-deux guerres et la vision keynésienne de l’économie prévalant à partir des années 1930. Il défend au contraire une concurrence entre monnaies privées afin de réguler l’inflation, considérant que l’alignement des intérêts des particuliers les conduirait à privilégier la stabilité monétaire sur le long terme. Appliquant des thèses bien connues sur les bénéfices collectifs de la libre-concurrence à la théorie monétaire, il propose une solution concurrente de celle des monétaristes pour lutter contre l’inflation. Pourquoi donc sa thèse est-elle restée lettre-morte depuis lors ? Pour une raison simple mais insoluble : sa théorie n’était pas en mesure de garantir le socle de confiance minimale des individus dans une ou plusieurs monnaies privées. Or, une fois abandonné l’étalon-or (ou tout autre étalon de valeur universellement admis) qu’est-ce qui confère à la monnaie sa valeur si ce n’est la confiance que lui accordent ceux qui l’utilisent ?
2. CRYPTOMONNAIES ET BLOCKCHAIN : LA TECHNIQUE POUR « FORCER » LA CONFIANCE
Dans un système de changes flottants, on pourrait arguer que la valeur d’une monnaie n’est rien d’autre que la mesure du degré de confiance d’une société. Degré de confiance, certes, mais confiance en qui ? C’est là tout le problème de la théorie d’Hayek : elle manque d’un point zéro, d’un deus ex machina qui permette de fonder la monnaie.
L’Etat est bien toujours le point zéro de la création monétaire parce que son immortalité théorique est à la source de la confiance qui règne entre les individus »
Or ce point zéro, ce big bang de la monnaie, est historiquement l’Etat. C’est lui qui, même lorsqu’il ne bat pas monnaie, garantit la valeur de la monnaie pour ceux qui l’utilisent. L’Etat est bien toujours le point zéro de la création monétaire parce que son immortalité théorique est à la source de la confiance qui règne entre les individus mortels d’une société qui ne l’est pas. Dit autrement, la confiance ne peut s’auto-instituer, s’auto-fonder au niveau d’une société par simple accord tacite entre chacun de ses membres. C’est ici la loi des grands nombres qui joue : on ne place sa confiance qu’en ceux que l’on connaît et on ne connait jamais qu’un nombre restreint de personnes. Or l’Etat est cette figure tutélaire que chacun connait et reconnait et en qui chacun place sa confiance – ou bien aliène sa souveraineté pour le dire dans des termes dramatiques. En retour l’Etat catalyse la confiance pour irriguer la société : c’est la fonction même et l’essence du droit auquel chacun accepte de se soumettre ou bien de transgresser à peine de sanctions. L’Etat est ainsi l’institution même de la confiance et cette caractéristique est bien à l’origine du monopole étatique sur la monnaie, qui chagrine tant notre ami Friedrich… Si l’on reprend maintenant notre rapide citation de Nakamoto en début d’article, on se souvient que celui-ci parle d’un mécanisme permettant de générer de la confiance sans l’intervention d’un tiers. Est-ce à dire qu’avec le bitcoin, Friedrich Hayek tiendrait sa revanche ? Peut-être bien… Depuis Aristote on reconnait d’ordinaire trois fonctions à la monnaie : 1) être une unité de mesure de la valeur (d’un bien, d’un service) ; 2) être un médium d’échange ; 3) être une réserve de valeur. En un sens, ces trois fonctions sont liées les unes aux autres : on ne peut échanger un bien dans une monnaie que si ce bien est lui-même évaluable dans la monnaie en question. Quant à la troisième fonction, elle dérive des deux premières. Or qu’est-ce que le Bitcoin ? Dans un rapport de 2012(4), la Banque centrale européenne s’intéresse pour la première fois au bitcoin et aux monnaies numériques. Pourtant, alors qu’il existe déjà un règlement européen sur les monnaies électroniques(5), le Bitcoin échappe à cette nomenclature, raison pour laquelle la BCE préfère l’appellation générique virtual currency schemes, ou schémas de monnaie virtuelle. La singularité de ces monnaies virtuelles, à l’image du bitcoin et des autres grandes cryptomonnaies (ethereum, cardano, tezos, litecoin, etc…), est d’être des monnaies pour lesquelles aucune autorité centrale ne valide les transactions. Elles résolvent ainsi une première difficulté technique qu’est la sécurisation des échanges en l’absence d’un tiers de confiance pour valider l’échange, c’est-à-dire en l’absence d’une institutions financière offrant des garanties légales fortes (réglementation spécifique, contrainte du régulateur, etc…).
Les cryptomonnaies promeuvent un modèle horizontal qui défie la loi des grands nombres, c’est-à-dire qui passe outre notre inclination naturelle à ne pas faire confiance à ceux que nous ne connaissons pas. »
Ce point peut paraître anecdotique mais nous allons y revenir car il est essentiel. Elles résolvent ensuite la difficulté essentielle que nous avons évoqué : l’absence d’un catalyseur de confiance exogène, l’Etat ou la banque centrale, qui institue la monnaie comme instrument de confiance. Les cryptomonnaies promeuvent un modèle horizontal qui défie la loi des grands nombres, c’est-à-dire qui passe outre notre inclination naturelle à ne pas faire confiance à ceux que nous ne connaissons pas. C’est bien le point essentiel : comment faire pour qu’une somme indéfinie d’individus inconnus les uns des autres se mettent d’accord pour reconnaître à un actif immatériel (un jeton virtuel) une valeur d’échange ? Comment s’assurer, à rebours, une fois la valeur de la cryptomonnaie fixée, qu’aucun trouble-fête ne tentera de subvertir la valeur de la monnaie virtuelle en rompant la confiance(6) ? C’est là que le processus de validation de la transaction devient essentiel : le mode de validation cryptographique, appelé proof of work(7) preuve de travail, permet d’assurer la sécurisation des blocks de pair à pair. Toute la révolution des cryptomonnaies réside dans l’apport des technologies blockchain qui permettent de sécuriser les transactions entre individus sans l’intervention d’une institution tierce(8). Ainsi la blockchain remplit-elle la première fonction de la monnaie : l’échange. Et comme chacune des trois fonctions de la monnaie est liée à l’autre, le bitcoin parvient à s’auto-instituer comme monnaie. Ce sont les garanties de sécurité offertes par le procédé technique permettant la transaction qui institue la confiance. L’aspect déroutant des cryptomonnaies réside dans le fait que le phénomène de création monétaire se produit à l’occasion de la transaction. C’est donc la faculté de réaliser des transactions qui fonde la valeur de la cryptomonnaie. On comprend donc aisément qu’il ne manquait à la théorie d’Hayek qu’une quarantaine d’années de progrès technique pour passer d’hypothèse fantaisiste à réalité (in)tangible. La technique permet donc de « forcer » la confiance en alignant les intérêts de l’ensemble des participants au processus de création monétaire, les fameux mineurs.
3. AUTORISER, INTERDIRE, ENCADRER ? L’ÉPINEUX SUJET DE LA RÉGULATION DES CRYPTOMONNAIES
Les contempteurs de ces monnaies donnent d’ordinaire les arguments suivants : 1) les cryptomonnaies sont des machines à spéculation ; 2) elles n’ont aucune valeur inhérente puisque leur valeur est exprimée en dollars, ce qui implique donc qu’elles soient convertibles, ce qui revient non seulement à adosser leur valeur à une monnaie émise par une banque centrale mais surtout les rend dépendantes du bon vouloir de ces mêmes banques centrales d’accepter leur convertibilité dans la monnaie nationale. Soit. Ces deux arguments sont tout à fait justes, et il faudrait encore ajouter que certaines cryptomonnaies servent de réserves de valeur pour trafiquants en tout genre du fait de l’anonymat garanti lors des transactions. Pourtant, s’arrêter à ces considérations, qui sont, disons-le encore, toutes justes, revient à passer à côté du point fondamental : les cryptomonnaies sont des formes chimiquement pures de libéralisme appliqué. Entendons-nous bien, que reproche-t-on d’ordinaire aux libéraux et plus spécifiquement aux néolibéraux ? Leur candeur, qui confine au cynisme, lorsqu’ils énoncent comme axiome initial que l’intérêt général est réductible à la somme des intérêts particuliers dans une société donnée. Posant ainsi arbitrairement la naturalité du marché, ils professent une vision théorique du réel dans laquelle tous les individus seraient, par principe, des égaux. Cette vision, ce sont les faits qui la contredisent puisque les acteurs privés agissent dans leur intérêt propre : les intérêts particuliers identiques finissent donc par se regrouper, deviennent des intérêts corporatistes et le marché se structure selon des rapports de force foncièrement inégaux : producteurs / consommateurs, employeurs / employés, grandes entreprises / petites entreprises. Entre acteurs économiques d’un même secteur, la concurrence est asymétrique : le plus gros l’emporte sur le plus petit car il accède plus aisément aux financements dont il a besoin, sa marge de négociation avec ses salariés est plus importante, son outil de production est plus performant tout comme sa capacité à financer son innovation. De même l’influence que leur confère leur poids économique permet aux plus grands acteurs d’orienter le processus d’élaboration normative et de fausser les règles du jeu à leur profit. C’est parce que le marché tend structurellement vers ce type de déséquilibres que la puissance publique intervient par le droit pour corriger les rapports de force, préserver les plus faibles, et ce afin de maintenir in fine la paix sociale. Il y a donc un décalage entre la théorie néolibérale de la naturalité du marché et la pratique du capitalisme qui tend en permanence à désaxer intérêts privés et intérêt général, ce qui justifie en retour que l’Etat joue un rôle économique et social fort, même dans un système de libre-marché.
C’est parce que le procédé technique permet de garantir à la fois la décentralisation de la création monétaire et la confiance entre les individus qu’il est possible de se passer d’un tiers de confiance dont le rôle pourrait être dévoyé. »
Mais qu’en est-il des cryptomonnaies qui visent justement à construire un système horizontal, parfaitement décentralisé, dans lequel ce sont les individus seuls, donc des intérêts privés étrangers les uns aux autres, qui pilotent de façon désintermédiée les transactions et la création monétaire ? En l’absence d’institutions privées telles que les banques et autres institutions du système financier, c’est le processus de validation des transactions qui assure l’alignement des intérêts de l’ensemble des acteurs participants à la création monétaire. C’est parce que le procédé technique permet de garantir à la fois la décentralisation de la création monétaire et la confiance entre les individus qu’il est possible de se passer d’un tiers de confiance dont le rôle pourrait être dévoyé. Est-ce à dire que ces monnaies virtuelles représentent une menace pour la souveraineté monétaire des États, tel qu’Hayek l’aurait appelé de ses vœux ? De prime abord la question semble rhétorique tant le monopole étatique sur la monnaie ne nous semble pas souffrir la moindre exception. Mais la question mérite d’être posée différemment : est-il possible de concevoir un système mixte dans lequel monnaies virtuelles et monnaies émises par des banques centrales coexisteraient ? Aujourd’hui lorsqu’un pays accepte qu’un consommateur règle un achat en bitcoin – à l’image du Salvador(9) qui a récemment adopté le bitcoin comme co-monnaie officielle – ce dernier ne fait qu’utiliser un substitut à sa monnaie nationale qui reste l’unité dans laquelle est exprimée la valeur du bien. De même la valeur d’une cryptomonnaie est exprimée le plus souvent en dollar, son existence même est donc suspendue à sa convertibilité en dollars et donc au bon vouloir de la FED. En revanche, les fluctuations du cours d’une cryptomonnaie – en dehors des évènements cataclysmiques tels qu’un krach boursier – sont essentiellement liées aux innovations technologiques apportées à celle-ci pour garantir sa performance et sa sécurité. Ce n’est d’ailleurs pas un hasard si la principale menace pesant aujourd’hui sur le développement de l’écosystème des cryptomonnaies réside dans l’incertitude quant à l’attitude future des régulateurs financiers et monétaires. Les récents coups de semonces de la Chine ont été à l’origine, plus encore que les déclarations fantasques d’Elon Musk, d’un crack « cryptomonétaire » au second trimestre 2021 qui a mis fin à plusieurs mois de spéculation haussière(10).
Entre le rêve d’Hayek de privatiser la monnaie et l’interdiction pure et simple des cryptomonnaies, il existe donc peut-être une voie possible de coexistence qui permette de préserver l’avenir d’une expérience monétaire inédite et prometteuse ainsi que le potentiel économique et technologique lié au développement des blockchains. »
Entre le rêve d’Hayek de privatiser la monnaie et l’interdiction pure et simple des cryptomonnaies, il existe donc peut-être une voie possible de coexistence qui permette de préserver l’avenir d’une expérience monétaire inédite et prometteuse ainsi que le potentiel économique et technologique lié au développement des blockchains. Pour l’heure, les États et les banquiers centraux – hormis la Chine qui mène une guerre aux cryptomonnaies au bénéfice de son propre projet de cryptomonnaie émise par sa banque centrale, le e-yuan(11) – se sont accordé pour laisser un tel écosystème se développer tout en définissant les concepts essentiels de cette technologie, posant ainsi les bases juridiques(12) d’une éventuelle régulation à venir. Reste à savoir si celle-ci servira, à terme, une fin préventive ou palliative. RÉFÉRENCES (1) Sur ce thème, voire les deux remarquables ouvrages de Karl Popper, La société ouverte et ses ennemis, dont le premier tome est une critique de l’idéalisme platonicien de La République et le second une critique de la dialectique à l’œuvre chez Hegel et Marx. (2) Livre blanc du bitcoin, traduit en Français. (3) En 1971, Nixon suspend la convertibilité du dollar en or alors que la monnaie américaine est attaquée sur les marchés. Cela lui permet de mettre fin à une situation intenable où les Etats-Unis ne disposent plus des réserves en or suffisantes pour garantir les dollars émis à la faveur de l’expansion économique Américaine et détenus notamment dans d’importantes quantités par des banques centrales étrangères (dont la France, la RFA, le Japon,…) qui pourraient exiger leur conversion en or. En 1973, le régime de change flottants, c’est-à-dire où la valeur de chaque monnaie fluctue librement par rapport aux autres monnaies – en réalité par rapport au dollar –, est adopté par la plupart des pays. En 1976, les accords de la Jamaïque mettent officiellement fin au rôle de l’or dans le système monétaire international. (4)Virtual currency schemes, octobre 2012, BCE (5) Directive 2009/110/CE concernant l’accès à l’activité des établissements de monnaie électronique et son exercice ainsi que la surveillance prudentielle de ces établissements. (6) Le problème de la double-dépense correspond, dans le monde numérique au problème du faux-monnayage. La double-dépense consiste à utiliser plusieurs fois la signature électronique d’un unique coin pour effectuer plusieurs transactions. Cette difficulté provient directement de l’absence d’une entité extérieure chargée de sécuriser la transaction et est renforcée par l’anonymat garanti lors d’une transaction en monnaie virtuelle, à l’inverse d’une transaction entre deux établissements bancaires assurant la domiciliation des comptes et donc l’identification de son porteur. (7) Le procédé de validation dit de proof of work est aujourd’hui sous le feu des critiques. Plus la chaine de blocks s’étend plus il est nécessaire de résoudre des énigmes cryptographiques de plus en plus longues et nécessitant de la puissance de calcul. Plus une blockchain se développe en utilisant ce mode de validation des blocks, plus son empreinte carbone est importante. Pour contrer ce fait, plusieurs cryptomonnaies utilisent une autre forme de validation dite de preuve d’enjeu, proof of stake, en plein développement aujourd’hui. (8) Voir à ce sujet le rapport de l’OPECST, remis le 20 juin 2018 sur les enjeux technologiques des blockchains (9) Le Salvador a adopté le 7 septembre dernier le bitcoin comme monnaie légale, provoquant une vague de protestations dans le pays et entrainant une chute de la valeur de la monnaie le jour de l’entré en vigueur de la mesure. (10) Le 18 mai, la Chine, par la voix de plusieurs institutions publiques, dont la fédération bancaire Chinoise, a intimé l’ordre aux institutions financières nationales de ne pas s’engager dans des opérations de financements en cryptomonnaies. A l’heure où ces lignes sont écrites, la Chine, par la voix de sa banque centrale, a purement et simplement déclaré illégale les transactions en cryptomonnaies – et donc les cryptomonnaies par extension – le 24 septembre dernier. (11) La guerre menée aux cryptomonnaies par Pékin vise avant tout à faire place nette pour sa propre cryptomonnaie émise par la banque centrale, le e-yuan, aujourd’hui en phase de test. (12) La loi PACTE définit, dans le code monétaire et financier, le statut de prestataire de « services sur actifs numériques » (PSAN) à l’article L54-10-2 et définit donc, par extension, les cryptomonnaies ainsi que tout autre actif stocké « sous la forme de clés cryptographiques privées ». Plus récemment, une ordonnance a été adoptée portant sur la lutte contre le blanchiment de capitaux et le financement du terrorisme applicable aux actifs numérique.

Lire aussi...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)

La Politique Agricole commune : un outil à réorienter partie 1/2

État & transition

La Politique Agricole commune : un outil à réorienter partie 1/2

La Politique agricole commune, mise en place dès les débuts de l’Union européenne, est une politique communautaire centrale des systèmes agricoles européens. Confrontée à un contexte en constante évolution depuis 60 ans, la PAC entrera sous peu dans sa prochaine réforme. Il est intéressant de se replonger dans ses évolutions historiques avant de développer les prévisions de la prochaine réforme 2023-2027 et d’exposer notre analyse et nos propositions pour une PAC comme outil de la transformation agroécologique des systèmes agricoles et alimentaires.

La Politique agricole commune (PAC) est un outil central de l’évolution de l’agriculture européenne. Elle ne peut être laissée de côté dans la transformation indispensable de notre système agricole et alimentaire. Alors que la prochaine réforme de la PAC 2023-2027 approche à grands pas, il est nécessaire de se replonger dans les évolutions historiques de cette politique communautaire. Avant même de parler de souveraineté, de reterritorialisation et de transformation agroécologique il faut comprendre les mécanismes de la politique agricole européenne en place et ce qui nous y a mené. La rupture avec notre système agricole et alimentaire actuel ne se fera pas sans la compréhension des succès et échecs des précédentes transformations agricoles dans lesquelles la PAC a joué un rôle majeur.

Une politique européenne cen­tralisée dès ses débuts

1957, le traité de Rome institue la Communauté économique européenne (CEE). Ce même traité fixe les objectifs d’une politique à six pays répondant à la nécessité de nourrir l’Europe. C’est la Politique agricole commune (PAC). Apparue dans le contexte de l’après-guerre et d’absence d’autosuffisance alimentaire, elle s’accorde à la volonté d’un marché commun de la CEE et à la libre circulation des marchandises, y compris celles du secteur agricole. Héritage partiel des politiques nationales préexistantes, elle est mise en place en 1962 avec pour but d’accroître la productivité agricole, d’assurer un niveau de vie à la population agricole, de stabiliser les marchés et de garantir une sécurité d’approvisionnement et des prix raisonnables aux consommateurs. La PAC est alors une politique active, répondant à des besoins majeurs et s’inscrivant dans des objectifs de reconstruction. Elle vise, de plus, le renforcement de l’alliance européenne face aux autres puissances qui l’entourent – consolidation des régimes socialistes de l’Est et toute-puissance économique des Etats-Unis. Replacer cette politique communautaire dans son contexte est nécessaire pour comprendre le choix des leviers mobilisés par la PAC. Cette dernière par exemple, joue un rôle particulier dans la construction européenne. Dès sa première version, elle est très centralisée et laisse peu de place aux gouvernements nationaux – on parlera d’ailleurs de “renationalisation” de la PAC lors de la réforme de 2014. Dans le contexte de l’époque, limiter les mécanismes d’interventions nationaux a pour ambition de réduire les distorsions de concurrence au sein de l’Europe et de rendre compatible l’intervention publique et le marché commun.

La PAC est le symbole de l’ambition commune des Etats membres et sera longtemps la politique communautaire la plus importante – elle représente 80% du budget de la CEE dans les années 70. Elle repose sur trois principes fondateurs : l’unicité de marché, la préférence communautaire et la solidarité financière.

Le premier principe, qui annonce en partie le marché unique de 1993, permet la libre circulation des produits agricoles d’un État membre à l’autre. Ainsi, après une phase transitoire, les droits de douane, les subventions et les entraves à la circulation des produits sont supprimés entre ces États. La préférence communautaire quant à elle se traduit par des quotas et des droits de douane communs – par ajuste- ment variable et non pas fixe – imposés sur les produits agricoles importés vis à vis des pays tiers. Ce principe, très mal perçu par les autres pays du monde, devait protéger contre les importations à faible prix et les fluctuations des cours du marché mondial. Il est de moins en moins structurant pour la PAC, par exemple du fait des nombreux accords commerciaux bilatéraux. Le dernier principe fondateur, un peu plus tardif, de solidarité financière fixe la partici- pation à la PAC des Etats membres au prorata de leur Produit Intérieur Brut (PIB). Ce budget commun du Fonds européen d’orientation et de garantie agricole (FEOGA) est distribué selon les besoins des pays, c’est-à-dire souvent en fonction de l’importance du secteur agricole de chaque pays. A ce financement de la PAC sont ajoutées des ressources propres de droits de douanes à l’entrée des produits industriels et agricoles importés du reste du monde, ainsi qu’une part de la TVA collectée par les Etats membres.

En vue d’atteindre les objectifs de la PAC, le traité de Rome établit également des organisations communes des marchés agricoles (OCM) – qui deviendront une unique organisation en 2007. La CEE met ainsi au point des mécanismes pour assurer des prix minimums reposant sur des méthodes de soutien financées par le FEOGA – ces dépenses se révéleront bien plus importantes que la partie “orientation” du fonds qui ne représentera jamais plus de 10% du budget. Suivant les produits, les OCM peuvent comporter des réglementations des prix, des subventions à la production et à la commercialisation, des systèmes de stockage et de report, des mécanismes communs de stabilisation à l’importation ou à l’exportation. Par exemple, les prélèvements à l’importation joueront un rôle crucial, de même que le prix d’intervention dont l’action se verra cependant limitée avec l’engorgement des marchés.

Les premiers mécanismes d’intervention mis en place sont les prix garantis, aussi appelés prix d’intervention. Les organismes nationaux relayant les services communautaires étaient tenus d’accepter à un prix minimal toute la production livrée – jusqu’au milieu des années 80. Des critères de qualité seront progressivement mis en place et les achats d’intervention seront limités. Les mécanismes d’intervention ont longtemps constitué le cœur de la PAC mais seront mis en sommeil dans les années 2000. Aucun moyen de régulation de l’offre n’est prévu à l’origine sauf dans le secteur du sucre. Cette absence de régulation entraînera des stocks considérables et coûteux en retirant de la vente les quantités non absorbables par le marché pour conserver le prix garanti. Les subventions aux exportations, ou restitutions, sont des subventions pour compenser l’écart entre les prix européens et les prix mondiaux plus faibles. Elles répondent partiellement aux limites des mécanismes d’intervention et per- mettent d’écouler les stocks mais représentent dans les années 90 une grosse part du budget européen. Liés au principe de préférence communautaire, les droits de douanes vers les pays tiers ou prélèvements variables sont aussi des leviers pour certaines OCM.

La PAC est le symbole de l’ambition commune des Etats membres.

Une politique communautaire en évolution permanente

En soixante ans, la politique agricole commune a été confrontée à un contexte en constante évolution, de l’industrialisation galopante à la mondialisation globale, en passant par l’agrandissement de l’UE. La PAC va traverser une succession de réformes qui reflète une politique en mouvement perpétuel. Les institutions et le processus de décision communautaire particulier de la PAC ne sont pas développés ici, bien qu’expliquant certaines de ses évolutions. En revanche, nous aborderons quelques événements majeurs liés à la PAC qui ont influencé le monde agricole et nous amènent au système actuel.

Les mécanismes de la PAC de 62, développés précédemment, vont entraîner une surproduction. En effet, l’auto-suffisance alimentaire de la CEE est largement dépassée en 1967 et de premières interrogations apparaissent quant à la gestion des surplus. Les mécanismes de régulation des prix par le stockage voire la destruction de ces surplus mènent à une explosion des coûts. Des tensions internationales apparaissent alors du fait de la concurrence déloyale créée par l’inondation des marchés de produits agricoles européens subventionnés. En outre, après 1973, les chocs pétroliers entraînent une augmentation des coûts de production du fait de l’augmentation du coût de l’énergie. Le prix d’intervention qui garantissait jusqu’ici des prix stables, prévisibles et élevés aux agriculteurs, favorise alors un déséquilibre de l’offre et de la demande du fait de l’augmentation plus rapide de la production par rapport à celle de la consommation. Ces deux derniers mécanismes ont entraîné une pression sur les prix agricoles et limité l’augmentation des revenus des agriculteurs. De plus, la diminution des importations (dont les prélèvements permettaient d’alimenter le budget de la PAC), l’augmentation des exportations dans un contexte de différentiel de prix parfois majeur entre les marchés, mondial et intérieurs, entraînent une explosion des dépenses de soutien des marchés dans le milieu des années 70. Du fait de cette évolution, la CEE cherche donc à freiner la progression des dépenses budgétaires et à répondre au déséquilibre croissant entre offre et demande. En 1984, la CEE met en place les quotas laitiers pour répondre à la surproduction tirée par des prix garantis.

Ils visent à limiter les excédents de produits laitiers et ainsi à en limiter les coûts de régulation associés. D’autres plafonnements des volumes de production de filières agricoles vont lui succéder, comme les quantités maximales garanties (QMG). Par la suite, le système des stabilisateurs en 1988 reprend l’idée de plafond à partir duquel se déclenche une série de réduction de prix, par exemple dans le secteur des céréales.

En 1992, une nouvelle réforme de la PAC, dite de Mac Sharry, remet en cause ces mécanismes de fonc- tionnement et s’inscrit en rupture des réformes précédentes. Trente ans après la mise en place de la PAC, la sécurité alimentaire européenne est atteinte. Les autres résultats sont mitigés. En effet, les revenus agricoles sont très variables selon les Etats-membres et des disparités se maintiennent entre les agricultures nationales (taille moyenne des exploitations, revenus…). La réforme de 92 s’attaque au financement budgétaire, ce qui doit permettre d’intégrer des politiques d’aménagement du territoire et faciliter la restructuration des exploitations agricoles. Elle abaisse les prix garantis et propose de les compenser par des aides directes aux producteurs proportionnelles à la taille des exploitations. Ce découplage des aides – indépendantes de la nature des produits – est allié à des mesures de réduction de la production. La réforme Mac Sharry inscrit dès lors la PAC dans une logique libérale, et considère que l’orientation des productions agricoles doit davantage résulter du libre jeu du marché. Elle permet à l’UE de mieux se conformer aux règles du commerce mondial et de répondre à la remise en question des restitutions aux exportations au niveau international dans le cadre du GATT, particulièrement par les Etats-Unis.

Dans le cadre de l’agenda 2000, la réforme de 1999 s’empare de la multifonctionnalité de l’agriculture. En effet, l’agriculture est reconnue comme n’ayant pas qu’une vocation alimentaire mais aussi de développement rural ou d’impact environnemental. Dans un contexte de baisse de la population rurale, la PAC est alors considérée comme ayant un rôle à jouer. Ainsi, l’agenda 2000 légitime l’idée d’un second pilier de la PAC en phase avec la multifonctionnalité nouvellement reconnue de l’agriculture. Il est financé par le Fonds européen agricole de développement rural (FEADER). La crise de la vache folle entraîne de son côté des orienta- tions de sécurité alimentaire dans la PAC. La réforme de 1999 poursuit la diminution des prix garantis et ainsi des montants de restitutions aux exportations. Les aides directes les remplaçant ne couvrent pas complètement ces diminutions et permettent à l’UE de ré- duire la part de la PAC dans son budget – en perspective de l’élargissement à l’Est qui nécessite une augmentation du FEADER et des fonds de cohésion. Depuis les an- nées 90 les réformes apportent aux Etats membres plus de marge de manœuvre. Celle de 2000 introduit le principe de subsidiarité, c’est-à-dire un retour de l’échelle nationale dans l’action de la PAC avec par exemple la modulation possible des paiements compensatoires par les Etats-membres.

La réforme de 2003 s’attache à couper complètement le lien entre les volumes produits et les aides perçues par les agriculteurs. En effet, les aides directes sont toujours liées aux surfaces ensemencées et au nombre de têtes de bétail, elles incitent donc encore à la production. Elles sont alors découplées et remplacées par le droit au paiement unique par exploitation (DPU). Ce levier est lié aux surfaces éligibles sans obligation de production sur celles-ci. La réforme de 2003 va également plafonner le budget du Pilier I de la PAC (avec une modulation possible). Le Pilier II est renforcé avec un objectif de soutien des politiques de développement rural. Cette réforme introduit aussi la conditionnalité des aides selon 18 normes relatives à l’environnement, à la sécurité alimentaire et au bien-être animal. Leur non-respect entraîne des réductions totales ou partielles des aides. La réforme de 2003 est une orientation de la PAC par l’UE vers un modèle souhaité plus durable. Elle permet à l’UE de répondre aux attentes sociétales concernant l’environnement et la qualité des produits. Cette réforme continue de connecter davantage l’agriculture aux marchés mondiaux et entraîne une libéralisation des prix et du commerce, en préparation de l’élargissement de l’UE. La réforme de 2008 poursuit la réforme précédente avec la mise en place du paiement unique simplifié et des filets de sécurité remplacent les mécanismes d’intervention. D’anciens leviers comme les gels de terres ou les quotas laitiers sont supprimés. Le second pilier est renforcé pour répondre aux défis environnementaux.

En soixante ans, la politique agricole commune a été confrontée à un contexte en constante évolution.

La politique agricole commune actuelle

La réforme de 2014 a prolongé les logiques libérales accompagnant la PAC depuis la réforme de 1992. Pour un budget total annuel de 60 milliards d’euros à l’échelle européenne dont 9,1 milliards sont destinés à l’agriculture française, la PAC 2015-2020 conserve sa construction autour de deux piliers issus de la précédente réforme de 1999.

En France, le premier pilier de la PAC reste important. Il est financé par le Fonds Européen agricole de garantie (FEAGA) à hauteur de 7 milliards d’euros. Par des mécanismes majoritairement découplés, c’est-à-dire n’étant pas calculés proportionnellement à une production donnée. Ce premier pilier a pour objectif le soutien des marchés, des prix et des revenus agricoles. Il est géré par les Etats au niveau national.

Le deuxième pilier, quant à lui, reste plus réduit avec un budget de 2 milliards d’euros financé par le Fonds européen agricole de développement rural (FEADER). Ses objectifs sont de promouvoir l’aménagement des zones rurales, la protection de l’environnement et le maintien d’une population active sur le territoire. En France, l’attribution de ce fonds est gérée par les Régions.

Alors quels ont été les changements apportés par cette réforme de 2014 ? Plusieurs choses sont à mentionner. Premièrement, la PAC de 2014 est orientée vers un soutien plus important à l’élevage. Ce dernier souffre, en effet, d’un manque de compétitivité ne permettant pas aux éleveurs de vivre dignement de leur métier (en 2017, entre 620 et 1100€ de salaire mensuel en moyenne d’après l’Insee). Deuxièmement, elle vise à soutenir l’emploi et l’installation de nouveaux agriculteurs en réponse à une diminution continue du nombre d’actifs agricoles depuis les années 60 et à la prévision d’un départ de la moitié des agriculteurs d’ici une dizaine d’années. Troisièmement, elle se propose d’améliorer la performance économique de l’agriculture européenne en faisant face, notamment en France, d’une part, à une rémunération très faible des agriculteurs, et d’autre part, à une balance commerciale, autrefois positive, se rapprochant inexorablement de l’équilibre. Quatrièmement, prenant acte du fort impact environnemental avéré de l’agriculture qui représente actuellement 19% des GES en France selon l’ADEME, la PAC 2015 a pour objectif d’augmenter sa performance environnementale. Enfin, elle vise l’amélioration de la performance sociale de l’agriculture et la redynamisation des territoires.

Les objectifs et orientations de la PAC paraissent donc louables et tout à fait pertinents au vu des défis auxquels fait face l’agriculture. Néanmoins, un tour d’horizon rapide des dispositifs en place en France pour cette période de 2015 à 2022 est nécessaire afin d’illustrer les moyens avec lesquels ces objectifs se veulent atteints.

Les aides majeures du premier pilier sont les aides découplées. Elles sont rattachées au nombre d’hectares que représentent les terres cultivables de chaque exploitation agricole. Ainsi, un paiement de base est attribué par hectare en fonction du montant historique de ces aides découplées à l’hectare : les droits à paiement de base (DPB). Ces aides visent à soutenir les revenus des agriculteurs et leur compétitivité sur les marchés. A cela viennent s’ajouter plusieurs bonus pour inciter à la mise en œuvre de pratiques favorables à l’environnement, les exploitations de taille petite et moyenne ainsi que l’installation de jeunes agriculteurs. Au DPB, se rajoutent donc respectivement le paiement vert, le paiement redistributif et le paiement additionnel aux jeunes agriculteurs. En 2017, ces aides s’élevaient au total à environ 6 milliards d’euros soit les deux tiers du budget total de la PAC pour la France.

Ces premières aides de base sont de différents ordres. Pour ce qui est de l’objectif d’amélioration des performances environnementales, le paiement vert est complété par les mesures agroécologiques et climatiques du second pilier. Les MAEC éligibles font l’objet d’un cahier des charges et s’organisent autour de trois catégories : MAEC système qui s’applique à des types de produc- tion comme les systèmes herbagers et pastoraux dans une logique de maintien des pratiques actuelles ; MAEC plus spécifique à des par- celles théâtre d’enjeux environnementaux localisés et MAEC ayant un objectif de préservation des ressources génétiques comme la préservation de races particulières. Elles viennent donc s’ajouter à la valorisation par le paiement vert des surfaces d’intérêt écologique (haies, mares, etc), à la diversification des cultures et à la préservation des prairies permanentes (prairies en place depuis plus de 5 ans consécutifs).

Cet objectif d’amélioration de la performance environnementale vient se combiner à l’amélioration de la performance sociale par le soutien à l’installation des jeunes agriculteurs avec une majoration, notamment, dans le cadre de projets favorables à l’environnement. Le paiement additionnel aux jeunes agriculteurs est renforcé par la do- tation jeunes agriculteurs. Cette aide concerne, tout comme la première, les agriculteurs de moins de 40 ans, non installés dans les 5 an- nées précédentes et dont les compétences sont officiellement reconnues par des certificats d’aptitudes ou diplômes par exemple. Cette dotation est majorée pour les installations hors cadres familiaux, aux projets répondant aux principes de l’agroécologie et aux projets générateurs de valeur ajoutée et d’emploi. Une revalorisation de cette aide peut aussi se faire en fonction de l’effort de reprise et de modernisation de l’exploitation par le jeune agriculteur.

Enfin, l’objectif de performance économique améliorée poursuivi par les aides découplées, est renforcé par des aides plus spécifiques aux secteurs et zones en difficulté économique ou à faible compétiti­vité. Ces aides sont l’indemnité compensatoire de handicaps naturels (ICHN) ou encore des aides couplées à la production concernant majoritairement l’élevage et les protéines végétales. L’ICHN est l’aide principale du second pilier avec 1,1 milliards d’euros annuel soit 55% du montant total de ce dernier. Accès sur les zones dites défavorisées, principalement montagneuses, elle vise à soutenir l’activité agricole dans ces zones et ainsi principalement l’élevage. En effet, ce dernier est majoritaire dans ces zones montagneuses et a un rôle primordial dans le dynamisme de ces campagnes et dans l’entretien des paysages d’une grande richesse biologique. Enfin, les aides couplées viennent en complément de ce soutien de l’ICHN à l’élevage et viennent aussi inciter à la production de protéines végétales indispensables à la reconquête de la balance protéique de la France, notamment pour son alimentation animale. Néanmoins, n’oubliant pas la surproduction qu’avaient engendré les aides couplées du passé, l’octroie de celles-ci est désormais dégressif et plafonné. La PAC soutient aussi l’agriculture biologique par la mise en place d’aides à la conversion et au maintien en agriculture biologique. Ces aides ont été doublées sur la période 2015-2020, de façon à accompagner les objectifs du plan «Ambition bio» qui prévoit le doublement des surfaces en agriculture biologique d’ici 2022. Elles se proposent de faire face à l’incertitude des premières années de l’installation d’un système en agriculture biologique ainsi qu’à la réduction de la production sans ajustement des prix sur la phase de conversion.

Enfin, la PAC porte l’ambition de financer une stratégie commune pour la compétitivité et l’adaptation des exploitations agricoles ainsi que, par le programme national de gestion des risques et d’assistance technique (PNGRAT), de sou- tenir l’agriculture face aux différents aléas climatiques ou en- core sanitaires qu’elle doit affronter. Ainsi, le plan pour la compétitivité et l’adaptation des exploitations agricoles se décline autour de la modernisation des exploitations d’élevage (investissements pour l’amélioration des conditions de travail et de l’autonomie du cheptel entre autres), de la recherche de la performance économique et environnementale, par la maîtrise des intrants et la protection des ressources naturelles (érosion des sols, eau, biodiversité…), de la réponse aux problématiques particulières de certaines de ces filières : rénovation du verger, investissement dans les serres, investissement dans secteur du chanvre, lin, fécule de pommes de terre et riz pour éviter leur disparition au profit des céréales, etc, de l’amélioration de la performance énergétique des exploitations et de l’encouragement de projets s’inscrivant dans une démarche de développement de l’agroécologie. Le PNGRAT, quant à lui, repose sur deux types de soutien que sont l’aide à l’assurance multirisques climatique des récoltes et l’aide aux fonds de mutualisation en cas d’aléas sanitaires et d’incidents environnementaux.

Depuis sa création en 1962, la PAC s’est inscrite dans le cadre général des politiques européennes et a donc suivi les évolutions de celles- ci tout au long des décennies. Ainsi, se créant autour d’une logique de préférence communautaire puis de libéralisation des échanges, la PAC a été un outil majeur de l’évolution de l’agriculture en Europe. Elle a dans un premier temps réussi son pari de construire une sécurité alimentaire de l’Union Européenne et de faire de l’agriculture un secteur économique porteur avant de de- venir à partir de 1992 un instrument de compensation des logiques libérales. La PAC est un outil puissant qui a été utilisé de manière active et stratégique dans ces premières années avant d’être ensuite utilisé de manière tout à fait passive comme un lot de consolation à des agriculteurs alors enfermés dans une agriculture qui ne leur permet pas de vivre dignement et qui menace les générations actuelles et futures. Il est grand temps de mobiliser à nouveau activement les potentialités majeures de cet outil qu’est la PAC pour l’Union Européenne en collaboration avec les Etats qui la composent pour relever les défis économiques, sociaux et environnementaux auxquels fait face l’agriculture européenne et française. Les Etats n’ont pas hésité à utiliser des dispositifs de protection de l’agriculture européenne pour la transformer face aux défis auxquels ils faisaient face à la sortie de la Seconde Guerre Mondiale. Nous verrons dans la seconde partie de cet article (publiée dans le n°3 du Temps des Ruptures) pourquoi il est possible de le faire de nouveau.

La réforme de 2014 a prolongé les logiques libérales accompagnant la PAC depuis la réforme de 1992.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)

Les communautés d’énergie en Europe : vers un nouveau modèle de production énergétique ?

État & transition

Les communautés d’énergie en Europe : vers un nouveau modèle de production énergétique ?

Décrites dans deux directives européennes récentes, les communautés d’énergie citoyennes et renouvelables, demandent aux gouvernements et acteurs privés du marché de garantir aux citoyens le droit de produire, stocker, consommer et revendre leur énergie renouvelable. Elles promeuvent un modèle énergétique en le rendant à la fois plus démocratique et pérenne. Les bases juridiques de cette reconstruction du système énergétique actuel sont posées. Les Etats Membres vont devoir prendre la mesure des enjeux portés par ce nouveau statut et les définir dans un marché en grand besoin de renouvellement. Mais le plus grand enjeu ici repose sur les citoyens et leur capacité à concrétiser cette révolution. 
Première révolution : la reconnaissance du rôle actif des citoyens dans la transition énergétique
Jusqu’ici, les réseaux électriques étaient considérés comme le moyen le plus économique de répondre à des usages dispersés et variables. Après la Seconde Guerre mondiale, la France avait choisi de développer un système électrique centralisé, principalement centré sur les économies d’échelle. Désormais, avec le développement généralisé des énergies renouvelables depuis une dizaine d’années et une nouvelle tarification reposant plus sur le kWh consommé que sur la puissance à laquelle le réseau donne accès, une production plus proche des consommateurs est envisageable. De fait, les évolutions sociétales portent maintenant les évolutions techniques (réseau intelligent et stockage). En effet, de nombreux citoyens semblent aller vers des comportements plus sobres dans la consommation d’énergie. Néanmoins, la multiplicité des blocages technocratiques face à des volontés de changement pourtant puissantes ne doit pas être sous-estimée, particulièrement à l’échelle européenne, où elles se trouvent démultipliées. Publiées en 2018, dans une indifférence médiatique, pour le moins attendue, les communautés d’énergie, pourtant potentiellement révolutionnaires, autant pour le marché de l’énergie que pour l’ensemble du système électrique actuel, appellent une concrétisation rapide. Celle-ci dépendra surtout de l’implication des citoyens, pourtant très peu informés de l’actualité des institutions et des régulations européennes : ils sont ici le pivot de toute la dynamique portée par la Commission Européenne. En effet, deux directives européennes au sein du « Paquet pour une énergie propre pour tous les Européens » semblent apporter une partie, certes humble, de la réponse aux nombreuses grèves et marches pour le climat qui marquent ces deux dernières années. Elle tient en quelques mots : la reconnaissance du rôle actif des citoyens dans la transition énergétique. L’Union Européenne semble l’avoir compris : son objectif contraignant d’atteindre 32% d’énergies renouvelables d’ici 2030 ne se réalisera pas sans l’implication de ces derniers. Malgré sa faible couverture médiatique et son manque de reconnaissance au sein des Etats Membres, cette réponse pourrait pourtant bel et bien être une révolution. Révolution car les nouvelles règles créent une dynamique sans précédent : donner les moyens aux citoyens de produire, consommer et même de revendre leur propre énergie. Ce projet politique est particulièrement ambitieux, et met l’accent sur la production décentralisée d’énergies renouvelables, le stockage d’énergie et l’autoconsommation d’électricité. Face à ces évolutions, cer- tains gouvernements nationaux, inquiets de cette dynamique et de ses conséquences sur le système existant, en particulier sur ses « gros acteurs », avaient persisté tout au long des négociations, à freiner l’octroi de ce nouveau statut d’auto-consommateurs. Finalement, le Parlement Européen s’est imposé dans le bras de fer. Jusqu’ici, l’absence de référence dans les rédactions politiques européennes de l’engagement citoyen, ou des citoyens dans le système énergétique était sans nul doute à l’origine d’un cadre régulatoire en décalage avec les tendances de décentralisation et l’essor des « petits acteurs » dans le marché de l’énergie. D’abord conçues pour les entreprises multinationales, exploitant des énergies fossiles et dans une dynamique centralisée, les règles du marché de l’énergie européen semblaient jusqu’ici avoir encore du mal à reconnaître les citoyens (et les communautés d’énergie) comme des acteurs du marché à part entière. Ceci impliquait souvent l’absence de règles du jeu équitables à leur égard. A l’origine fortement indexées sur le marché, les énergies renouvelables considéraient encore jusqu’à peu toute dimension citoyenne hors du marché de l’énergie.
La réussite des communautés d’énergie dépendra d’abord de l’écho citoyen suscité.
Une possibilité de bouleversement de l’organisation dite « traditionnelle » du marché de l’énergie : un potentiel possiblement relégué à l’utopie
La « victoire » politique s’incarne donc à travers la définition juridique des communautés d’énergie, citoyennes et renouvelables, un concept essentiellement issu du droit européen, et relativement récent. Déjà concrétisées, à petite échelle, au sein de plusieurs Etats Membres, en Allemagne comme en France par exemple, elles manquaient d’une reconnaissance européenne attendue. Selon cette définition, une communauté d’énergie renouvelable peut être amenée à produire, consommer, stocker et vendre de l’énergie renouvelable, et partager en son sein l’énergie renouvelable produite par les unités de production qu’elle détient. Les communautés d’énergie citoyennes, quant à elles, disposent d’un périmètre plus large : outre la production d’énergie, la fourniture, la consommation, l’agrégation, le stockage et la vente d’électricité, elles peuvent fournir à leurs membres ou actionnaires des services liés à l’efficacité énergétique. Ces deux formes de communautés d’énergie doivent être autonomes, ne pas se limiter à un but purement lucratif et être effectivement contrôlées par des membres (citoyens, autorités locales et PME) situés à proximité des projets d’énergie renouvelable. L’ancrage local et les projets « citoyens » sont donc particulièrement à l’honneur dans les deux cas. C’est là une avancée majeure, en rupture avec le principe de mise en concurrence promu par la Commission depuis 2014. Les avantages économiques ne sont pas oubliés pour autant : le partage de l’énergie communautaire stimule des investissements supplémentaires dans les installations de production et de stockage d’énergie renouvelable. Sans compter que l’optimisation de l’énergie locale, à la condition d’être rendue possible par des technologies innovantes (logiciels de gestion, stockage), pourrait réduire la charge sur le réseau, la congestion, et limiter le besoin d’investissements dans de nouvelles infrastructures de réseau. Dès l’énoncé de cette définition, de la révolution qu’elle implique pour le système actuel, et de l’évocation de son champ d’application, il apparaît clairement que l’organisation dite « traditionnelle » du marché de l’énergie peut s’en trouver bouleversée. En effet, là où de grands énergéticiens produisent de l’électricité, transportée et distribuée dans des réseaux jusqu’à la consommation finale, ici, le consommateur peut devenir acteur. Et les avantages d’un tel changement seraient bien sûr nombreux : réduction de l’impact environnemental, réduction de la facture, sensibilisation des consommateurs/acteurs… Sans compter le potentiel de développement important qui révèle que la moitié des citoyens européens pourraient produire eux-mêmes leur électricité renouvelable d’ici 2050, recouvrant alors près de 45% de la demande en énergie. Le problème, c’est qu’une telle stratégie nécessite une dynamique forte, unifiée. Et, jusque là, les Etats paraissaient tout sauf unanimes dans les dynamiques d’implantation. Ainsi la réticence des Etats Membres n’est pas à sous_estimer : à titre d’exemple, l’incidence prévisible de ce nouveau statut de communautés dites « autonomes », (surtout en termes de coûts des réseaux), ou encore la conformité même avec les règles législatives de péréquation tarifaire et de solidarité nationale, sont des interrogations légitimes. La question du monopole des gestionnaires historiques des réseaux publics d’électricité et de gaz sous-tend bien sûr aussi les débats. Soumis à toutes ces interrogations, ce sera justement aux Etats Membres de décider d’accorder ou non la faculté aux communautés énergétiques les droits de gestion sur les réseaux. Cela revient à dire qu’ils seront chargés de créer les conditions permettant à ces communautés de participer au marché de manière équitable et non discriminatoire. Aucune direction spécifique n’est fournie dans ce domaine. La question, tout aussi légitime, du rôle à accorder aux citoyens dans le marché de l’énergie se pose : est-ce vraiment à eux de s’occuper de leur propre production/consommation d’énergie ? Cette gestion ne devrait-elle pas revenir aux mains de l’Etat, qui a su par le passé assurer l’efficience énergétique ? En effet, diviser les sources de production d’énergie produit systématiquement moins de rendement qu’une seule source de fourniture d’électricité. Cependant, est-ce bien le rendement qui est recherché ici ? Dans la révolution que nous évoquons, il s’agirait, non seulement d’un changement de paradigme dans les acteurs impliqués, mais aussi d’un profond bouleversement dans les modes de consommation de l’énergie. Consommer moins, de manière plus responsable et en pleine conscience des implications écologiques de toute production d’énergie.
La « victoire » politique s’incarne donc à travers la définition juridique des communautés d’énergie.
De nouveaux statuts et interrelations à définir entre acteurs historiques et nouveaux entrants : des leviers d’action et d’organisation à considérer
La situation n’est pas pour autant inextricable : un lien peut être établi, afin de protéger les deux parties, par des obligations réciproques. Pour les communautés, il s’agirait de déclarer les installations en amont de la mise en service, et de la part des gestionnaires de réseaux, une sorte d’obligation de coopération, destinée à faciliter les transferts d’énergies au sein de la communauté. En effet, la directive évoque l’importance de simplifier les démarches administratives, de la part des gouvernements, au sein des projets citoyens et justement communautaires, afin d’éviter un bras de fer opposant « David contre Goliath » avec les gros opérateurs de réseaux. En effet, si le puzzle administratif et juridique est trop important, cela pourrait faciliter la domination de grandes entreprises, soit pour créer, soit pour contrôler indirectement ces communautés, conçues de prime abord dans une dynamique citoyenne. Le cadre légal, mais aussi les dispositions administratives concrètes qui devront entourer cette relation seront essentielles pour faciliter à la fois le développement et le fonctionnement concret dans la durée des communautés. Comme toute transformation importante, le risque d’instrumentalisation par d’autres acteurs aux intérêts prégnants, et la conséquence de l’éloignement entre réalisations concrètes et objectifs initiaux existent. Cela se matérialise ici de manière complexe, par des procédés administratifs et financiers difficilement accessibles, mais pour autant moteurs du système énergétique ac­tuel. Finalement, la réussite des communautés d’énergie dépendra d’abord de l’écho citoyen suscité. Sans force vive, sans acteurs de terrain et sans dynamique locale, les ingrédients d’une décentralisation efficace, la directive restera caduque. Donner aux citoyens les moyens d’être à la fois producteurs et consommateurs part du postulat d’une double prise de conscience, à la fois en termes de production et de consommation. Les enjeux vont donc au-delà de la simple réorganisation du marché de l’énergie. Une reconstruction verte, reposant sur les énergies « propres » (qui n’excluent pas l’énergie nucléaire) et une économie circulaire, pourrait, par une dynamique citoyenne, prendre le relai de la croissance traditionnelle, avec en parallèle la créa- tion de nouveaux marchés et de nouveaux emplois. Pour autant, les défis seront nombreux : pour les citoyens, qu’il faudra convaincre du potentiel des communautés d’énergie, mais également pour les gouvernements.
La question du rôle à accorder aux citoyens dans le marché de l’énergie se pose : est-ce vraiment à eux de s’occuper de leur propre production / consommation d’énergie ?
Concrétiser la révolution : appel aux citoyens à se saisir de ce nouveau statut
À moyen-long terme, il est possible d’envisager un système de soutien sur le plan financier qui pourrait être un mécanisme d’obligation d’achat pour l’énergie produite en surplus par la communauté, avec des appels d’offres, des primes proportionnées, et éventuellement, un soutien fiscal. L’engagement public, sans nul doute essentiel, devra aller dans les deux-sens : les collectivités territoriales devront être impliquées au maximum, afin de faciliter l’ancrage et la pérennité des communautés. Allier cohésion sociale, implication des acteurs de terrain et des territoires sera un vrai défi : il s’agirait d’éviter le déclassement de certains territoires, et par là-même, de certaines populations. Qu’il s’agisse des capacités d’épargne ou des zones à faible rendement renouvelable, une stratégie globale d’unification sera nécessaire. Un autre écueil à éviter sera la définition conceptuelle libérale du concept d’autoconsommation : il s’agit d’éviter à tout prix dans cette dynamique de décentralisation, le repli sur soi, et promouvoir avec intensité la coordination. La concrétisation de l’ « autoconsommation collective » ne doit pas se faire au détriment de l’efficacité du système électrique. En effet, il est complexe de se représenter le fonctionnement concret d’une telle communauté : qui la finance concrètement ? Qui en est responsable ? Beaucoup de questions auxquelles la commission n’apporte que très peu de réponses, et c’est finalement assez compréhensible : on touche ici à la marge de manœuvre spécifique des Etats Membres. On comprend finalement peut-être un peu mieux leurs réticences, tant le chantier qui leur reste à accomplir est important, face à deux directives d’apparence bénignes. Ils doivent entreprendre une véritable réforme législative, revoir les redevances de réseau, les incitations et autres régimes de soutien et impliquer les citoyens, en partie en renforçant les capacités des autorités locales. Lors de la révision des politiques publiques, une attention particulière devrait aussi être accordée au rôle des communautés énergétiques dans la lutte contre la précarité énergétique, un sujet qui mérite une grande attention. D’autant plus qu’actuellement, les communautés énergétiques sont plus présentes dans les régions les plus riches de l’Union Européenne en raison des ressources financières et organisationnelles nécessaires. Il ne s’agit pas non plus de rester dans une approche naïve : si l’autoconsommation peut être une solution, elle ne figure pas pour autant, à elle seule, la sortie de notre crise écologique et sociale. A l’instar des conséquences de la politique de décentralisation énergétique allemande, plusieurs risques sous-tendent la dynamique : d’abord, des prix de l’électricité élevés, relatifs aussi aux coûts d’investissement dans un premier temps dans des infrastructures renouvelables à grande échelle. Par ailleurs, si le développement des énergies renouvelables génère un surplus d’électricité qui doit être exporté, il ne contribue pas pour autant à la sécurité d’approvisionnement, celle-ci doit aussi être considérée et solutionnée par les Etats Membres pour assurer la transition. Enfin, des réactions négatives de la part de l’industrie, au-delà du marché de l’énergie lui-même, sont à envisager : ces derniers peuvent craindre pour leur productivité. La prise de conscience des risques associés à une telle révolution est essentielle, la politique énergétique relevant d’enjeux multiples : industriels, techniques, sociétaux, financiers… Finalement, en dépit des nombreux écueils à éviter, par l’ambition forte et particulièrement importante dans le contexte actuel, qu’elles portent, les directives du paquet « Energie propre » semblent avoir saisi la nécessité d’impliquer les citoyens, dans la définition d’une sortie de crise, à la fois économique, écologique et sociale. Si la vitesse de déploiement de ces communautés est difficilement prévisible, notamment en raison des nombreuses zones d’ombres et de définitions encore trop vagues, elles ont vocation à s’imposer comme l’un des piliers de la transition énergétique européenne. Bien sûr, comme à l’aube de toute transformation profonde, les attentes tout autant que les risques d’instrumentalisation sont nombreux. Un autre enjeu essentiel tient donc à cette prise de conscience, à la fois individuelle et collective, des coûts environnementaux et sociétaux, de la production et de la consommation d’énergie. Un changement en profondeur, vers une utilisation énergétique consciente ne paraît plus si utopique. A nous de nous saisir de cette opportunité historique, et de nous montrer à la hauteur, à la fois du potentiel et de la force d’action des citoyens.
Une reconstruction verte pourrait prendre le relais de la croissance traditionnelle, avec en parallèle la création de nouveaux emplois.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)

Le modèle agricole français : entre crise et renouveau

État & transition

Le modèle agricole français : entre crise et renouveau

Par Inès Heeren La crise du coronavirus a révélé les faiblesses de nombreux secteurs. Le monde agricole agroalimentaire s’est retrouvé sur le devant de la scène avec des rayons de supermarchés dévalisés, un appel aux citoyens à aller « aux champs », du lait jeté quotidiennement…Face à ces défaillances, de nombreuses questions se soulèvent. Nous interrogeons Romain Dureau, agroéconomiste et cofondateur d’un laboratoire d’idées au service de la transformation écologique, de l’agriculture et de l’alimentation : Urgence Transformation Agricole et Agroalimentaire (UTAA). 
Comment expliquez-vous les failles du système agricole et alimentaire français révélées par la crise sanitaire ?

La crise sanitaire a effectivement été davantage un révélateur qu’un déclencheur. Basiquement, le coronavirus a été le grain de sable qui s’est immiscé dans les rouages déjà abimés des marchés agricoles dérégulés. La première faille majeure mise en évidence lors du premier confinement de mars à mai 2020 est la forte dépendance de notre agriculture à la main d’œuvre étrangère, qui représente environ 40% du travail saisonnier. La France, « puis- sance agricole » selon les libéraux, a connu le ridicule de voir son Ministre de l’Agriculture de l’époque, Didier Guillaume, en appeler à « l’armée des ombres » (sic) pour rejoindre les rangs des travailleurs agricoles. L’agriculture française connaissait un manque important de main d’œuvre du fait de la fermeture des frontières aux travailleurs étrangers. Etonnant ? Pas vraiment. Du fait de leur forte saisonnalité, certaines productions, telles que l’arboriculture et le maraîchage, sont très gourmandes en main d’œuvre, principalement lors des travaux de taille et de récolte. Dans la logique de compression des coûts, l’agriculture française a compté de plus en plus sur une main d’œuvre venue de pays étrangers plus susceptible d’accepter des emplois peu rémunérés et aux conditions d’activité difficiles. Depuis quelques années, le recours au travail détaché, véritable dumping social organisé par l’Union Européenne, a augmenté : les travailleurs détachés étaient 67 601 en 2017 (contre 26 000 en 2016), principalement en viticulture, en maraichage et arboriculture, mais aussi en grandes cultures et production ovine, en moindre mesure. Cet épisode doit nous conduire à nous interroger sur ce manque structurel de main d’œuvre agricole : augmentation du travail saisonnier, journées harassantes pour de nombreux chefs d’exploitation… Cette question est complexe, mais l’une des réponses clés est la suivante : pour donner « envie d’agriculture », il faut changer de modèle, et proposer des conditions de travail, de rémunération et de vie en milieu rural bien plus attractives.

La deuxième faille majeure (re)mise en lumière par la crise sanitaire est la forte dépendance de notre agriculture et de notre alimentation aux marchés internationaux. D’un côté, l’agriculture française est dépendante des exportations à destination d’autres pays européens mais également de pays tiers. Ainsi, les productions qui sont fortement intégrées sur les marchés internationaux et destinées à l’export, telles que les vins (30% de la production exportée) et spiritueux, les cé- réales (50% du blé exporté) ou les produits laitiers (10% de la production exportée), se sont retrouvées confrontée à la perte de débouchés ou la diminution de la demande mondiale. C’est le cas de la poudre de lait exportée en Chine ou encore du porc et des broutards exportés en Italie. D’un autre côté, nous sommes également dépendants des importations pour plusieurs produits alimentaires de base. Un rapport d’information du Sénat en date de mai 2019 estime que nous importons environ 20% de notre alimentation. Cela concerne principalement les fruits et légumes (50% sont importés, pour un coût de 2,5 à 3 milliards d’euros), la viande de porc (25% importés), la volaille (34%), la viande bovine (environ 30%), la viande bovine (50%) mais aussi les aliments pour les animaux d’élevage (3 millions de tonnes de soja importés d’Amérique latine chaque année). Nous ne parlons pas là de produits annexes, mais de produits de consommation quotidienne. Cette dépendance aux importations pose enfin la question de la traçabilité de la production. Il est estimé que 10 à 25% des importations ne respecteraient pas les normes sociales, sanitaires et environnementales françaises. Nous voyons aujourd’hui le danger que représente cette dépendance aux marchés internationaux sciemment organisée : notre souveraineté alimentaire – comprendre : pour les denrées alimentaires de consommation quotidienne – a été perdue du fait de choix politiques contraires à l’intérêt fondamental de la Nation.

Face à ces limites, sommes-nous en mesure d’agir à l’échelle nationale ? Est-ce que l’Union européenne représente une barrière ou un levier face à l’urgence de la transformation de notre modèle agricole ?

Comme sur beaucoup de sujets, la doxa libérale nous dit que la question des politiques agricoles et alimentaires prend place à l’échelle européenne voire internationale. Ce n’est pas faux, tant les politiques commerciales et agricoles européennes ont façonné l’agriculture française à partir de la deuxième moitié du XXe siècle. Si la question de la sécurité alimentaire relève bien d’un enjeu planétaire, des marges de manœuvre existent au niveau national, notamment en actionnant des leviers divers et non négligeables : les politiques de développement rural et d’aménagement du territoire, la commande publique, la recherche agronomique, l’enseignement et la formation agricoles mais aussi l’accompagnement des projets de transition agroécologique. Toutefois, il est vrai que les règles européennes et de l’OMC limitent fortement la possibilité d’agir sur les deux causes fondamentales de l’industrialisation et de la mondialisation de l’agriculture : la Politique Agricole Commune (PAC) et les poli- tiques commerciales européennes (auxquelles nous pourrions rajouter les poli- tiques monétaires). Tant le fonctionnement actuel de l’Union Européenne que les choix politiques qui sont les siens représentent autant de barrières à la transformation de l’agriculture. Le corolaire de ce constat est qu’un changement profond de ces politiques agricoles et commerciales serait un levier assez puissant pour ré orienter l’agriculture.

La nouvelle réforme de la PAC 2021-2027, qui est encore en discussion, sans révolutionner l’essentiel, semble lentement mais surement s’orienter vers une forme de renationalisation d’un certain nombre de choix politiques relevant de la mise en œuvre de la PAC. Dans ce contexte de libre-échange généralisé, beaucoup redoutent, à juste titre, une forme de « PAC à
la carte » qui n’aurait pour effet que d’augmenter la concurrence entre les agricultures européennes, certains pays continuant
la course au productivisme, et d’autres augmentant leurs exigences environnementales et sociales. Ce risque de dumping est réel, mais il n’est pas nouveau et ne concerne pas uniquement le marché unique européen, mais également les marchés internationaux, auxquels notre agriculture est fortement intégrée. Si la réforme 2021-2027 de la PAC donnait plus de marges de manœuvre aux Etats, un gouvernement déterminé à conduire une politique de souveraineté alimentaire sera certainement avantagé, à condition, en parallèle, d’assumer la mise en œuvre de protections à l’échelle nationale face aux importations qui respondent pas aux modes de production que nous souhaitons pour l’Humanité. En somme, si la reprise en main de politiques agricoles à l’échelle nationale peut redonner des marges de manœuvre aux Etats, cela ne peut pas se faire positivement si nous ne reprenons pas également la main sur nos politiques commerciales. Cela n’interdit évidemment pas de proposer des alternatives à l’échelle européenne, mais nous savons la difficulté de telles négociations et le culte du « consensus » qui, concession par concession, nous a conduit à l’impasse. Ne nous interdisons pas d’agir maintenant à l’échelle nationale, car l’agriculture française se meurt à petit feu.

SI LA QUESTION DE LA SÉCURITÉ ALIMENTAIRE RELÈVE BIEN D’UN ENJEU PLANÉTAIRE, DES MARGES DE MANOEUVRE EXISTENT AU NIVEAU NATIONAL.

Votre laboratoire d’idée UTAA prône la relocalisation et le protectionnisme. De quelle manière les accords libéraux de l’Union européenne et sa volonté de s’insérer dans le marché mondial impact le monde agricole ? Doit-on, et si oui comment peut-on, sortir de la logique de libre-échange et s’orienter vers celle de la souveraineté alimentaire ?

Comprenons déjà comment les agricultures européennes se sont retrouvées si fortement intégrées aux marchés internationaux. Lorsque la PAC a été mise en œuvre à partir de 1962, elle avait pour objectif d’augmenter la production agricole du continent, qui était alors déficitaire et importateur pour des produits alimentaires de base. L’Europe se rassemblait autour d’un projet commun de souveraineté alimentaire. Devenant de plus en plus excédentaire à partir des années 1970, l’agriculture européenne a éloigné le continent des risques de pénurie et de famines. Cependant, la surproduction croissante de produits alimentaires fait courir le risque d’un effondrement des prix payés aux producteurs, et donc la mise en danger du tissu productif. Pour éviter cela, d’une part, l’Union européenne a mis en place des mécanismes de gestion de l’offre (quotas, par exemple), et d’autre part, l’UE a trouvé de nouveaux débouchés sur les marchés internationaux, en subventionnant les exportations.

Puis, dans les années 1990, face aux coûts importants de ces mécanismes de régulation des marchés et espérant profiter d’une demande alimentaire mondiale croissante, l’Union européenne a supprimé ces régulations et fortement libéralisé son marché agricole.

Le problème d’aligner les prix du marché intérieur sur les prix des marchés internationaux, qui ne représentent pourtant que 15% des échanges de produits agricoles, est d’imposer des prix qui sont ceux d’excédents agricoles, dont les pays veulent se débarrasser à bas prix à l’export. L’UE est le seul espace économique du monde à ne pas distinguer son marché intérieur des marchés internationaux par des mesures protectrices. La question posée par la dérégulation et la mondialisation des échanges de produits agricoles est également celle de la capacité intrinsèque des marchés à se réguler. Un consensus semble émerger entre agroéconomistes pour acter que les fluctuations des prix sur les marchés agricoles ne sont pas seulement la conséquence de facteurs exogènes (climat, ravageurs, etc.) mais également de facteurs endogènes à leur fonctionnement. Notamment, les cycles de productions agricoles sont longs, et les délais dans l’ajustement entre l’offre et la demande en produits alimentaires sont responsables de cycles de variation des prix sur les marchés plus ou moins chaotiques selon les produits. S’ils sont d’accord sur l’analyse du fonctionnement des marchés, les avis des économistes divergent en revanche quant aux solutions à apporter. Certains pensent que les marchés agricoles se réguleront d’eux-mêmes dès lors que de nouveaux outils qui leur sont propres, comme les assurances ou les marchés à termes, permettront de corriger cette instabilité endogène. D’autres, dont je suis et dont nous sommes avec UTAA, défendent plutôt une intervention plus directe de l’Etat dans la régulation des volumes produits et des prix, et donc la protection du marché intérieur face à des importations qui constituent, entre autres choses, une concurrence déloyale de notre agriculture en ne respectant pas les mêmes normes sociales et environnementales de production.

Il y a de très nombreuses raisons qui plaident pour une reprise en main par l’Etat de la régulation des marchés agricoles. Au-delà des défaillances « naturelles » des marchés agricoles que j’ai présentées, nous considérons que l’agriculture et l’alimentation relèvent de l’intérêt général : l’alimentation est un droit fondamental de toute personne humaine. Il est alors important que l’agriculture et l’alimentation soient pleinement présentes dans le champ démocratique : la souveraineté alimentaire est le droit des paysans et des peuples à décider de ce qu’ils veulent produire, en quelles quantités et de quelles manières ils veulent le produire. Cette démocratisation de l’alimentation nécessite que l’Etat assure la régulation des marchés, que ce soit des volumes produits, afin d’éviter les surproductions, ou des prix payés aux producteurs pour garantir un revenu décent et stable. La volatilité des prix est l’une des principales causes actuelles de la course au productivisme, avec tous les dégâts environnementaux que cela implique.

L’agriculture est critiquée pour son impact environnemental, émissions de gaz à effet de serre, dégradation de la biodiversité et du sol… Un modèle agroécologique est-il viable selon vous en France ? Comment peut-on réorienter notre système agricole, l’Etat a-t-il un rôle à jouer ? Com- ment cette évolution s’inscrirait elle dans le temps ?

La France est riche d’une grande diversité de territoires et de conditions agronomiques. Cela lui permet d’envisager la production diversifiée de nombreux produits agricoles, au moins à l’échelle nationale si ce n’est à l’échelle régionale. Cette richesse n’a été que trop peu valorisée au cours des 30 der- nières années du fait de la logique des « avantages comparatifs » : chaque pays doit se spécialiser dans les productions pour lesquels il dispose d’avantages naturels par rapport aux autres productions et aux autres pays. Cette logique libérale se heurte aujourd’hui aux réalités sociales et environnementales, et va à l’encontre du principe de souveraineté alimentaire. A l’inverse, la France pourrait valoriser cette richesse en produisant la quasi-totalité des produits agricoles de base ; cette diversification, et notamment le recouplage entre les activités d’agriculture et d’élevage (que l’on appelle polyculture-élevage), est le fondement des systèmes agroécologiques. En cela, un modèle agroécologique est bénéfique sur le plan environnemental, possible techniquement et agronomiquement, mais également souhaitable du point de vue de notre souveraineté alimentaire. Un tel modèle cessera, par exemple, d’importer du soja OGM brésilien pour nourrir les animaux d’élevage français et européen, mais augmentera la production de protéines végétales à destination de l’alimentation humaine et animale. Un tel modèle cessera le dumping lié aux exportations d’importants excédents de blé à bas coût, indirectement mais for- tement subventionnés par la PAC, en Afrique de l’Ouest, avec des conséquences dramatiques sur les productions vivrières de ces pays.

J’ai mentionné précédemment d’un côté les leviers que l’Etat pouvait mobiliser, et de l’autre comment l’Union européenne pourrait réformer ses politiques agricoles pour soutenir un modèle agroécologique. Le soutien à la transformation agroécologique suppose de rompre avec la logique libérale des avantages comparatifs afin de privilégier la diversification des productions et la coopération internationale autant que de besoin. Cette agriculture écologique est une agriculture paysanne, qui valorise les connaissances et les savoir- faire des agriculteurs et des éleveurs, de concert avec les techniciens, les ingénieurs et les chercheurs. Cette transition suppose la création de centaines de milliers d’emplois dans l’agriculture et dans l’artisanat agroalimentaire, d’où l’importance de revoir profondément les objectifs et modes d’attribution des subventions de la PAC. Cela se planifie afin de mettre en cohérence un calendrier de sortie des pesticides, la reconstruction d’écosystèmes agricoles stables et diversifiés, la formation et l’installation de nombreux nouveaux paysans, etc. Il y a cependant urgence : d’ici 5 à 10 ans, nous aurons perdu la moitié des exploitants agricoles actuellement en activité. C’est donc une transition rapide qu’il nous faut opérer ; elle pourrait être soutenue, d’une part, grâce à la réorientation des subventions européennes, et d’autre part, par une intervention de l’Etat pour désendetter les paysans et adapter rapidement les structures agraires à cette nouvelle agriculture (partage du foncier, notamment).

IL Y A DE TRÈS NOMBREUSES RAISONS QUI PLAIDENT POUR UNE REPRISE EN MAIN PAR L’ETAT DE LA RÉGULATION DES MARCHÉS AGRICOLES.

Comment peut-on relocaliser et repartager la valeur ajoutée sur les filières agricoles ? Est-ce qu’un juste prix aux producteurs signifie une hausse des prix pour les consommateurs ?

La mondialisation des systèmes alimentaires a été rendue possible par le faible coût de l’énergie permettant le transport d’intrants et de matières premières agricoles sur des longues distances. Les effets pervers de cette mondialisation sont connus : perte de souveraineté alimentaire au Nord comme au Sud, chômage de masse, développement du productivisme agricole et déforestation, émissions croissantes de gaz à effet de serre.

Il est estimé que le système ali- mentaire mondial est responsable d’environ 50% des émissions de GES. La relocalisation de notre alimentation est autant un enjeu environnemental que démocratique. Ce projet rencontrera notamment l’opposition des grandes indus- tries agroalimentaires transnationales, qui sont aussi bien implantées au Nord qu’au Sud, et qui sont en situation d’oligopoles sur les marchés. Stratégiquement, nous devrons organiser la relocalisation et surtout la ré-atomisation de l’agroalimentaire français. Le rapport de négociation des prix entre les paysans et l’agroalimentaire doit être strictement encadré par la loi, avec la mise en place d’un coefficient multiplicateur limitant les marges des intermédiaires. La mise en place d’un prix minimum garanti rémunérateur (qui n’est ni plus ni moins que la traduction concrète de l’interdiction de vente à perte), l’encadrement des marges des intermédiaires, ainsi que la protection aux frontières contre les importations déloyales sont autant d’outils pour assurer le partage de la valeur ajoutée au sein des filières.

La question des prix payés par le consommateur est le grand argument avancé par les libéraux et par les défenseurs d’une agriculture industrielle cherchant encore à augmenter la productivité du travail et de la terre, faisant fi des graves problématiques environnementales et agronomiques sous-jacentes. L’existence de prix alimentaires faibles est la condition pour que le reste de l’économie (industrie et services) puisse maintenir les bas salaires à des niveaux parfois insuffisants pour vivre correctement. Ainsi, sans hausse générale des salaires, il apparaît que la hausse du prix de l’alimentation sera dramatique pour de nombreux ménages modestes, y compris en France, où déjà 12% de la population, soit 6 millions de nos concitoyens, sont en situation de précarité alimentaire. En cela, l’idée d’une Sécurité sociale de l’alimentation fait son chemin, et pourrait constituer une solution intéressante, notamment pour les produits tels que les fruits et légumes bio. Toutefois, il est notable que la forte volatilité des prix sur les marchés agricoles (des matières premières) ne conduit pas à une telle volatilité des prix sur les marchés alimentaires, qui sont, eux, plutôt stables. On parle souvent d’asymétrie dans la transmission des prix pour décrire ce phénomène : une variation des prix payés aux producteurs ne se transmet pas jusqu’au consommateur. De plus, en observant la composition des prix alimentaires, nous remarquons que pour de nombreux produits de première nécessité, comme le pain par exemple, la part du prix payé par le consommateur qui revient au producteur de blé est très faible, le reste du prix correspondant aux intermédiaires. Par exemple, un doublement du prix payé au producteur pour le blé tendre destiné à la fabrication de pain n’occasionnerait, à supposer que cette hausse soit totalement transmise au consommateur, qu’une hausse minime du prix de la baguette (+1,575€/mois pour l’achat d’une baguette de 250g par jour).

Cette diversification, et notamment le recoupage entre les activités d’agriculture et d’élevage est le fondement des systèmes agroécologiques.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?