Reconsidérer la dimension spatiale du social et de l’économique

L'État et les grandes transitions

Reconsidérer la dimension spatiale du social et de l’économique

L’urbanisme n’est aucunement neutre : si les élus ne projettent pas directement leur vision de la société sur la ville, cette vision participe à façonner la cité, lieu où se concentrent les hommes et les femmes et des activités diverses. Depuis quelques années, la reconquête des espaces urbains est un sujet en vogue. Cette idée, bien souvent présentée comme une modernité à l’encontre du futurisme et de ses villes géantes, a pris des formes concrètes dès les années 1970, ce fut par exemple le cas dans le cadre du communisme municipal manceau (Le Mans) entre 1977 et 1989. Dès leur arrivée aux commandes de la ville, Robert Jarry (le maire) et son équipe souhaitent limiter l’étalement urbain et densifier le maillage. Cette reconquête est celle du centre et de ses périphéries, une reconquête au singulier puisque ces deux espaces ne sont pas pensés en concurrence, mais comme répondant à un équilibre au sein de la ville. Limiter la concurrence entre les espaces urbains doit permettre le développement de chacun et une limitation de la ségrégation socio-spatiale. Sans utiliser l’histoire comme modèle ou repoussoir, un retour en arrière permet de replacer dans le temps long quelques problèmes rencontrés par les villes et des stratégies pour y faire face.
« La morphologie entre la matière et le social(1) »

Les politiques sociales étant protéiformes, que cela soit dans leur nature ou dans leur matérialité, l’appréhension de l’espace peut être une démarche salutaire à la reconstruction d’une République sociale, émancipatrice et écologique.

Dans notre exemple, l’aménagement du territoire doit avant tout être empreint d’un caractère social : prendre d’abord — mais pas seulement — en compte ceux qui ont été les victimes d’un sous-équipement. Le terme « victime » est un choix de vocabulaire très intéressant, au-delà de l’aspect tribunitien, il montre que la ville est vécue et qu’elle peut être subie. Ainsi, l’expression du géographe Marcel Roncayolo « La morphologie entre la matière et le social(2)» prend tout son sens : l’aménagement d’une ville relève bien sûr de la matière et de l’espace, mais aussi, et peut-être surtout, du social puisqu’elle est un lieu de vie. Une vie qui est à la fois quotidienne, économique, de loisirs, de travail ou encore de déplacements, les élus se donnent pour mission de repenser l’existant en fonction des besoins, non pas de conquérir l’espace.

La morphologie sociale

S’intéresser aux composantes sociales de la morphologie d’une ville n’implique pas un désintérêt des formes, au contraire, c’est précisément penser les formes à travers l’histoire politique, économique et sociale de la ville. Les formes de la cité sont ici des objets relevant du social. Il serait vain d’analyser les ensembles forgés par les voies, le parcellaire et le bâti indépendamment de la société en étant à l’origine d’un point de vue historique ; tout comme il serait stérile de les concevoir en dehors de la société que l’on souhaite construire d’un point de vue politique. En d’autres termes, que disent les formes matérielles de la société et de ses phénomènes ? Le terme « forme » est à comprendre de manière large. Comme Maurice Halbawchs, nous comprenons à la fois les formes naturelles et les formes intentionnellement construites et situées, elles sont à concevoir comme évolutives. La société ne se construit pas en dehors des formes, ce n’est pas une fois que les questions sociales sont tranchées que nous projetons la société dans l’espace, les formes sont parties prenantes des réflexions. Il semble que nous ayons aujourd’hui besoin de re-clarifier notre rapport à l’espace, que cela soit dans sa dimension environnementale, économique, sociale ou temporelle.

Habiter pour donner forme à la ville

Le domaine de l’habitation ne peut être limité au logement. Les divers bâtiments formant l’espace urbain sont habités par les hommes, pour autant ils n’y habitent pas nécessairement, c’est-à-dire qu’ils n’y constituent pas leur logis.

« Habiter serait ainsi, dans tous les cas, la fin qui préside à toute construction. Habiter et bâtir sont l’un à l’autre dans la relation de la fin et du moyen. Seulement, aussi longtemps que notre pensée ne va pas plus loin, nous comprenons habiter et bâtir comme deux activités séparées, ce qui exprime sans doute quelque chose d’exact ; mais en même temps, par le schéma fin-moyen, nous nous fermons l’accès des rapports essentiels. Bâtir, voulons-nous dire, n’est pas seulement un moyen de l’habitation, une voie qui y conduit, bâtir est déjà, de lui-même, habiter(3). »

Dès lors, construire est d’ores et déjà une manière d’habiter la ville puisque c’est un travail d’appréhension de la cité. D’ailleurs, buan (bâtir en vieux-haut-allemand) signifie habiter, la signification habiter du verbe bauen s’est perdue plus tard(4). L’étude linguistique d’Heidegger dans sa conférence « Bâtir, Habiter, Penser » explique que la manière dont nous sommes sur terre est le buan, soit l’habitation, et donc être sur terre c’est habiter. De plus, les constructions, c’est-à-dire le fait de bâtir et d’habiter la ville, font ressortir des éléments naturels et des fonctions de l’espace urbain. Ainsi, les choix d’aménagements faits par les élus mettent en exergue une vision de la société qu’ils désiraient construire, ce qu’ils souhaitent faire ressortir de la ville. En nous concentrant sur la forme (au sens large), nous visualisons un idéal. À l’heure d’une nécessaire remise en question de notre rapport à l’environnement et d’une lutte contre la hausse de la ségrégation sociale (qu’elle soit spatiale ou non), ré-apprendre à interroger notre action d’habiter peut être d’un grand secours. Si nous reprenons l’exemple du pont par Heidegger(5), nous comprenons que c’est par la construction de la ville que l’espace se crée et se forme : le pont reliant deux rives existantes ne fait pas que les relier, c’est par le pont que les rives ressortent en tant que rives puisqu’il les oppose l’une à l’autre. Si le lieu créé existe, c’est par le pont, ainsi, les espaces créés par les choix d’urbanisme des élus locaux existent par les aménagements répondant à des besoins sociaux-économiques de la population. Un espace est quelque chose qui est ménagé (6) à l’intérieur d’une limite, sachant que la limite ne veut pas dire là où quelque chose cesse, mais à partir de quoi quelque chose commence à être. Ainsi, les espaces sont par les lieux, qui sont eux-mêmes l’être de la chose bâtie, la morphologie de la ville peut donc être comprise par les constructions réalisées via les politiques d’aménagement des élus — sachant qu’elles répondent à des besoins économiques et sociaux — ; c’est-à-dire qu’ils ménagent des espaces et produisent alors la ville, il s’agit là du bâtir en tant que produire. Or produire l’espace est une manière de l’habiter, cela relève bien d’un comportement vis-à-vis de l’espace, un comportement trouvant ses sources dans l’élaboration d’un programme politique comprenant une vision de l’urbanisme très politisée dans notre exemple. L’urbanisme est un outil des politiques sociales et économiques menées par les élus. Et ce ne sont pas uniquement les constructions dans leurs formes qui font la ville, c’est leurs rôles, leurs fonctions et leurs usages par les populations qui participent alors à une construction de l’espace de la ville à la fois dans sa forme et dans son vécu par la société.

Maîtriser l’évolution sociale des espaces

Les politiques foncières menées par les élus relèvent des politiques d’aménagement de la ville, autant que des politiques économiques et sociales. La maîtrise du foncier permet d’anticiper la conception de l’espace, par leurs actions d’acquisition les élus se donnent la possibilité de modeler les espace acquis, de maîtriser la spéculation foncière de la ville et se dotent alors d’outils pour enrayer la ségrégation socio-spatiale et pour réintroduire de la mixité dans les fonctions urbaines des différents quartiers.

Dans les archives mancelles, des notes rédigées entre 1981 et 1983 précisent qu’il est nécessaire de mener une politique de réserves foncières plus agressive. Ce témoignage permet de recadrer le débat : lorsque les stratégies financières d’acquisition du foncier de sociétés et d’individus sont effectivement agressives au détriment du commun, une radicalité est nécessaire face à l’accaparement belliqueux de l’espace, sans quoi le droit à la ville sera l’apanage de quelques-uns.

Dans les années 1970 et 1980, les communistes revendiquent un droit à la ville et à l’habitat, mais aussi un droit au centre-ville, que cela soit pour y habiter — au sens de se loger — ou pour le pratiquer. Ce droit à la ville fait aujourd’hui écho avec le roman Les furtifs (2019) d’Alain Damasio. L’auteur y décrit des villes endettées privatisées qui pourraient être les nôtres dans quelques décennies, non forcément sous la forme de villes rachetées par des multinationales proposant des forfaits standard, premium ou privilège permettant d’accéder de manière inégale à la ville, mais parce que ces forfaits existeraient de fait par la ségrégation socio-spatiale et la hausse des inégalités.

Le besoin de logements abordables doit se faire dans une logique d’équilibrage, non seulement entre les villes pour que les villes déjà densément fournies ne soient pas celles qui en construisent le plus, mais aussi au sein même des villes afin de lutter contre le renforcement des frontières structurant la ville et séparant les habitants comme dans Les furtifs.

Dans notre exemple du communisme des années 1970-1980, la municipalité s’attache à développer les logements sociaux en centre-ville et dans les différents quartiers afin de freiner la hiérarchisation socio-spatiale de l’espace. Si cette idée apparaît comme une évidence, elle demande un véritable portage politique en raison des coûts plus élevés d’une telle opération dans le centre. Elle demande également un contrôle de l’évolution des loyers lors des opérations de réhabilitation afin que les populations en place ne se retrouvent pas rejetées en périphérie. L’objectif poursuivi est clair :  « rétablir un peu de justice dans la ville et ne pas laisser le centre être confisqué par des privilégiés de la fortune (7)».

La réponse de la municipalité va au-delà d’une forte de demande de logements sociaux, elle pense la répartition sociale de la ville, à la fois directement en implantant des logements sociaux dans le centre de la ville, mais aussi plus indirectement puisque leurs implantations participent à la limitation de la spéculation foncière dans ces quartiers. L’implantation spatiale des logements est un choix politique : soit nous répondons uniquement à une demande dans une démarche d’assistance et les plus pauvres devront se contenter du minimum, soit nous profitons du levier que représentent les logements sociaux pour réguler une forme de privatisation de l’espace favorable au développement des communautarismes.

À la reconquête de l’espace urbain

La reconquête de l’espace urbain, dans notre exemple, demande tout à la fois une limitation de l’étalement urbain, une densification du maillage et un développement de l’urbanité. Cette reconquête ne doit pas générer d’inégalités entre les territoires et les habitants, or le fait que la recherche d’urbanité passe par un développement du centre rend difficile l’annulation de toutes les externalités négatives pour les espaces périphériques.

L’espace du travailleur

Les constructions qui ne sont pas des logements sont malgré tout déterminées à partir de l’habitation, ce prisme se comprend dans les archives lorsqu’il s’agit de mieux placer les usines de production par rapport à l’habitation. Un des défis contemporains de la France est de réindustrialiser le pays, mais pas à n’importe quel prix. Si nous ne tenons pas compte des problèmes écologiques et sociaux, les premières victimes seront les travailleurs. La désindustrialisation n’étant pas nouvelle, des réflexions ont déjà pu être menées.

Le développement du télétravail a permis de questionner la durée de la journée de travail, et ce sur trois points essentiels : son allongement en raison de l’impossible déconnexion ; la place du temps de transport dans les villes modernes ; et enfin l’usage productiviste de l’espace urbain qui a détérioré le lien entre l’usager et son temps utile.

Parmi les avantages du télétravail, certains ont pointé du doigt la fin des longues et nombreuses heures de transport par semaine ; le temps de trajet est donc vécu comme une partie intégrante de la journée de travail. Dès lors, certains se sont précipités sur le télétravail pour en faire une solution miracle aux problèmes de l’éloignement entre habitation et lieu de travail. Or la proximité du travail n’est ici que numérique, elle peut donc être comprise comme illusoire. De nombreuses études et commentaires ont montré les conséquences délétères du télétravail pour les travailleurs, et tout particulièrement pour les travailleuses, nous ne reviendrons pas dessus. Plutôt que de choisir une réponse à portée de main, économique pour les employeurs, mais dont le coût social est lourd, l’arbitrage doit se faire à la faveur d’une meilleure répartition des emplois entre les territoires et dans les territoires.

Ces dernières années, les recherches et les réflexions sur l’équilibre des quartiers re-questionnant l’être de la ville se sont largement développées, elles ont même bénéficié des transformations de notre rapport à la ville durant la crise du Covid-19. 

Par exemple, la ville du quart d’heure, concept développé par Carlos Moreno, est une méthodologie territoriale qui vise à « changer nos modes de vies, à reprendre le contrôle, voire la possession de notre temps utile et prendre le temps de vivre (8)». Sont mis en lien le territoire, ses usages et le chrono-urbanisme afin de développer une ville polycentrique où les quartiers sont riches d’une mixité fonctionnelle. Six fonctions sont identifiées : habiter, travailler, s’approvisionner, se soigner, s’éduquer et s’épanouir. La relation entre le temps et la qualité de vie n’est pas née avec Carlos Moreno ; Clarence Perry au début du xxe siècle travaillait déjà sur la proximité. Au-delà des développements théoriques, les politiques municipales allant dans le sens d’un urbanisme d’équilibre, considérant donc la proximité et le temps comme des facteurs déterminants de l’aménagement urbain, ne datent pas du xxie siècle.

Dès les années 1970, le PCF et le PS dénoncent les problèmes de temps de transport pour se rendre au travail qui allongent les journées des travailleurs, tout particulièrement des catégories défavorisées. Si l’on additionne le temps de travail journalier au temps de transport, on obtient un total similaire à la durée de la journée de travail de la fin du xixe siècle, lorsque le travailleur logeait une faible distance de son travail. Le temps de travail baisse mais, dans le même temps, les mutations spatiales éloignent les travailleurs de leur lieu de travail, ainsi une partie du temps libre gagné est consacré aux transports. Le gain du travailleur est en partie volé.

L’une des réponses proposées est de mieux articuler les déplacements en fonction des zones résidentielles. En 1979, Robert Jarry déclare que la Ville doit affirmer la priorité aux transports en commun dans un souci de justice sociale. Puisque les inégalités de revenus entraînent une division de l’espace urbain — et ce malgré les politiques mises en place à l’échelle locale pour freiner ce phénomène —, les classes sociales les moins favorisées logent à une distance plus élevée du centre-ville. Ainsi, il apparaît nécessaire de desservir les grands ensembles des quartiers périphériques en offrant des dessertes par transports en commun à un rythme soutenu. Nous sommes en 1978, mais plus de 40 plus tard nous faisons toujours les mêmes constats et les mêmes appels. Il y a une recherche d’équilibre entre, d’une part le développement de la centralité accessible à chacun ; d’autre part la nécessité de rééquilibrer la répartition des services au sein de chaque quartier, tout en connectant les espaces entre eux. L’accent est davantage mis sur les transports collectifs que sur l’aménagement routier car il ne s’agirait pas d’une politique sociale si les inégalités de motorisation n’étaient pas prises en considération dans les possibilités de déplacement. Ainsi, la réponse à des besoins sociaux engendre des formes particulières de la ville. Il s’agit de s’attaquer aux inégalités socio-spatiales et à l’amélioration du cadre de vie des citadins puisque « les déplacements par les nuisances multiples qu’ils produisent, jouent un rôle prépondérant dans la dégradation de la qualité de la vie des citadins (9) », notamment la pollution engendrée par les déplacements.

Le rapprochement entre le travail et l’habitat passe également par des choix stratégiques concernant l’implantation des entreprises. L’objectif premier des communistes manceaux entre 1977 et 1989 est l’emploi. Dans les années 1970, les politiques privilégiant le plein emploi ont été mises en déroute. La décennie suivante, l’École de Chicago explique que la monnaie ne peut pas servir à relancer l’économie, il ne faut donc pas espérer une amélioration de l’économie par la relance monétaire. L’objectif prioritaire n’est plus le plein-emploi mais la désinflation, ainsi le plein-emploi apparaît comme un objectif dérivé dans les politiques économiques nationales. Entre 1977 et 1989 les communistes manceaux confrontés à la désindustrialisation et à la massification du chômage placent la défense de l’emploi comme l’objectif premier des politiques économiques locales. La municipalité croit en son rôle moteur, une conviction renforcée après les lois de décentralisation (1982-1983), sans pour autant prétendre être en capacité de résoudre la crise de manière globale. L’aménagement urbain, quel qu’il soit, est pensé pour favoriser l’emploi, cela est d’autant plus direct lorsqu’il s’agit de favoriser l’implantation d’entreprises.

Pour répondre à la ligne directrice « vivre et travailler au pays », ce qui signifie que les travailleurs doivent pouvoir rester au Mans et/ou ne pas se retrouver à parcourir de longue distance pour être employé, les élus doivent participer à l’implantation d’activités économiques. Ainsi, ils cherchent à encourager le développement d’entreprises dont les besoins en main-d’œuvre sont cohérents avec les formations disponibles sur place.

Dès la fin des années 1970, les acteurs mènent des actions intégrant la dimension spatiale de l’emploi : c’est le cas notamment avec la réintroduction d’unités de production non polluantes intégrées dans la ville. Les entreprises sont alors de tailles moyennes, s’enchevêtrent dans le tissu urbain existant et ne doivent pas nuire à la zone d’habitation.  Compris à la fois comme une nouvelle approche du secteur productif, mais également comme un nouveau rapport au travail, il s’agit alors de rapprocher l’usine du lieu de vie du travailleur afin d’améliorer sa vie quotidienne. Si nous sommes aujourd’hui dans une forme d’urgence en ce qui concerne la relocalisation de la production, il est indispensable d’anticiper sa dimension spatiale et sociale. Cela implique une articulation entre les besoins économiques, la qualité de vie des travailleurs et l’urbanité souhaitable.

De la même manière, les élus souhaitent implanter des logements dans les quartiers proches des zones d’emploi existantes.

Le droit au centre ne doit pas marginaliser les espaces périphériques

Penser le centre et sa reconquête n’est pas contradictoire avec la gestion des extrémités de la ville, il y a une complémentarité. Le centre est certes affirmé comme un lieu d’exception, de rencontres, d’échanges, de culture et d’animation, mais devant être partagé par tous et accessible à tous.

L’expression « franges périphériques » est à comprendre comme fraction de la population périphérique qui est marginalisée à plusieurs niveaux : spatial, économique et social, et qui a été délaissée par les municipalités précédentes. Dès lors, ce terme nous renvoie aux marges urbaines qui sont dénigrées en raison des sols, des constructions (usines, chemins de fer, faible qualité de l’habitat) ainsi que par la sociologie des habitants. Pour valoriser les périphéries, l’équipe communiste de 1977 opte pour l’urbanisme d’équilibre. Il se concrétise dans la mixité de l’habitat (collectif et individuel, locatif et accession à la propriété) et des équipements afin de réduire la ségrégation sociale sans pour autant accroître l’étendue du tissu urbain, puisque cela passe par une restructuration des franges de la ville.          

L’urbanisme d’équilibre se traduit également par la réflexion sur l’implantation de logements dans les zones d’activités. Bien entendu cela concerne les activités constituant des zones propices à l’habitat. Doivent alors également s’y développer des écoles, des commerces et des services essentiels. Lorsque ni la zone d’activité, ni la zone d’habitat existe, mais que l’implantation d’entreprises ou d’administrations est prévue, il s’agit de ne pas les isoler et de les inclure dans un projet multifonctionnel. Cependant, cela demande des concessions que les élus ne peuvent pas toujours faire : réduire l’espace disponible au développement des entreprises au sein d’un même lieu.

L’urbanisme d’équilibre se dessinant dans les politiques urbaines mancelles rappelle que la ville est, certes, un ensemble d’agencements matériels, mais qu’elle ne peut se réduire ni à cela ni à ses fonctions. En effet, la ville, comme le rappelle Marcel Roncayolo (10), abrite une population possédant des caractères sociaux, ethniques, démographiques et elle forme une ou des collectivités. De plus, le sol est marqué par l’historique du parcellaire qui se comprend alors selon sa morphologie, son type de propriété, son usage, ses contacts, sa valeur sociale ou encore sa valeur foncière.

Bien que les défis contemporains ne soient pas ceux des années 1970 – 1980, replacer l’humain et ses activités dans l’espace est une méthode utile à l’heure d’une nécessaire réindustrialisation. Elle incite à ne pas oublier les dimensions sociale et environnementale des activités économiques et elle nous aide à mieux définir notre contrat social.

Références

(1)Roncayolo M., « Chapitre 11 La morphologie entre la matière et le social » dans Roncayolo M.  Lectures de villes. Formes et temps, 2002, Marseille : Editions Parenthèses, p. 161-179.

(2)Roncayolo M., « Chapitre 11 La morphologie entre la matière et le social » dans Roncayolo M.  Lectures de villes. Formes et temps, 2002, Marseille : Editions Parenthèses, p. 161-179.

(3)Heidegger M., « Bâtir habiter penser » (1954) dans Heidegger M.,  Essais et conférences, 1980 (réédition), Paris : Gallimard, p. 171.

(4)Heidegger M., « Bâtir habiter penser » (1954) dans Heidegger M.,  Essais et conférences, 1980 (réédition), Paris : Gallimard, p. 173 -174.

(5)Ibid, p. 180.

(6)Ibid, p. 187.

(7)Archives municipales, carton VDM 391W11, document du cabinet du maire du 5 mai 1982 à propos des 81 logements sociaux rue des Filles-Dieu.

(8)Moreno C., « Vivre dans nos métropoles : la révolution de la proximité », Constructif, volume 60, n°3, 2021, p. 75-78.

(9)Archives municipales, carton VDM 391W11, Déclaration du Maire sur les transports en commun et la place des deux roues et des piétons dans la circulation en ville, Le Mans, le 27 septembre 1979, Conseil municipal.

(10)Roncayolo M., « Chapitre 1. La ville : durée ou changement ? » dans Roncayolo M., Lectures de villes. Formes et temps, 2002, Marseille : Editions Parenthèses.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

La faillite intellectuelle d’Emmanuel Todd (2/2)
The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)

Anicet Le Pors, une vie au service de l’intérêt général (2/3) : propriété et fonction publique

L'État et les grandes transitions

Anicet Le Pors, une vie au service de l’intérêt général (2/3) : propriété et fonction publique

Entretien
Suite de notre grand entretien avec Anicet Le Pors, après une première partie consacrée à son parcours politique hors du commun, de la météo au Conseil d’Etat après avoir été ministre, nous entrons dans le vif des thèmes qui lui sont chers. L’occasion de revenir sur les grandes nationalisations de 1981 et le concept de propriété publique. Mais aussi de comprendre en profondeur ce qu’est la fonction publique, de se remémorer son histoire récente pour mieux réfléchir ensemble à son actualité au XXIe siècle.
LTR : Le concept de propriété publique fait partie des concepts que vous évoquez régulièrement en affirmant que le pouvoir se trouve là où se trouve la propriété publique ? Pouvez-vous nous en dire plus ?
Anicet le pors : 

La notion de propriété a une histoire. En droit romain, la propriété se définit par l’usus, l’abusus et le fructus (utiliser un bien, en retirer les fruits, pouvoir en disposer). Cette notion a joué un rôle positif durant la Révolution française en permettant à des citoyens nouveaux d’accéder à la propriété. La notion de droit de propriété est une dimension de la citoyenneté qu’on retrouve en deux endroits de la Déclaration des droits de l’homme et du citoyen (DDHC). A l’article 1 tout d’abord, « Les hommes naissent et demeurent libres et égaux en droits. Les distinctions sociales ne peuvent être fondées que sur l’utilité commune. », et surtout dans l’article 17 qui tisse un lien très clair entre propriété privée et propriété publique : « La propriété étant un droit inviolable et sacré, nul ne peut en être privé, si ce n’est lorsque la nécessité publique, légalement constatée, l’exige évidemment, et sous la condition d’une juste et préalable indemnité. » Ainsi la propriété publique apparaît comme une contrainte de la propriété privée et ce au nom de la nécessité publique. La propriété est donc un facteur d’émancipation mais dès 1789 elle rencontre une limitation : celle de la nécessité publique.

Toute la jurisprudence qui va se développer par la suite, notamment à partir du Conseil d’État, va faire ressurgir périodiquement cette question avec des positions qui vont varier chez les uns et chez les autres. Longtemps la CGT a été opposée aux nationalisations et ce pour deux raisons : d’une part parce que les nationalisations étaient perçues comme des béquilles pour le capital et ensuite parce que ces dernières auraient été une réponse à la loi du marxisme sur la baisse tendancielle du taux de profit qu’il fallait laisser s’écrouler plutôt que secourir.

On retrouve également cette affirmation de la prégnance de la propriété publique au 9e alinéa du préambule de la Constitution de 1946 : « Tout bien, toute entreprise, dont l’exploitation a ou acquiert les caractères d’un service public national ou d’un monopole de fait, doit devenir la propriété de la collectivité. » C’est sur le fondement de cette disposition que les nationalisations d’après-guerre, dont la portée politique a pu être brouillée du fait de la collaboration de certaines entreprises, ont permis de développer un secteur public dont l’influence positive dans le processus de reconstruction de la France et des capacités d’action de l’État est indéniable.

Durant les années 1960-1965, le PCF théorise la notion de capitalisme monopoliste d’État, ce qui signifie que l’on est arrivé à un stade où se constitue un mécanisme qui allie la puissance de l’État et celle des monopoles. Nous avons déduit, en ce qui nous concerne, qu’il fallait accorder une attention particulière à la notion de propriété publique, qu’il fallait enrichir pour ne pas se contenter de considérer le service public comme simple monopole de fait. Il fallait lui redonner une « épaisseur » sociale, plus importante. C’est pour cela que, dans le programme commun, et je pense y avoir contribué pour l’essentiel, nous avons retenu 4 critères :

  • Les monopoles de fait ;
  • Le caractère de service public ;
  • Les entreprises bénéficiant de fonds publics ;
  • Les entreprises dominant des secteurs clés de l’économie.

 Nous avons réussi à convaincre le Parti Socialiste qu’il ne fallait pas se contenter d’une vision mécanique de la domination (comme la théorie du capitalisme monopoliste d’État le laissait sous-entendre) mais qu’il fallait en avoir une vision stratégique. Dans mon ouvrage les béquilles du capital, dans lequel j’entreprends de critiquer justement la vision réductrice de la théorie du capitalisme monopoliste d’État, c’est justement ce que j’essaye de montrer.

Nous avons réussi donc, à nous convaincre d’abord du bienfondé des nationalisations et également d’en convaincre le Parti Socialiste. Les discussions, néanmoins, ont été âpres et longues puisqu’ils avaient une approche des nationalisations essentiellement financière là où notre approche était une approche « réelle » pour ainsi dire. Nous pensions qu’un bien exproprié par la puissance publique n’était pas divisible, et qu’une nationalisation partielle aurait immanquablement créé une situation hybride, puisque l’entreprise aurait ainsi conserve le caractère marchand que son entrée dans la sphère du service public devait justement annihiler.

Cette question financière donne lieu à un Conseil des ministres épique, en 1981 à Rambouillet, et nous pensons à l’époque, nous les quatre ministres communistes du Gouvernement, que la partie est jouée puisque Mitterrand n’avait jamais été un fervent défenseur des nationalisations. A notre grande surprise le projet de loi présenté en conseil des ministres nous donne satisfaction. Mitterrand ouvre la discussion et interviennent alors des poids lourds du Gouvernement : Pierre Dreyfus qui était ministre de l’Industrie, Robert Badinter, Garde des sceaux, Jacques Delors, ministre de l’Économie et des Finances, Michel Rocard ministre du Plan et de l’Aménagement du territoire, qui tous témoignent leurs réserves – et c’est un euphémisme – sur le sujet des nationalisations totales. A la suite de cela, Jean-Pierre Chevènement intervient pour dire que le projet est moins ambitieux qu’imaginé mais qu’il s’y range, que ça lui convient. Nous avions décidé au préalable, côté communiste, que ce serait Fitterman [Charles Fitterman, alors ministre des Transports et numéro 2 du PCF, ndlr] qui interviendrait en notre nom. Il intervient pour dire que le projet lui convient. Mitterrand avait donc trouvé un point d’équilibre et nous sommes sortis satisfaits. Et, si vous voulez, c’est pour cela que j’en veux tant à Jospin qui est celui qui a vraiment privatisé.

LTR : Comment analysez-vous l’échec des nationalisations de 1981 ?
Anicet Le Pors : 

Avant de vous répondre, je voudrais juste revenir sur les faits : la loi du 11 juillet 1982 sur les nationalisations n’a pas résisté au tournant libéral de 1983. Les formations politiques qui avaient fait des nationalisations un enjeu central ont été surprises et ont tenté de comprendre pourquoi il n’y avait pas eu de réaction par la suite. A mon sens, la réponse tient en deux points : d’une part, si la partie centrale de l’opération, la partie juridique, a été bien menée, les finalités ont, en revanche, disparu très rapidement, dès le printemps 1983, ce qui a d’ailleurs provoqué le départ de Chevènement. Lorsque vous justifiez une nationalisation par la volonté de changer de cap, par la volonté de changer la logique de développement et de mettre en œuvre de nouveaux critères de gestion, et que finalement, vous supprimez ces finalités, alors vos nationalisations n’ont plus de sens. D’autre part, il fallait un soutien fort des salariés des entreprises, des travailleurs, et nous ne l’avons pas eu. Nous ne l’avons pas eu parce que la mise en application des lois Auroux, qui redonnaient du pouvoir aux salariés, s’est étalée sur la première partie du septennat et donc les travailleurs n’ont jamais été en mesure de se saisir de ces lois. La loi de démocratisation du secteur public date du 26 juillet 1983, après le tournant libéral ! Et donc une loi qui aurait pu être décisive – encore aurait-il fallu que les salariés eux-mêmes aient une conscience forte des enjeux – pour soutenir les nationalisations est arrivée trop tard, après le tournant de la rigueur.

On aurait pu faire un bilan de l’échec des nationalisations de 1981 mais personne ne l’a fait, c’est resté un sujet tabou, une blessure pour le PCF qui n’a plus voulu courir le risque d’être accusé de soviétisme et d’étatisation.

LTR : Vous parlez des « finalités » qui présidaient aux nationalisations, changer de cap, changer de modèle de développement et de critères de gestion, qui ont disparu après le tournant libéral de 1983, par quoi ont-elles été remplacées ?
Anicet Le Pors : 

Il aurait justement fallu les remplacer par quelque chose ! La notion de finalité était déjà présente dans chacun des plans mis en œuvre sous De Gaulle : plan de calcul, plan sidérurgie qui a permis de redresser une filière entière, plan nucléaire. Il y avait là des amorces de finalité. Mais après 1983, il n’y avait plus de finalités.

Par exemple, des économistes du PCF comme Philippe Herzog avaient bien tenté d’évoquer les finalités, en théorisant notamment la notion de « nouveaux critères de gestion » afin de renverser la logique capitaliste qui place le profit financier comme seule finalité, et de montrer que ces nouveaux critères de gestion permettent justement d’être plus performant que des entreprises appliquant les critères de gestion propres à la logique libérale. Mais c’est arrivé trop tard et n’a jamais pris parmi les travailleurs, c’était trop théorique.

Tout cela reste à inventer aujourd’hui encore, mais c’est devenu plus difficile qu’à l’époque du Programme commun et ce pour une raison très simple : la mondialisation elle-même. Il faudrait aussi une politique ambitieuse d’internationalisation dans le domaine public, c’est-à-dire de coopération entre des secteurs publics étrangers pour promouvoir ce modèle. Cela existe aujourd’hui, par exemple dans le secteur des transports, mais ce devrait faire l’objet d’une véritable politique volontariste. Ce fut aussi une des limites que nous avons rencontrées : nous avions gardé une vision trop hexagonale sans prendre la mesure du poids, déjà à l’époque, de la mondialisation. Je me souviens d’une réunion durant laquelle le PS défendait l’idée que les exportations ne devaient pas représenter plus de 25% du PIB ! Et je défendais justement, contrairement aux idées reçues, l’idée qu’il ne fallait pas mettre de limitations aux exportations… Vous voyez bien qu’il n’y avait pas de réelle prise en compte ni de réflexion sérieuse sur ces enjeux.

LTR : Après la propriété publique, nous voudrions évoquer la question de la fonction publique. Dans votre réflexion sur cette notion essentielle vous opposez le fonctionnaire sujet au fonctionnaire citoyen, quelle est ici la différence ?
Anicet Le Pors : 

Il y a une phrase que j’emprunte à Michel Debré : « le fonctionnaire est un homme du silence, il sert, il travaille et il se tait. » C’est là la définition même du fonctionnaire sujet et lorsqu’on m’a demandé ce que j’entendais faire, comme ministre de la Fonction publique, lorsque je préparais la loi sur la fonction publique, [loi portant droits et obligations des fonctionnaires du 13 juillet 1983, dite « loi Le Pors », ndlr] je disais justement que je voulais faire l’inverse, le fonctionnaire citoyen !

J’ai veillé, dans la préparation du statut des fonctionnaires, à ce qu’il n’y ait pas d’expression comme « pouvoir hiérarchique » ou « devoir d’obéissance » ou « devoir de réserve ». Ces choses-là existent bien entendu, mais j’ai refusé qu’on les écrive car cela aurait servi de point d’appui pour une conception autoritaire.

Le fonctionnaire citoyen c’est au contraire celui qui est responsable ! Il y a quatre piliers, qui se traduisent par les quatre propositions de l’article 28 de la loi, pour définir ce qu’est le fonctionnaire citoyen :

  • « Le fonctionnaire est responsable de l’exécution des tâches qui lui sont confiées ».
  • « Il doit se conformer aux instructions de ses supérieurs hiérarchiques »
  • « Sauf ordre manifestement illégal ou de nature à compromettre gravement un intérêt public ».
  • « Il n’est dégagé d’aucune des responsabilités qui lui incombent par la responsabilité propre de ses subordonnés ».

Donc les fonctionnaires ont toujours une marge de manœuvre pour accomplir leurs missions, ils se conforment mais ils ne doivent pas obéissance aveugle ! Ils peuvent même désobéir mais, en ce cas, ils prennent leur responsabilité si jamais ils désobéissent à mauvais escient. La dernière proposition signifie que le fonctionnaire est responsable de ses actes mais également des actes commis par ceux dont il est le supérieur : le préfet est responsable de son action mais aussi de celle des sous-préfets, l’ambassadeur est responsable des consuls etc.

LTR : Sur la fonction publique il y a trois thèmes qu’on retrouve dans le débat public, fortement influencé par la pensée libérale, et que nous souhaiterions aborder : la place de la contractualisation, la mobilité entre public et privé et la notion de performance. Sur la notion de contractualisation, est-ce qu’il n’y a pas une place pour la contractualisation au sein de l’Etat, comme cela se fait aujourd’hui dans l’armée où la majorité des militaires du rang sont des contractuels et les cadres des fonctionnaires ?
Anicet le pors : 

Vous savez il y a toujours eu dans le statut des dispositions prévoyant l’embauche de contractuels pour les raisons que vous évoquez : il y a des travaux saisonniers, la compensation de l’imprévision administrative qui doit parfois répondre à un besoin qui surgit soudainement.

L’enjeu est justement de ne pas laisser échapper les emplois permanents au sein de l’administration, qui doivent être occupés par des fonctionnaires et cela pour plusieurs raisons : d’abord parce que cela permet d’avoir une meilleure assurance de leur intégrité, ensuite parce que le principe méritocratique de recrutement sur concours permet d’avoir de solides garanties sur leur intégrité, enfin parce que cela permet de mener des politiques de long terme et non uniquement des missions et des projets ponctuels et temporaires.

Finalement la présence de fonctionnaire, qui s’inscrivent dans le temps long, permet de développer une vision plus conforme à ce qu’est la fonction publique et que je définis d’ordinaire par la reconnaissance de trois réalités : 1 : la fonction publique est une réalité collective ce qui rejoint la question de la responsabilité que nous avons évoquée, de la mutualisation et du travail en équipe ; 2 : la fonction publique est une réalité structurée, ce qui signifie que sa nécessité est consacrée par le temps, qu’il y a donc besoin de construire un ordre pour préserver des structures qui s’inscrivent dans une certaine permanence ; 3 : la fonction publique est une réalité de long terme, ce qui justifie en retour l’existence de structures, et la gestion du long terme implique une certaine prévisibilité pour pouvoir gérer et anticiper les besoin futurs pour s’y adapter, c’est à cela que sert aussi l’INSEE et la statistique publique.

Donc vous voyez bien qu’en application de cette triple réalité, collective, structurée et de long terme, il y a une place justifiée pour les contractuels mais une place restreinte au vu des buts poursuivis. C’est d’ailleurs symptomatique de voir la ministre de la Fonction publique, Amélie de Montchalin, justifier le recrutement de contractuels parce qu’il faut remplir des missions ponctuelles, des projets. A mes yeux,  c’est justement le problème, il manque une vision du temps long au-delà des projets. Et puis il y a une question éthique qui se pose : certes nous n’avons pas à les former, mais nous ne connaissons pas leur carnet d’adresse, ce qu’ils ont fait avant et où ils iront après…

LTR : Cela nous amène au deuxième thème : la mobilité publique / privée, je voudrais recueillir votre avis sur le sujet. Au-delà des impératifs déontologiques, de la prévention du conflit d’intérêts, il peut y avoir un intérêt, pour la fonction publique, à permettre la mobilité publique-privée, ne pensez-vous pas ?
Anicet le pors : 

Vous savez, je vais vous répondre en deux mots, en prenant l’exemple de la mobilité, dans son ensemble. Je pense avoir, à ce titre, donné l’exemple en passant 62 ans dans la fonction publique au sens large : j’ai été successivement ingénieur à la météo nationale, économiste au ministère des Finances, j’ai exercé des mandats politiques au niveau national, des fonctions exécutives au Gouvernement puis j’ai été juriste au Conseil d’Etat et Président de chambre à la cour nationale du droit d’asile, donc j’ai fait la démonstration de la mobilité.

J’ai fait écrire dans le statut des fonctionnaires, à l’article 14, que la mobilité était une garantie fondamentale. Si l’on est fonctionnaire et que l’on aspire à la mobilité, commençons donc par le faire là où on se trouve, si on est en administration centrale, on peut vouloir aller dans les services extérieurs. On doit permettre à des fonctionnaires de l’État de faire un passage dans la fonction publique territoriale ou hospitalière ou bien en entreprise ou organisme public par voie de détachement sans limite de durée. Si on réalise déjà la mobilité dans cet ensemble-là, dans la sphère publique, on répond en partie à la demande de mobilité qui peut légitimement s’exprimer.

Quant à la question de la mobilité publique-privée, celle-ci n’est pas exclue, les gens peuvent se faire mettre en disponibilité pour six années et au bout de cette période ils peuvent démissionner s’ils le souhaitent.

Il y a un livre intéressant de Laurent Mauduit, La caste, dans lequel il analyse le phénomène classique du pantouflage(1) au sein de l’Inspection générale des finances (IGF). Il montre que ce qu’il y a de nouveau c’est le phénomène de rétro-pantouflage, c’est-à-dire des inspecteurs des finances qui vont dans le secteur privé, se font un carnet d’adresses, et reviennent ensuite au sein de leur administration publique. Il y a donc un phénomène de captation de l’action publique. Il y a donc là un jeu de va et vient dont on ne pas dire qu’il soit très sain tout de même. Alors on peut réfléchir à élargir la durée de la mobilité au-delà de six années. Vous savez qu’il y avait même eu, à l’époque, un article de Bernard Tricot – ancien conseiller d’État – qui voulait interdire à des fonctionnaires ayant effectué plus de deux mandats parlementaires de réintégrer leur administration centrale !

On peut poser ces questions sur la mobilité publique-privée, mais il faut des garanties sur l’intégrité du fonctionnaire ainsi que sur l’intégrité des entreprises en question.

Références

(1)Le pantouflage est une pratique qui consiste, pour des hauts fonctionnaires dont les études ont été financées par l’État (dans des écoles tel que Polytechnique ou l’ENA), à quitter le secteur public pour rejoindre des entreprises privées, les entreprises privées rachetant à l’État, par une compensation financière, les années de service dues par le fonctionnaire à l’État, c’est ce que l’on appelle racheter « la pantoufle », d’où l’expression.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

La faillite intellectuelle d’Emmanuel Todd (2/2)
The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)

Les nouveaux oracles : comment les algorithmes prédisent le crime ?

L'État et les grandes transitions

Les nouveaux oracles : comment les algorithmes prédisent le crime ?

Entretien avec Vincent Berthet et Léo Amsellem
Comment établit-on des modèles prédictifs ? Comment les algorithmes sont-ils utilisés dans les domaines de la justice, de la police et du renseignement ? Quels sont les biais et les risques inhérents à une telle utilisation ? Enfin, quel impact les algorithmes prédictifs ont-ils sur notre système démocratique ? C’est à toutes ces questions que tente de répondre l’excellent ouvrage de Vincent Berthet et Léo Amsellem “Les nouveaux oracles, comment les algorithmes prédisent le crime ?”. Pour Le Temps des Ruptures, ils reviennent sur tous ces enjeux et tracent un nouveau compromis entre utilisation efficace et protection des libertés publiques.
LTR : A la lecture de votre ouvrage, la prégnance du champ lexical de la mythologie saute rapidement aux yeux. Vous parlez effectivement de nouveaux oracles, de différenciation entre mythe et réalité, de devins, etc… Considérez-vous que votre première tâche en tant que chercheurs et auteurs consistent à déconstruire le sensationnalisme qui peut entourer l’intelligence artificielle ?
L.Amsellem :

Absolument. On a joué autour de cet aspect littéraire. La volonté qui nous anime lors de l’écriture de cet ouvrage c’est de déconstruire l’ensemble des mythes qui existent autour des algorithmes. Il s’agissait de démystifier. C’est le rôle d’un chercheur, de celui qui veut s’inscrire dans un cadre de débat sérieux et sain. Et finalement on s’est rendu compte que les nouveaux oracles représentaient en réalité la crainte de ceux qui les rejettent de voir se former des “boules de cristal” prédictives. On a cherché à descendre d’un cran, à dégonfler cette bulle qui entoure l’IA pour regarder la réalité des systèmes qui y sont liés et leurs effets concrets.

LTR : L’axiome principal de la justice prédictive est de considérer que les comportements humains sont essentiellement prévisibles. N’y-a-t-il pas une forme de réductionnisme là-dedans ? Par ailleurs, cela s’oppose fondamentalement à l’idée démocratique selon laquelle les individus sont souverains et responsables de leurs actions.
V.Berthet :

Tout à fait. Les algorithmes prédictifs réveillent un vieux projet qui relève à la fois des sciences sociales et des sciences physiques qui est celui de la prédiction. Dans le livre nous parlons notamment de l’école de sociologie de Chicago et qui est l’exemple même de ce rêve. Leur approche des comportements humains passe par une quantification de ces derniers afin de mieux les prévoir. Les algorithmes prédictifs réactivent cette idée en exploitant la formidable opportunité que constitue le big data et la disponibilité des données massives. Or la question aujourd’hui est de savoir si le big data introduit un changement de degré ou un changement de rupture par rapport à ce projet de prédiction. A l’heure actuelle, étant donné les limites mentionnées plus haut, on peut dire qu’il y a uniquement un changement de degré dans le sens où les imperfections sont encore trop grandes pour parler de véritable rupture. On est très loin d’une prédiction parfaite et heureusement. Cela permet de préserver le libre arbitre du citoyen. Adolphe Quetelet au XIXe siècle avait déjà ce projet de quantifier les comportements humains.

LTR : Cette déconstruction du mythe vous la menez également sur le terrain de la critique technique. L’idée selon laquelle l’ère de l’IA et du big data se manifeste par la toute puissance des algorithmes en matière de prédiction vous semble fausse. Pouvez-vous revenir sur ce point ? Quelles sont les critiques régulièrement admises à ce sujet ?
V.Berthet :

Exactement. Aujourd’hui, on survend les capacités des algorithmes prédictifs. Les études publiées dans la revue Science notamment montrent qu’en réalité des modèles statistiques simples font aussi bien que les modèles prédictifs considérés comme complexes. L’exemple le plus patent de cela c’est une étude publiée en 2018 dans Science advances a décortiqué le fameux logiciel Compas utilisé dans de nombreuses juridictions américaines afin de prédire le risque de récidive de détenus et de non-comparution. En réalité, la société privée qui commercialise ce logiciel met en avant les capacités de ce dernier à analyser 137 facteurs. Mais dans les faits, l’étude de Science montre qu’un simple modèle d’analyse de 2 facteurs atteint le même niveau de précision que Compas. Ces algorithmes n’échappent donc pas à la règle de Pareto : l’essentiel de la performance prédictive relève en réalité de modèles statistiques très simples, notamment de régression, qui existaient bien avant l’avènement de l’IA. Voilà la première limite technique.

La deuxième limite est celle des potentiels biais qui peuvent affecter ces algorithmes. C’est en effet la base de données renseignée qui va alimenter les prédictions. C’est ce que résume la formule “Garbage in garbage out”. Aujourd’hui, quand ces logiciels sont vendus par des sociétés privées, rien ne garantit les conditions éthiques des bases de données qui sont exploitées.

LTR : C’est ce que vous dites également au sujet de Cambridge Analytica. Par ailleurs, aux Etats-Unis, la police utilisait l’IA (notamment le logiciel Predictive Police) afin de prévenir les crimes et délits. L’utilisation de ce logiciel a été interdite en raison des nombreux biais qu’il introduisait. Loin de prévenir les crimes et délits comme il était censé le faire, Predictive Police a participé à discriminer certains quartiers et certaines populations et à les prédisposer à commettre des délits et des crimes, permettant la réalisation d’une “prophétie autoréalisatrice”. Comment peut-on expliquer l’apparition de tels biais et comment les éviter ?
L.Amsellem :

Le logiciel dont il est question est celui qu’on appelle généralement PredPol. On ne peut pas dire que PredPol introduit des biais, en revanche il s’en nourrit à travers la base de données qui l’alimente. Ce qui signifie qu’à l’origine des données enregistrées il y a une action de police qui est biaisée ou bien une façon de récolter les statistiques de la délinquance qui l’est. En construisant un algorithme basé sur ces éléments de données on aboutit à une situation qui est discriminatoire. C’est une critique émise notamment par la chercheuse Cathy O’Neil dans son ouvrage Weapons of math destruction. Elle montre qu’avec la construction d’un algorithme sur des données biaisées, le risque n’est pas seulement de reproduire le biais mais bien de le répliquer à grande échelle. C’est ce qu’on constate aux Etats-Unis, notamment du fait de la ségrégation socio-spatiale qui existe dans ce pays.

PredPol n’a en revanche pas été interdit. Ce sont certaines villes qui ont décidé (notamment Los Angeles) de rompre leur contrat avec la société privée qui le commercialise. La question de savoir comment on évite l’apparition de tels biais est très compliquée. Cela nécessite de mettre en place un filet de sécurité tout au long du développement de l’algorithme : dès l’enregistrement des données. C’est ce que montre Aurélie Jean
(1)
, qui rappelle deux moyens de répondre à cette situation : toujours accompagner l’algorithme d’une expertise humaine (“human in the loop”), promue par Sara Hooker ; mettre en place un système d’autoévaluation tout au long de l’utilisation et du développement, voire dès le codage de l’algorithme, permettant d’identifier le plus tôt possible les biais.

LTR : Vous évoquez également dans votre ouvrage l’idée selon laquelle l’usage d’algorithmes prédictifs au sein de l’appareil judiciaire peut venir remettre en cause le principe d’individualisation de la peine. A l’inverse, il accentue la subsomption de cas particuliers sous une règle générale.
V.Berthet :

C’est effectivement une des questions de fond que pose l’utilisation de statistiques dans le cadre de la justice. Il y a un paradoxe : au début du XXe siècle, l’approche quantitative a été mise en oeuvre afin d’éclairer les décisions de justice et l’un des motifs donnés était justement de mieux connaître le criminel. Les statistiques pouvaient venir éclairer le cas individuel. D’ailleurs c’est ce que font les assurances dans la logique actuarielle. Paradoxalement, une fois qu’on utilise ces statistiques afin d’éclairer un cas d’espèce, on a l’impression que cette pratique contrevient au principe fondamental d’individualisation de la peine. Ce qui est vrai dans une certaine mesure. On a l’écueil possible de faire tomber chaque cas individuel dans la règle statistique. D’un autre côté, cette dernière peut éclairer des cas individuels.

Il y a néanmoins une limite de fond que présenteront toujours les outils statistiques : c’est ce qu’on appelle la critique de la jambe cassée. Dans les années 1960, un chercheur américain qui s’appelle Paul Meehl nous dit que si on utilise une règle mécanique (par exemple : tous les mardis tel individu se rend au cinéma), celle-ci peut se révéler vraie la plupart du temps ; mais si un jour l’individu en question se casse une jambe et ne peut pas aller au cinéma, la règle devient fausse. En d’autres termes, la règle statistique est statique, elle ne peut pas s’adapter au cas d’espèce. L’humain à l’inverse sera moins régulier que la règle statistique mais il peut s’adapter aux particularités lorsqu’elles se produisent. L’enjeu est donc de trouver le bon équilibre: avoir d’un côté la consistance de la règle statistique et de l’autre la capacité d’adaptation de l’être humain. Et donc dans le cas de la justice d’arriver à individualiser le cas que l’on traite.

LTR : Est-ce qu’il n’y a pas néanmoins une limite à la complémentarité entre algorithmes et raisonnements humains ? Les magistrats en France doivent remplir des tableaux statistiques, notamment le juge pénal, permettant d’évaluer leur activité. Quid d’une situation où des magistrats jugeraient dans un sens opposé à celui de l’algorithme et commettraient une erreur ?
V.Berthet :

Je cite cette collègue de droit privé à l’université de Lorraine qui nous dit “de la recommandation algorithmique à la justice algorithmique il n’y a qu’un pas qu’il est difficile de ne pas franchir dès lors que l’autorité de l’algorithme est difficilement contestable” (Florence G’Shell). La précision et la performance de ces algorithmes vont aller de manière croissante au cours de l’histoire et cela pose la question de la place de l’expertise humaine. Dans l’exemple que l’on prend il y a une complémentarité dans la mesure où l’algorithme est utilisé comme un outil d’aide à la décision. Mais la décision in fine est humaine. Si la plus value de l’appréciation humaine n’est plus significative cela veut dire qu’on se dirige vers une justice actuarielle. C’est-à-dire une justice dans laquelle, pour certains litiges, il n’y a plus d’intervention humaine. C’est l’ombre qui plane sur le futur de la justice.

LTR : Dans le cas de la justice civile ce n’est pas tant l’imperium du juge qui est remis en cause que la décision d’aller au contentieux. On voit les premières legaltechs, comme Case law analytics, qui fournissent au justiciable un service lui permettant de déterminer les chances qu’il a, en fonction des caractéristiques de son dossier, d’obtenir gain de cause devant le juge. Le risque est donc celui d’une déjudiciarisation. Cela entraîne également un recours accru à la médiation, or dans ce champ aussi des starts-up fournissent des solutions algorithmiques permettant de déterminer les chances qu’une médiation aboutisse. on met le doigt dans un engrenage dangereux pour l’accès a la justice.
V.Berthet :

Oui cela va dans le sens d’une déjudiciarisation. C’est précisément la consécration du principe “Minority Report”. C’est-à-dire le principe qui consiste à agir le plus en amont possible à partir d’une prédiction. Si je suis justiciable et que je veux intenter une action en justice, je sais, avec un intervalle de confiance précis, quelles sont mes chances d’échouer dans cette tentative. Je suis donc totalement désinciter à aller devant un tribunal.

Néanmoins on est encore au début de cette tendance. Les services proposés par les Legaltechs concernant la justice prédictive ont les mêmes défauts que ceux mentionnés plus haut pour les algorithmes. Ils sont aussi soumis à l’effet de Pareto.

LTR : Le salon Milipol s’est récemment tenu aux Etats-Unis. C’est un salon consacré aux innovations dans le domaine de l’intelligence artificielle. L’idée de ce salon est de pouvoir prévenir les délinquances du quotidien jusqu’aux attentats terroristes. Est-ce qu’il n’y pas finalement une course à l’IA autour du thème de la sécurité ?
L.Amsellem :

Le salon Milipol est un bon exemple de ce qui se fait en termes d’Intelligence Artificielle mais également de marketing autour de l’IA. Ce sont des entreprises privées qui présentent leurs solutions de la façon la plus avantageuse possible. Dans notre ouvrage, nous avons analysé système par système et logiciel par logiciel le niveau d’efficacité. Ce qu’on nous présente à Milipol doit encore faire l’objet de nombreux tests.

Il y a effectivement une demande de sécurité forte et un sentiment d’insécurité prégnant. On voit l’influence du continuum de sécurité : c’est-à-dire de l’imbrication entre les différentes mesures de prévention et de correction des délits et des crimes. Cela pose la question de la proportionnalité des outils que l’on doit utiliser en fonction du spectre où on se situe (petite délinquance ou attaque terroriste).

Il n’y a en revanche pas de toute puissance du renseignement technique dans la mesure où le renseignement humain continue d’être une source d’informations de grande qualité et qui présente une complémentarité. On observe une tendance à l’augmentation des budgets des agences de renseignement qui permet de ne pas démunir les services de leurs compétences traditionnelles.

LTR : Pouvez-vous revenir sur ce que vous appelez le compromis efficacité-liberté et la façon dont vous voulez en sortir ?
V.Berthet :

Le compromis efficacité-liberté c’est l’enjeu essentiel quand on essaye de mettre en perspective la question technologique dans le champ des libertés. Cet équilibre, c’est ce qu’on essaye d’expliquer dans le livre, il est difficile à trouver pour l’exécutif et le législateur, car ce n’est pas une question technique mais éminemment politique, un choix de société. L’épisode Covid a montré à quel point ces choix sont politiques : les pays du monde entier ont fait des choix différents, ceux de la France sont d’ailleurs révélateurs de son histoire. En matière de sécurité, il y a deux erreurs qu’on souhaite minimiser, que ce soit dans le cadre de la sécurité intérieure ou les attentats :

  • les faux positifs : quand on pense qu’une personne va commettre un acte criminel alors qu’elle ne l’aurait pas fait ;
  • les faux négatifs : une personne qui a priori ne passerait pas à l’acte mais qui le fait.

Ces deux erreurs ont des conséquences différentes. Des faux positifs, c’est un danger pour les libertés individuelles, les faux négatifs, c’est un danger pour la sécurité publique. La question c’est où on met le curseur, quelles erreurs on souhaite minimiser. Voltaire disait “mieux vaut se hasarder à libérer un coupable que condamner un innocent”. La technologie peut potentiellement nous permettre d’échapper à ce compromis et à cette idée que si on améliore l’efficacité c’est au détriment des libertés. L’exemple qu’on donne, même si il n’est pas parfait, est celui de la 1ère version de stop covid (devenue tous anti-covid). Le projet était d’avoir ce système bluetooth permettant de détecter les chaînes de contamination pour enrayer la vague épidémique. Cet outil respectait les législations RGPD et il pouvait apporter toutes les garanties en termes de respect des données individuelles. L’efficacité de stop covid a été limitée par le faible nombre de Français qui l’ont téléchargé et mis en œuvre. Si les citoyens français avaient fortement utilisé cet outil, il n’aurait pas présenté de risques pour les libertés et aurait contribué à enrayer l’épidémie. C’est le message de Peter Thiel, bien que figure controversée aux Etats-Unis : il est possible de concilier avec la technologie respect des libertés et efficacité. Pour converger vers des solutions qui satisfont ces deux conditions il faut expérimenter.

L.Amsellem :

La distinction qu’il importe de mettre en œuvre c’est de considérer que ce ne sont ni les algorithmes ni les nouvelles technologies qui permettront de sortir du compromis de  l’efficacité, mais ce qu’Aurélie Jean appelle la “pratique algorithmique”. Il ne faut pas penser que la technologie va nous sauver, mais sélectionner les bons algorithmes, au service d’un objectif fixé de manière commune avec un accord politique fort, assorti de l’encadrement juridique nécessaire et des contrôles a posteriori nécessaires. D’où l’importance d’associer la population civile pour trouver cet équilibre : ce n’est pas un sujet de chercheurs ni de technocrates, cela ne se décide pas dans un cabinet ministériel, c’est un contrat social 2.0 pour atteindre les buts politiquement visés, pour le faire de la manière la plus sécurisée possible et limiter les risques.

LTR :
Au-delà du compromis liberté-sécurité, cela pose la question de notre capacité, en tant que Français et Européens, à développer des outils souverains. Nous sommes dans cette espèce de course qui a une tendance à s‘accélérer, deux blocs, avec d’un côté les Etats-Unis et la Chine qui connaissent des avancées technologiques gigantesques et de l’autre le continent européen qui a du mal à se faire entendre sur ces enjeux, tant sur l’arbitrage entre libertés et sécurité que sur les libertés publiques. Une IA souveraine est-elle encore possible ou doit-on la considérer comme chimérique ?
L.Amsellem :

Des blocs se constituent et effectivement l’Europe pèse peu géopolitiquement sur ces sujets. C’est un problème, qui fait qu’on ne protège pas nos libertés. On s’interdit l’utilisation de certaines technologies, ce qui mène à ne pas développer d’outils souverains et une fois que l’urgence apparaît on finit par utiliser les outils des autres, qui sont déjà efficaces. Comme lors des attentats de 2015 et l’utilisation de Palantir pour l’analyse des métadonnées du renseignement intérieur ; ce qui est regrettable quand on sait que cela a été financé par le fonds capital risque de la CIA. A noter que l’Union européenne ou la France d’ailleurs ont une capacité, on a un gigantesque marché, des capacités importantes en termes de formation et capital humain, il n’y a pas de raison pour lesquelles on échouerait pourvu qu’on s’y mette tôt et qu’on ne bride pas l’innovation. Alors comment faire ?

Il y a la question du financement. En France un fonds, Definvest, a été créé en 2017 réunissant la BPI et le Ministère des Armées, similaire à ce que font les Américains, pour investir très tôt dans les pépites de la tech, tout en étant conscient que cela serait plus efficace de le faire au niveau européen, mais quand c’est un sujet souverain, cela reste encore difficile de le traiter à cette échelle. La France pourra peut-être profiter de la présidence de l’Union européenne pour mettre ces sujets sur la table. L’UE doit assumer son ambition d’Europe puissance. Elle a aussi un avantage comparatif fort sur le soft power normatif, sur la régulation : c‘est ce qu’on a vu avec le RGPD. On pensait que cela allait contraindre les entreprises européennes, mais c’est faux. Cela a permis d’encadrer les données, les libertés des citoyens, cela n’a pas bridé l’innovation ni bloqué les entreprises européennes. Cela a même été répliqué en Californie avec le CCPA. Dans ce cadre-là, que peut faire l’Union Européenne pour réguler sans obérer l’innovation ? La Commission européenne a identifié les algorithmes présentant un risque inacceptable, comme l’utilisation de la reconnaissance faciale à des fins de notation sociale. Pour le reste des algorithmes dans le domaine de la sécurité elle estime qu’il existe un risque élevé, dont l’utilisation doit être soumise à des conditions restrictives, afin de trouver un équilibre, comme la présence de systèmes d’évaluation et d’atténuation des risques, la qualité des bases de données utilisées, la traçabilité des résultats, l’information des gens que cela vise, un contrôle humain approprié pour réduire les risques. La Commission souhaite encadrer, contrôler, réguler mais pas brider l’innovation.

Pour un compromis efficacité-liberté il faut connaître l’efficacité. Pour cela il faut expérimenter et encadrer en proportionnant cela aux fins poursuivies afin de ne pas nous trouver vassalisés par des puissances étrangères plus avancées.

LTR : Finalement, l’Artificial Intelligence Act du 21 avril 2021 proposé par la Commission, rejoint beaucoup de points évoqués dans le livre.
L.Amsellem :

Absolument, on trouve qu’il y a une continuité entre la position que l’on développe dans le livre qui appelle à une vision pragmatique sur ces sujets-là, rigoureuse pour autant et celle de la Commission. Cela rejoint aussi un rapport remis en septembre par le député Jean-Michel Mis qui présente aussi cette vision du compromis efficacité-liberté qui est pragmatique tout en sachant que lorsqu’on souhaite légaliser un système il faut toujours créer des contrôles nouveaux, plus sérieux, ambitieux. On retrouve un équilibre déjà ébauché par la loi antiterroriste du 24 juillet 2015 qui encadre les pratiques d’analyse des métadonnées par les services de renseignement. Le fait d’encadrer des pratiques déjà existantes, cela évite de laisser un vide juridique. On crée également un organe permettant de contrôler les techniques de renseignement, la CNCTR donc on arrive à préserver le secret défense, contrôler l’action des services de renseignement et les encadrer par le droit.

LTR : L’exemple de 2015, démontre la logique d’encadrement-régulation : on légalise une situation de fait et on met en place un organe de contrôle s’assurant que le bornage mis en œuvre est respecté. Lorsqu’on arrive dans cette situation, cela pose la question de l’impossibilité de revenir en arrière.
L. Amsellem :

Il est vrai qu’il existe des effets de cliquet, quand on les met en œuvre on a du mal à revenir dessus, quand on abandonne une liberté c’est rare de la retrouver, à quelques exceptions près qui sont celles des systèmes peu efficaces. Par exemple pour PredPol, ce logiciel, bien qu’il continue à être utilisé et rentable pour certaines villes américaines, a été tué par deux facteurs à Los Angeles. D’abord, le facteur des biais raciaux que la recherche a largement couvert et qui a subi une pression politique suffisante pour l’interdire. Le deuxième facteur est un audit de mars 2019 de l’inspecteur général du LAPD qui n’arrive pas à conclure à l’efficacité du logiciel. A partir de ce moment-là, le concept efficacité-liberté est compromis : c’est une décision pragmatique prise par la ville de Los Angeles d’arrêter d’utiliser ce logiciel. On a eu aussi ce retour en arrière dans l’Oise ou la police utilisait aussi PredPol qui a été remplacé par Paved un simple logiciel de gestion, de cartes de chaleur, de représentation du crime plutôt qu’un logiciel d’intelligence artificielle prédictive. Il y a donc eu quelques retours en arrière.

Pour le renseignement, les effets de cliquet sont toutefois encore importants, car il est difficile d’évaluer l’efficacité de ces systèmes. D’où l’utilité d’avoir des inspections qui sont très fortes, soit la CNCTR (Commission nationale de contrôle des techniques de renseignement) soit en France l’ISR (Inspection des services de renseignement) qui sert à cela également. Mais il n’y a pas suffisamment de contrôles parlementaires. Il existe la Délégation parlementaire au renseignement (DPR). Mais elle est limitée. Par rapport aux Etats-Unis, il y a certains pouvoirs qu’elle ne possède pas. Par exemple, elle n’a pas accès aux rapports des inspections. La DPR peut auditionner des responsables des services de renseignement mais uniquement des responsables. Mais entre ce que déclarent le directeur des services informatiques, le directeur d’une administration centrale, le directeur du renseignement, et ce que déclare l’agent dans la réalité de son quotidien il peut y avoir des différences. Le Senate Select Committee on Intelligence au Sénat américain possède ce pouvoir d’enquête et d’audition qui est total. C’est un contrôle parlementaire fort. En comparaison, la DPR demeure modeste. C’est aussi lié à sa naissance, elle a une dizaine d’années, aux Etats-Unis elle existe depuis le Watergate.

LTR : Cela pose la question du rapport entre technique et droit, dans quelle mesure le recours à des algorithmes dans des domaines régaliens est acceptable car ce sont des objets difficilement régulés par le droit. Quand il faut mettre le doigt dans le fonctionnement d’un algorithme, beaucoup de juristes en sont incapables car ce n’est pas leur domaine de spécialité. Comment réguler l’usage d’ un algorithme quand celui qui régule n’est pas celui qui produit ?
L.Amsellem :

On touche ici à l’essence même des algorithmes. Effectivement, le juriste n’a pas de prise sur le fonctionnement concret des algorithmes, ni sur leur évaluation. Il faut différencier techniquement les algorithmes explicites et implicites. Quand l’algorithme est explicite, il suffit de regarder l’arbre de décision, demander à l’ingénieur, c’est assez simple à réguler. Mais les algorithmes fonctionnent de plus en plus avec du deep learning ou du machine learning. C’est plus complexe car on ne sait pas quel raisonnement l’algorithme a utilisé, à partir de la base de données, pour arriver à une solution. Comment encadrer par le droit un raisonnement qui est une boîte noire ? Comment rectifier ce défaut essentiel des algorithmes ? Il existe des façons de le faire, imparfaites et encore à l’étude.

Une réponse est de respecter le principe de proportionnalité dans l’usage des algorithmes. A quelles fins on utilise un algorithme et jusqu’où on le raffine, on ajoute des données ? Ajouter des données rend l’algorithme moins lisible, c’est difficile de faire de la rétro-ingénierie, d’analyser quels ont pu être les raisonnements présidant à la décision. Google a montré lors d’une étude en 2016, qu’en doublant les données d’une base déjà importante, sur un algorithme fonctionnant correctement, cela n’améliore que de 3% l’efficacité. On ajoute donc une grande quantité de données, on complexifie l’algorithme, pour un gain d’efficacité marginal.

L’un des moyens à notre disposition pour encadrer l’algorithme est l’ »explainability by design”, qui revient à ne mettre en place des algorithmes que lorsque on a conçu des moyens de les évaluer pendant leur conception. En d’autres termes, l’algorithme fonctionne en suivant des raisonnements jusqu’à atteindre un point nodal où il doit envoyer un rapport sur la manière dont il est arrivé à une décision intermédiaire. La Commission européenne, par exemple, y est très attentive. Par ailleurs, nous encourageons le dialogue entre les juristes, les décideurs publics, et les scientifiques qui effectuent des recherches en IA ou conçoivent les algorithmes.

nos autres entretiens...

La faillite intellectuelle d’Emmanuel Todd (2/2)
The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)

De Friedrich Hayek aux cryptomonnaies : faut-il interdire le bitcoin ?

L'État et les grandes transitions

De Friedrich Hayek aux cryptomonnaies : faut-il interdire le bitcoin ?

« Hausse spectaculaire », « bulle spéculative », « crack dramatique » : depuis quelques années c’est au rythme des fluctuations extrêmes du cours du bitcoin que le grand public a progressivement appris l’existence des cryptomonnaies. Les citoyens, les institutions financières et les Etats sont décontenancés face à l’irruption de ces cryptoactifs fondés sur des technologies cryptographique – la blockchain. Quel projet servent ces cryptomonnaies, quelle est leur genèse ? Et surtout, comment les appréhender politiquement alors qu’elles prétendent concurrencer la souveraineté monétaire des Etats ?
1. DE HAYEK À NAKAMOTO : HISTOIRE D’UNE IDÉE, LA DÉNATIONALISATION DE LA MONNAIE
1947, début de la guerre froide. Le rideau de fer est tombé sur le vieux continent en ruines, les États-Unis sont la seule démocratie qui tienne bien debout face au spectre du Stalinisme dont les agents et relais d’opinion menacent la stabilité d’une Europe plus fragile que jamais. Des intellectuels, économistes pour la plupart – mais pas uniquement puisqu’on retrouve également l’épistémologue Karl Popper – se réunissent alors en Suisse pour défendre un tout autre projet de société, fondé sur une vision économiciste et libérale des relations humaines : la société du Mont-Pèlerin est alors née ! Cousine lointaine du colloque Walter-Lippmann de 1938, parfois considéré comme le point zéro du néolibéralisme, la société du Mont-Pèlerin est ce lieu singulier où se réunissent depuis près de 75 ans de nombreuses figures intellectuelles, dont deux particulièrement nous intéressent ici : Friedrich Hayek et Milton Friedmann. Le premier est le fondateur de ce que l’on nommera plus tard « l’école Autrichienne », le second de « l’école de Chicago ». Deux écoles économiques qui partagent, pour le dire à gros trait, une même finalité : l’avènement de la société ouverte(1), et un axiome commun : l’Etat est la principale menace pour la liberté des individus et la liberté des échanges, la seconde étant une condition nécessaire à l’avènement de la première. Soixante trois années plus tard, nous sommes en 2008, la crise immobilière des subprimes s’est muée en crise financière mondiale et une crise économique subséquente menace désormais la stabilité des États, confrontés à des difficultés pour refinancer leur dette publique. La défiance des citoyens à l’égard de l’industrie bancaire atteint son paroxysme et, par voie de conséquence, la confiance en l’Etat, jugé coupable d’avoir laissé faire des banquiers avides, se délite. Cette même année, un certain Satoshi Nakamoto publie le « livre blanc du bitcoin(2) » dans lequel il propose la mise en œuvre d’un protocole informatique permettant de garantir la sécurité de transactions en ligne entièrement désintermédiées. Le point fondamental est bien la notion de désintermédiation, puisque la garantie apportée par ce protocole permet de se passer de l’intervention d’un tiers de confiance qui valide d’ordinaire une transaction dont les caractéristiques principales sont : 1) de se faire dans une monnaie garantie par une banque centrale, 2) entre deux comptes sécurisés, identifiés et domiciliés par des institutions bancaires soumises à une réglementation stricte et contrôlée par un régulateur.
Comme Satoshi Nakamoto l’écrit dans sa conclusion « nous avons proposé un système de transactions électroniques se passant de confiance ».
Comme Satoshi Nakamoto l’écrit dans sa conclusion « nous avons proposé un système de transactions électroniques se passant de confiance ». Tout est là : la notion de confiance fait le lien entre la fondation de la société du Mont-Pèlerin en 1947 et la publication du « livre blanc du bitcoin » en 2008. Pourquoi donc ? Quels sont les liens entre néolibéralisme, confiance et cryptomonnaies ? Un peu d’histoire d’abord. En 1976, Friedrich Hayek publie un ouvrage passé relativement inaperçu à l’époque tant sa thèse paraît radicale – y compris aux yeux de certains économistes libéraux tel Milton Friedman – intitulé The Denationalization of money (Pour une vraie concurrence des monnaies, PUF, 2015). La thèse est sans équivoque : le monopole des États sur la production monétaire est source d’instabilité puisque la monnaie est utilisée à des fins politiques, forçant les banques centrales à procéder à des correctifs sans fins qui nuisent à l’équilibre du système monétaire (inflation) et par conséquent au bon fonctionnement du marché. Reprenant l’axiome fondamental des néolibéraux acceptant la naturalité du marché et l’importance de ne pas laisser la contingence politique perturber son bon fonctionnement, il défend un monde sans banque centrale où les monnaies seraient mises en circulation par des opérateurs privés, telles les banques. Pour la défense d’Hayek, le livre sort en 1976, alors que les économies occidentales sont touchées par une hyperinflation qu’elles ne parviennent pas à réguler suite à l’abandon progressif de la convertibilité en or du dollar sous Nixon entre 1971 et 1976(3). La suite de l’histoire donne d’ailleurs partiellement raison à Hayek, la mise en application des thèses monétaristes par Paul Volcker à la tête de la FED ayant permis de réguler l’inflation, au prix d’une généralisation des politiques monétaires restrictives. Nous entrons alors dans l’ère du fameux « consensus de Washington », véritable coup d’envoi de l’hégémonie néolibérale : la monnaie n’est désormais plus qu’une marchandise dont la production doit être contrôlée par des banquiers centraux indépendants, dont la fonction est d’assurer la stabilité du système financier en assurant la stabilité monétaire, c’est-à-dire en contrôlant l’inflation et donc l’émission de monnaie. Ce consensus de Washington va se fissurer et progressivement se briser à partir de la crise financière de 2008 qui révèle les insuffisances de la théorie monétariste tant pour prévenir la survenance de bulles spéculatives que pour relancer une économie mondiale exsangue. En réalité, la solution pour lutter contre l’hyperinflation proposée par Hayek est plus radicale encore que celle de Friedman et des monétaristes. Il s’éloigne de la théorie quantitative de la monnaie pour défendre sa privatisation pure et simple. D’après Hayek, l’action des banquiers centraux est encore de trop et il faudrait renoncer à l’idée même de monopole monétaire, c’est-à-dire d’une entité centrale seule autorisée à réguler la quantité émise de monnaie. Il démonte dans son ouvrage le supposé mythe de la souveraineté monétaire des États, arguant que celle-ci trouverait son origine dans l’entre-deux guerres et la vision keynésienne de l’économie prévalant à partir des années 1930. Il défend au contraire une concurrence entre monnaies privées afin de réguler l’inflation, considérant que l’alignement des intérêts des particuliers les conduirait à privilégier la stabilité monétaire sur le long terme. Appliquant des thèses bien connues sur les bénéfices collectifs de la libre-concurrence à la théorie monétaire, il propose une solution concurrente de celle des monétaristes pour lutter contre l’inflation. Pourquoi donc sa thèse est-elle restée lettre-morte depuis lors ? Pour une raison simple mais insoluble : sa théorie n’était pas en mesure de garantir le socle de confiance minimale des individus dans une ou plusieurs monnaies privées. Or, une fois abandonné l’étalon-or (ou tout autre étalon de valeur universellement admis) qu’est-ce qui confère à la monnaie sa valeur si ce n’est la confiance que lui accordent ceux qui l’utilisent ?
2. CRYPTOMONNAIES ET BLOCKCHAIN : LA TECHNIQUE POUR « FORCER » LA CONFIANCE
Dans un système de changes flottants, on pourrait arguer que la valeur d’une monnaie n’est rien d’autre que la mesure du degré de confiance d’une société. Degré de confiance, certes, mais confiance en qui ? C’est là tout le problème de la théorie d’Hayek : elle manque d’un point zéro, d’un deus ex machina qui permette de fonder la monnaie.
L’Etat est bien toujours le point zéro de la création monétaire parce que son immortalité théorique est à la source de la confiance qui règne entre les individus »
Or ce point zéro, ce big bang de la monnaie, est historiquement l’Etat. C’est lui qui, même lorsqu’il ne bat pas monnaie, garantit la valeur de la monnaie pour ceux qui l’utilisent. L’Etat est bien toujours le point zéro de la création monétaire parce que son immortalité théorique est à la source de la confiance qui règne entre les individus mortels d’une société qui ne l’est pas. Dit autrement, la confiance ne peut s’auto-instituer, s’auto-fonder au niveau d’une société par simple accord tacite entre chacun de ses membres. C’est ici la loi des grands nombres qui joue : on ne place sa confiance qu’en ceux que l’on connaît et on ne connait jamais qu’un nombre restreint de personnes. Or l’Etat est cette figure tutélaire que chacun connait et reconnait et en qui chacun place sa confiance – ou bien aliène sa souveraineté pour le dire dans des termes dramatiques. En retour l’Etat catalyse la confiance pour irriguer la société : c’est la fonction même et l’essence du droit auquel chacun accepte de se soumettre ou bien de transgresser à peine de sanctions. L’Etat est ainsi l’institution même de la confiance et cette caractéristique est bien à l’origine du monopole étatique sur la monnaie, qui chagrine tant notre ami Friedrich… Si l’on reprend maintenant notre rapide citation de Nakamoto en début d’article, on se souvient que celui-ci parle d’un mécanisme permettant de générer de la confiance sans l’intervention d’un tiers. Est-ce à dire qu’avec le bitcoin, Friedrich Hayek tiendrait sa revanche ? Peut-être bien… Depuis Aristote on reconnait d’ordinaire trois fonctions à la monnaie : 1) être une unité de mesure de la valeur (d’un bien, d’un service) ; 2) être un médium d’échange ; 3) être une réserve de valeur. En un sens, ces trois fonctions sont liées les unes aux autres : on ne peut échanger un bien dans une monnaie que si ce bien est lui-même évaluable dans la monnaie en question. Quant à la troisième fonction, elle dérive des deux premières. Or qu’est-ce que le Bitcoin ? Dans un rapport de 2012(4), la Banque centrale européenne s’intéresse pour la première fois au bitcoin et aux monnaies numériques. Pourtant, alors qu’il existe déjà un règlement européen sur les monnaies électroniques(5), le Bitcoin échappe à cette nomenclature, raison pour laquelle la BCE préfère l’appellation générique virtual currency schemes, ou schémas de monnaie virtuelle. La singularité de ces monnaies virtuelles, à l’image du bitcoin et des autres grandes cryptomonnaies (ethereum, cardano, tezos, litecoin, etc…), est d’être des monnaies pour lesquelles aucune autorité centrale ne valide les transactions. Elles résolvent ainsi une première difficulté technique qu’est la sécurisation des échanges en l’absence d’un tiers de confiance pour valider l’échange, c’est-à-dire en l’absence d’une institutions financière offrant des garanties légales fortes (réglementation spécifique, contrainte du régulateur, etc…).
Les cryptomonnaies promeuvent un modèle horizontal qui défie la loi des grands nombres, c’est-à-dire qui passe outre notre inclination naturelle à ne pas faire confiance à ceux que nous ne connaissons pas. »
Ce point peut paraître anecdotique mais nous allons y revenir car il est essentiel. Elles résolvent ensuite la difficulté essentielle que nous avons évoqué : l’absence d’un catalyseur de confiance exogène, l’Etat ou la banque centrale, qui institue la monnaie comme instrument de confiance. Les cryptomonnaies promeuvent un modèle horizontal qui défie la loi des grands nombres, c’est-à-dire qui passe outre notre inclination naturelle à ne pas faire confiance à ceux que nous ne connaissons pas. C’est bien le point essentiel : comment faire pour qu’une somme indéfinie d’individus inconnus les uns des autres se mettent d’accord pour reconnaître à un actif immatériel (un jeton virtuel) une valeur d’échange ? Comment s’assurer, à rebours, une fois la valeur de la cryptomonnaie fixée, qu’aucun trouble-fête ne tentera de subvertir la valeur de la monnaie virtuelle en rompant la confiance(6) ? C’est là que le processus de validation de la transaction devient essentiel : le mode de validation cryptographique, appelé proof of work(7) preuve de travail, permet d’assurer la sécurisation des blocks de pair à pair. Toute la révolution des cryptomonnaies réside dans l’apport des technologies blockchain qui permettent de sécuriser les transactions entre individus sans l’intervention d’une institution tierce(8). Ainsi la blockchain remplit-elle la première fonction de la monnaie : l’échange. Et comme chacune des trois fonctions de la monnaie est liée à l’autre, le bitcoin parvient à s’auto-instituer comme monnaie. Ce sont les garanties de sécurité offertes par le procédé technique permettant la transaction qui institue la confiance. L’aspect déroutant des cryptomonnaies réside dans le fait que le phénomène de création monétaire se produit à l’occasion de la transaction. C’est donc la faculté de réaliser des transactions qui fonde la valeur de la cryptomonnaie. On comprend donc aisément qu’il ne manquait à la théorie d’Hayek qu’une quarantaine d’années de progrès technique pour passer d’hypothèse fantaisiste à réalité (in)tangible. La technique permet donc de « forcer » la confiance en alignant les intérêts de l’ensemble des participants au processus de création monétaire, les fameux mineurs.
3. AUTORISER, INTERDIRE, ENCADRER ? L’ÉPINEUX SUJET DE LA RÉGULATION DES CRYPTOMONNAIES
Les contempteurs de ces monnaies donnent d’ordinaire les arguments suivants : 1) les cryptomonnaies sont des machines à spéculation ; 2) elles n’ont aucune valeur inhérente puisque leur valeur est exprimée en dollars, ce qui implique donc qu’elles soient convertibles, ce qui revient non seulement à adosser leur valeur à une monnaie émise par une banque centrale mais surtout les rend dépendantes du bon vouloir de ces mêmes banques centrales d’accepter leur convertibilité dans la monnaie nationale. Soit. Ces deux arguments sont tout à fait justes, et il faudrait encore ajouter que certaines cryptomonnaies servent de réserves de valeur pour trafiquants en tout genre du fait de l’anonymat garanti lors des transactions. Pourtant, s’arrêter à ces considérations, qui sont, disons-le encore, toutes justes, revient à passer à côté du point fondamental : les cryptomonnaies sont des formes chimiquement pures de libéralisme appliqué. Entendons-nous bien, que reproche-t-on d’ordinaire aux libéraux et plus spécifiquement aux néolibéraux ? Leur candeur, qui confine au cynisme, lorsqu’ils énoncent comme axiome initial que l’intérêt général est réductible à la somme des intérêts particuliers dans une société donnée. Posant ainsi arbitrairement la naturalité du marché, ils professent une vision théorique du réel dans laquelle tous les individus seraient, par principe, des égaux. Cette vision, ce sont les faits qui la contredisent puisque les acteurs privés agissent dans leur intérêt propre : les intérêts particuliers identiques finissent donc par se regrouper, deviennent des intérêts corporatistes et le marché se structure selon des rapports de force foncièrement inégaux : producteurs / consommateurs, employeurs / employés, grandes entreprises / petites entreprises. Entre acteurs économiques d’un même secteur, la concurrence est asymétrique : le plus gros l’emporte sur le plus petit car il accède plus aisément aux financements dont il a besoin, sa marge de négociation avec ses salariés est plus importante, son outil de production est plus performant tout comme sa capacité à financer son innovation. De même l’influence que leur confère leur poids économique permet aux plus grands acteurs d’orienter le processus d’élaboration normative et de fausser les règles du jeu à leur profit. C’est parce que le marché tend structurellement vers ce type de déséquilibres que la puissance publique intervient par le droit pour corriger les rapports de force, préserver les plus faibles, et ce afin de maintenir in fine la paix sociale. Il y a donc un décalage entre la théorie néolibérale de la naturalité du marché et la pratique du capitalisme qui tend en permanence à désaxer intérêts privés et intérêt général, ce qui justifie en retour que l’Etat joue un rôle économique et social fort, même dans un système de libre-marché.
C’est parce que le procédé technique permet de garantir à la fois la décentralisation de la création monétaire et la confiance entre les individus qu’il est possible de se passer d’un tiers de confiance dont le rôle pourrait être dévoyé. »
Mais qu’en est-il des cryptomonnaies qui visent justement à construire un système horizontal, parfaitement décentralisé, dans lequel ce sont les individus seuls, donc des intérêts privés étrangers les uns aux autres, qui pilotent de façon désintermédiée les transactions et la création monétaire ? En l’absence d’institutions privées telles que les banques et autres institutions du système financier, c’est le processus de validation des transactions qui assure l’alignement des intérêts de l’ensemble des acteurs participants à la création monétaire. C’est parce que le procédé technique permet de garantir à la fois la décentralisation de la création monétaire et la confiance entre les individus qu’il est possible de se passer d’un tiers de confiance dont le rôle pourrait être dévoyé. Est-ce à dire que ces monnaies virtuelles représentent une menace pour la souveraineté monétaire des États, tel qu’Hayek l’aurait appelé de ses vœux ? De prime abord la question semble rhétorique tant le monopole étatique sur la monnaie ne nous semble pas souffrir la moindre exception. Mais la question mérite d’être posée différemment : est-il possible de concevoir un système mixte dans lequel monnaies virtuelles et monnaies émises par des banques centrales coexisteraient ? Aujourd’hui lorsqu’un pays accepte qu’un consommateur règle un achat en bitcoin – à l’image du Salvador(9) qui a récemment adopté le bitcoin comme co-monnaie officielle – ce dernier ne fait qu’utiliser un substitut à sa monnaie nationale qui reste l’unité dans laquelle est exprimée la valeur du bien. De même la valeur d’une cryptomonnaie est exprimée le plus souvent en dollar, son existence même est donc suspendue à sa convertibilité en dollars et donc au bon vouloir de la FED. En revanche, les fluctuations du cours d’une cryptomonnaie – en dehors des évènements cataclysmiques tels qu’un krach boursier – sont essentiellement liées aux innovations technologiques apportées à celle-ci pour garantir sa performance et sa sécurité. Ce n’est d’ailleurs pas un hasard si la principale menace pesant aujourd’hui sur le développement de l’écosystème des cryptomonnaies réside dans l’incertitude quant à l’attitude future des régulateurs financiers et monétaires. Les récents coups de semonces de la Chine ont été à l’origine, plus encore que les déclarations fantasques d’Elon Musk, d’un crack « cryptomonétaire » au second trimestre 2021 qui a mis fin à plusieurs mois de spéculation haussière(10).
Entre le rêve d’Hayek de privatiser la monnaie et l’interdiction pure et simple des cryptomonnaies, il existe donc peut-être une voie possible de coexistence qui permette de préserver l’avenir d’une expérience monétaire inédite et prometteuse ainsi que le potentiel économique et technologique lié au développement des blockchains. »
Entre le rêve d’Hayek de privatiser la monnaie et l’interdiction pure et simple des cryptomonnaies, il existe donc peut-être une voie possible de coexistence qui permette de préserver l’avenir d’une expérience monétaire inédite et prometteuse ainsi que le potentiel économique et technologique lié au développement des blockchains. Pour l’heure, les États et les banquiers centraux – hormis la Chine qui mène une guerre aux cryptomonnaies au bénéfice de son propre projet de cryptomonnaie émise par sa banque centrale, le e-yuan(11) – se sont accordé pour laisser un tel écosystème se développer tout en définissant les concepts essentiels de cette technologie, posant ainsi les bases juridiques(12) d’une éventuelle régulation à venir. Reste à savoir si celle-ci servira, à terme, une fin préventive ou palliative. RÉFÉRENCES (1) Sur ce thème, voire les deux remarquables ouvrages de Karl Popper, La société ouverte et ses ennemis, dont le premier tome est une critique de l’idéalisme platonicien de La République et le second une critique de la dialectique à l’œuvre chez Hegel et Marx. (2) Livre blanc du bitcoin, traduit en Français. (3) En 1971, Nixon suspend la convertibilité du dollar en or alors que la monnaie américaine est attaquée sur les marchés. Cela lui permet de mettre fin à une situation intenable où les Etats-Unis ne disposent plus des réserves en or suffisantes pour garantir les dollars émis à la faveur de l’expansion économique Américaine et détenus notamment dans d’importantes quantités par des banques centrales étrangères (dont la France, la RFA, le Japon,…) qui pourraient exiger leur conversion en or. En 1973, le régime de change flottants, c’est-à-dire où la valeur de chaque monnaie fluctue librement par rapport aux autres monnaies – en réalité par rapport au dollar –, est adopté par la plupart des pays. En 1976, les accords de la Jamaïque mettent officiellement fin au rôle de l’or dans le système monétaire international. (4)Virtual currency schemes, octobre 2012, BCE (5) Directive 2009/110/CE concernant l’accès à l’activité des établissements de monnaie électronique et son exercice ainsi que la surveillance prudentielle de ces établissements. (6) Le problème de la double-dépense correspond, dans le monde numérique au problème du faux-monnayage. La double-dépense consiste à utiliser plusieurs fois la signature électronique d’un unique coin pour effectuer plusieurs transactions. Cette difficulté provient directement de l’absence d’une entité extérieure chargée de sécuriser la transaction et est renforcée par l’anonymat garanti lors d’une transaction en monnaie virtuelle, à l’inverse d’une transaction entre deux établissements bancaires assurant la domiciliation des comptes et donc l’identification de son porteur. (7) Le procédé de validation dit de proof of work est aujourd’hui sous le feu des critiques. Plus la chaine de blocks s’étend plus il est nécessaire de résoudre des énigmes cryptographiques de plus en plus longues et nécessitant de la puissance de calcul. Plus une blockchain se développe en utilisant ce mode de validation des blocks, plus son empreinte carbone est importante. Pour contrer ce fait, plusieurs cryptomonnaies utilisent une autre forme de validation dite de preuve d’enjeu, proof of stake, en plein développement aujourd’hui. (8) Voir à ce sujet le rapport de l’OPECST, remis le 20 juin 2018 sur les enjeux technologiques des blockchains (9) Le Salvador a adopté le 7 septembre dernier le bitcoin comme monnaie légale, provoquant une vague de protestations dans le pays et entrainant une chute de la valeur de la monnaie le jour de l’entré en vigueur de la mesure. (10) Le 18 mai, la Chine, par la voix de plusieurs institutions publiques, dont la fédération bancaire Chinoise, a intimé l’ordre aux institutions financières nationales de ne pas s’engager dans des opérations de financements en cryptomonnaies. A l’heure où ces lignes sont écrites, la Chine, par la voix de sa banque centrale, a purement et simplement déclaré illégale les transactions en cryptomonnaies – et donc les cryptomonnaies par extension – le 24 septembre dernier. (11) La guerre menée aux cryptomonnaies par Pékin vise avant tout à faire place nette pour sa propre cryptomonnaie émise par la banque centrale, le e-yuan, aujourd’hui en phase de test. (12) La loi PACTE définit, dans le code monétaire et financier, le statut de prestataire de « services sur actifs numériques » (PSAN) à l’article L54-10-2 et définit donc, par extension, les cryptomonnaies ainsi que tout autre actif stocké « sous la forme de clés cryptographiques privées ». Plus récemment, une ordonnance a été adoptée portant sur la lutte contre le blanchiment de capitaux et le financement du terrorisme applicable aux actifs numérique.

Lire aussi...

La faillite intellectuelle d’Emmanuel Todd (2/2)
The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)

La Politique Agricole commune : un outil à réorienter partie 1/2

L'État et les grandes transitions

La Politique Agricole commune : un outil à réorienter partie 1/2

La Politique agricole commune, mise en place dès les débuts de l’Union européenne, est une politique communautaire centrale des systèmes agricoles européens. Confrontée à un contexte en constante évolution depuis 60 ans, la PAC entrera sous peu dans sa prochaine réforme. Il est intéressant de se replonger dans ses évolutions historiques avant de développer les prévisions de la prochaine réforme 2023-2027 et d’exposer notre analyse et nos propositions pour une PAC comme outil de la transformation agroécologique des systèmes agricoles et alimentaires.

La Politique agricole commune (PAC) est un outil central de l’évolution de l’agriculture européenne. Elle ne peut être laissée de côté dans la transformation indispensable de notre système agricole et alimentaire. Alors que la prochaine réforme de la PAC 2023-2027 approche à grands pas, il est nécessaire de se replonger dans les évolutions historiques de cette politique communautaire. Avant même de parler de souveraineté, de reterritorialisation et de transformation agroécologique il faut comprendre les mécanismes de la politique agricole européenne en place et ce qui nous y a mené. La rupture avec notre système agricole et alimentaire actuel ne se fera pas sans la compréhension des succès et échecs des précédentes transformations agricoles dans lesquelles la PAC a joué un rôle majeur.

Une politique européenne cen­tralisée dès ses débuts

1957, le traité de Rome institue la Communauté économique européenne (CEE). Ce même traité fixe les objectifs d’une politique à six pays répondant à la nécessité de nourrir l’Europe. C’est la Politique agricole commune (PAC). Apparue dans le contexte de l’après-guerre et d’absence d’autosuffisance alimentaire, elle s’accorde à la volonté d’un marché commun de la CEE et à la libre circulation des marchandises, y compris celles du secteur agricole. Héritage partiel des politiques nationales préexistantes, elle est mise en place en 1962 avec pour but d’accroître la productivité agricole, d’assurer un niveau de vie à la population agricole, de stabiliser les marchés et de garantir une sécurité d’approvisionnement et des prix raisonnables aux consommateurs. La PAC est alors une politique active, répondant à des besoins majeurs et s’inscrivant dans des objectifs de reconstruction. Elle vise, de plus, le renforcement de l’alliance européenne face aux autres puissances qui l’entourent – consolidation des régimes socialistes de l’Est et toute-puissance économique des Etats-Unis. Replacer cette politique communautaire dans son contexte est nécessaire pour comprendre le choix des leviers mobilisés par la PAC. Cette dernière par exemple, joue un rôle particulier dans la construction européenne. Dès sa première version, elle est très centralisée et laisse peu de place aux gouvernements nationaux – on parlera d’ailleurs de “renationalisation” de la PAC lors de la réforme de 2014. Dans le contexte de l’époque, limiter les mécanismes d’interventions nationaux a pour ambition de réduire les distorsions de concurrence au sein de l’Europe et de rendre compatible l’intervention publique et le marché commun.

La PAC est le symbole de l’ambition commune des Etats membres et sera longtemps la politique communautaire la plus importante – elle représente 80% du budget de la CEE dans les années 70. Elle repose sur trois principes fondateurs : l’unicité de marché, la préférence communautaire et la solidarité financière.

Le premier principe, qui annonce en partie le marché unique de 1993, permet la libre circulation des produits agricoles d’un État membre à l’autre. Ainsi, après une phase transitoire, les droits de douane, les subventions et les entraves à la circulation des produits sont supprimés entre ces États. La préférence communautaire quant à elle se traduit par des quotas et des droits de douane communs – par ajuste- ment variable et non pas fixe – imposés sur les produits agricoles importés vis à vis des pays tiers. Ce principe, très mal perçu par les autres pays du monde, devait protéger contre les importations à faible prix et les fluctuations des cours du marché mondial. Il est de moins en moins structurant pour la PAC, par exemple du fait des nombreux accords commerciaux bilatéraux. Le dernier principe fondateur, un peu plus tardif, de solidarité financière fixe la partici- pation à la PAC des Etats membres au prorata de leur Produit Intérieur Brut (PIB). Ce budget commun du Fonds européen d’orientation et de garantie agricole (FEOGA) est distribué selon les besoins des pays, c’est-à-dire souvent en fonction de l’importance du secteur agricole de chaque pays. A ce financement de la PAC sont ajoutées des ressources propres de droits de douanes à l’entrée des produits industriels et agricoles importés du reste du monde, ainsi qu’une part de la TVA collectée par les Etats membres.

En vue d’atteindre les objectifs de la PAC, le traité de Rome établit également des organisations communes des marchés agricoles (OCM) – qui deviendront une unique organisation en 2007. La CEE met ainsi au point des mécanismes pour assurer des prix minimums reposant sur des méthodes de soutien financées par le FEOGA – ces dépenses se révéleront bien plus importantes que la partie “orientation” du fonds qui ne représentera jamais plus de 10% du budget. Suivant les produits, les OCM peuvent comporter des réglementations des prix, des subventions à la production et à la commercialisation, des systèmes de stockage et de report, des mécanismes communs de stabilisation à l’importation ou à l’exportation. Par exemple, les prélèvements à l’importation joueront un rôle crucial, de même que le prix d’intervention dont l’action se verra cependant limitée avec l’engorgement des marchés.

Les premiers mécanismes d’intervention mis en place sont les prix garantis, aussi appelés prix d’intervention. Les organismes nationaux relayant les services communautaires étaient tenus d’accepter à un prix minimal toute la production livrée – jusqu’au milieu des années 80. Des critères de qualité seront progressivement mis en place et les achats d’intervention seront limités. Les mécanismes d’intervention ont longtemps constitué le cœur de la PAC mais seront mis en sommeil dans les années 2000. Aucun moyen de régulation de l’offre n’est prévu à l’origine sauf dans le secteur du sucre. Cette absence de régulation entraînera des stocks considérables et coûteux en retirant de la vente les quantités non absorbables par le marché pour conserver le prix garanti. Les subventions aux exportations, ou restitutions, sont des subventions pour compenser l’écart entre les prix européens et les prix mondiaux plus faibles. Elles répondent partiellement aux limites des mécanismes d’intervention et per- mettent d’écouler les stocks mais représentent dans les années 90 une grosse part du budget européen. Liés au principe de préférence communautaire, les droits de douanes vers les pays tiers ou prélèvements variables sont aussi des leviers pour certaines OCM.

La PAC est le symbole de l’ambition commune des Etats membres.

Une politique communautaire en évolution permanente

En soixante ans, la politique agricole commune a été confrontée à un contexte en constante évolution, de l’industrialisation galopante à la mondialisation globale, en passant par l’agrandissement de l’UE. La PAC va traverser une succession de réformes qui reflète une politique en mouvement perpétuel. Les institutions et le processus de décision communautaire particulier de la PAC ne sont pas développés ici, bien qu’expliquant certaines de ses évolutions. En revanche, nous aborderons quelques événements majeurs liés à la PAC qui ont influencé le monde agricole et nous amènent au système actuel.

Les mécanismes de la PAC de 62, développés précédemment, vont entraîner une surproduction. En effet, l’auto-suffisance alimentaire de la CEE est largement dépassée en 1967 et de premières interrogations apparaissent quant à la gestion des surplus. Les mécanismes de régulation des prix par le stockage voire la destruction de ces surplus mènent à une explosion des coûts. Des tensions internationales apparaissent alors du fait de la concurrence déloyale créée par l’inondation des marchés de produits agricoles européens subventionnés. En outre, après 1973, les chocs pétroliers entraînent une augmentation des coûts de production du fait de l’augmentation du coût de l’énergie. Le prix d’intervention qui garantissait jusqu’ici des prix stables, prévisibles et élevés aux agriculteurs, favorise alors un déséquilibre de l’offre et de la demande du fait de l’augmentation plus rapide de la production par rapport à celle de la consommation. Ces deux derniers mécanismes ont entraîné une pression sur les prix agricoles et limité l’augmentation des revenus des agriculteurs. De plus, la diminution des importations (dont les prélèvements permettaient d’alimenter le budget de la PAC), l’augmentation des exportations dans un contexte de différentiel de prix parfois majeur entre les marchés, mondial et intérieurs, entraînent une explosion des dépenses de soutien des marchés dans le milieu des années 70. Du fait de cette évolution, la CEE cherche donc à freiner la progression des dépenses budgétaires et à répondre au déséquilibre croissant entre offre et demande. En 1984, la CEE met en place les quotas laitiers pour répondre à la surproduction tirée par des prix garantis.

Ils visent à limiter les excédents de produits laitiers et ainsi à en limiter les coûts de régulation associés. D’autres plafonnements des volumes de production de filières agricoles vont lui succéder, comme les quantités maximales garanties (QMG). Par la suite, le système des stabilisateurs en 1988 reprend l’idée de plafond à partir duquel se déclenche une série de réduction de prix, par exemple dans le secteur des céréales.

En 1992, une nouvelle réforme de la PAC, dite de Mac Sharry, remet en cause ces mécanismes de fonc- tionnement et s’inscrit en rupture des réformes précédentes. Trente ans après la mise en place de la PAC, la sécurité alimentaire européenne est atteinte. Les autres résultats sont mitigés. En effet, les revenus agricoles sont très variables selon les Etats-membres et des disparités se maintiennent entre les agricultures nationales (taille moyenne des exploitations, revenus…). La réforme de 92 s’attaque au financement budgétaire, ce qui doit permettre d’intégrer des politiques d’aménagement du territoire et faciliter la restructuration des exploitations agricoles. Elle abaisse les prix garantis et propose de les compenser par des aides directes aux producteurs proportionnelles à la taille des exploitations. Ce découplage des aides – indépendantes de la nature des produits – est allié à des mesures de réduction de la production. La réforme Mac Sharry inscrit dès lors la PAC dans une logique libérale, et considère que l’orientation des productions agricoles doit davantage résulter du libre jeu du marché. Elle permet à l’UE de mieux se conformer aux règles du commerce mondial et de répondre à la remise en question des restitutions aux exportations au niveau international dans le cadre du GATT, particulièrement par les Etats-Unis.

Dans le cadre de l’agenda 2000, la réforme de 1999 s’empare de la multifonctionnalité de l’agriculture. En effet, l’agriculture est reconnue comme n’ayant pas qu’une vocation alimentaire mais aussi de développement rural ou d’impact environnemental. Dans un contexte de baisse de la population rurale, la PAC est alors considérée comme ayant un rôle à jouer. Ainsi, l’agenda 2000 légitime l’idée d’un second pilier de la PAC en phase avec la multifonctionnalité nouvellement reconnue de l’agriculture. Il est financé par le Fonds européen agricole de développement rural (FEADER). La crise de la vache folle entraîne de son côté des orienta- tions de sécurité alimentaire dans la PAC. La réforme de 1999 poursuit la diminution des prix garantis et ainsi des montants de restitutions aux exportations. Les aides directes les remplaçant ne couvrent pas complètement ces diminutions et permettent à l’UE de ré- duire la part de la PAC dans son budget – en perspective de l’élargissement à l’Est qui nécessite une augmentation du FEADER et des fonds de cohésion. Depuis les an- nées 90 les réformes apportent aux Etats membres plus de marge de manœuvre. Celle de 2000 introduit le principe de subsidiarité, c’est-à-dire un retour de l’échelle nationale dans l’action de la PAC avec par exemple la modulation possible des paiements compensatoires par les Etats-membres.

La réforme de 2003 s’attache à couper complètement le lien entre les volumes produits et les aides perçues par les agriculteurs. En effet, les aides directes sont toujours liées aux surfaces ensemencées et au nombre de têtes de bétail, elles incitent donc encore à la production. Elles sont alors découplées et remplacées par le droit au paiement unique par exploitation (DPU). Ce levier est lié aux surfaces éligibles sans obligation de production sur celles-ci. La réforme de 2003 va également plafonner le budget du Pilier I de la PAC (avec une modulation possible). Le Pilier II est renforcé avec un objectif de soutien des politiques de développement rural. Cette réforme introduit aussi la conditionnalité des aides selon 18 normes relatives à l’environnement, à la sécurité alimentaire et au bien-être animal. Leur non-respect entraîne des réductions totales ou partielles des aides. La réforme de 2003 est une orientation de la PAC par l’UE vers un modèle souhaité plus durable. Elle permet à l’UE de répondre aux attentes sociétales concernant l’environnement et la qualité des produits. Cette réforme continue de connecter davantage l’agriculture aux marchés mondiaux et entraîne une libéralisation des prix et du commerce, en préparation de l’élargissement de l’UE. La réforme de 2008 poursuit la réforme précédente avec la mise en place du paiement unique simplifié et des filets de sécurité remplacent les mécanismes d’intervention. D’anciens leviers comme les gels de terres ou les quotas laitiers sont supprimés. Le second pilier est renforcé pour répondre aux défis environnementaux.

En soixante ans, la politique agricole commune a été confrontée à un contexte en constante évolution.

La politique agricole commune actuelle

La réforme de 2014 a prolongé les logiques libérales accompagnant la PAC depuis la réforme de 1992. Pour un budget total annuel de 60 milliards d’euros à l’échelle européenne dont 9,1 milliards sont destinés à l’agriculture française, la PAC 2015-2020 conserve sa construction autour de deux piliers issus de la précédente réforme de 1999.

En France, le premier pilier de la PAC reste important. Il est financé par le Fonds Européen agricole de garantie (FEAGA) à hauteur de 7 milliards d’euros. Par des mécanismes majoritairement découplés, c’est-à-dire n’étant pas calculés proportionnellement à une production donnée. Ce premier pilier a pour objectif le soutien des marchés, des prix et des revenus agricoles. Il est géré par les Etats au niveau national.

Le deuxième pilier, quant à lui, reste plus réduit avec un budget de 2 milliards d’euros financé par le Fonds européen agricole de développement rural (FEADER). Ses objectifs sont de promouvoir l’aménagement des zones rurales, la protection de l’environnement et le maintien d’une population active sur le territoire. En France, l’attribution de ce fonds est gérée par les Régions.

Alors quels ont été les changements apportés par cette réforme de 2014 ? Plusieurs choses sont à mentionner. Premièrement, la PAC de 2014 est orientée vers un soutien plus important à l’élevage. Ce dernier souffre, en effet, d’un manque de compétitivité ne permettant pas aux éleveurs de vivre dignement de leur métier (en 2017, entre 620 et 1100€ de salaire mensuel en moyenne d’après l’Insee). Deuxièmement, elle vise à soutenir l’emploi et l’installation de nouveaux agriculteurs en réponse à une diminution continue du nombre d’actifs agricoles depuis les années 60 et à la prévision d’un départ de la moitié des agriculteurs d’ici une dizaine d’années. Troisièmement, elle se propose d’améliorer la performance économique de l’agriculture européenne en faisant face, notamment en France, d’une part, à une rémunération très faible des agriculteurs, et d’autre part, à une balance commerciale, autrefois positive, se rapprochant inexorablement de l’équilibre. Quatrièmement, prenant acte du fort impact environnemental avéré de l’agriculture qui représente actuellement 19% des GES en France selon l’ADEME, la PAC 2015 a pour objectif d’augmenter sa performance environnementale. Enfin, elle vise l’amélioration de la performance sociale de l’agriculture et la redynamisation des territoires.

Les objectifs et orientations de la PAC paraissent donc louables et tout à fait pertinents au vu des défis auxquels fait face l’agriculture. Néanmoins, un tour d’horizon rapide des dispositifs en place en France pour cette période de 2015 à 2022 est nécessaire afin d’illustrer les moyens avec lesquels ces objectifs se veulent atteints.

Les aides majeures du premier pilier sont les aides découplées. Elles sont rattachées au nombre d’hectares que représentent les terres cultivables de chaque exploitation agricole. Ainsi, un paiement de base est attribué par hectare en fonction du montant historique de ces aides découplées à l’hectare : les droits à paiement de base (DPB). Ces aides visent à soutenir les revenus des agriculteurs et leur compétitivité sur les marchés. A cela viennent s’ajouter plusieurs bonus pour inciter à la mise en œuvre de pratiques favorables à l’environnement, les exploitations de taille petite et moyenne ainsi que l’installation de jeunes agriculteurs. Au DPB, se rajoutent donc respectivement le paiement vert, le paiement redistributif et le paiement additionnel aux jeunes agriculteurs. En 2017, ces aides s’élevaient au total à environ 6 milliards d’euros soit les deux tiers du budget total de la PAC pour la France.

Ces premières aides de base sont de différents ordres. Pour ce qui est de l’objectif d’amélioration des performances environnementales, le paiement vert est complété par les mesures agroécologiques et climatiques du second pilier. Les MAEC éligibles font l’objet d’un cahier des charges et s’organisent autour de trois catégories : MAEC système qui s’applique à des types de produc- tion comme les systèmes herbagers et pastoraux dans une logique de maintien des pratiques actuelles ; MAEC plus spécifique à des par- celles théâtre d’enjeux environnementaux localisés et MAEC ayant un objectif de préservation des ressources génétiques comme la préservation de races particulières. Elles viennent donc s’ajouter à la valorisation par le paiement vert des surfaces d’intérêt écologique (haies, mares, etc), à la diversification des cultures et à la préservation des prairies permanentes (prairies en place depuis plus de 5 ans consécutifs).

Cet objectif d’amélioration de la performance environnementale vient se combiner à l’amélioration de la performance sociale par le soutien à l’installation des jeunes agriculteurs avec une majoration, notamment, dans le cadre de projets favorables à l’environnement. Le paiement additionnel aux jeunes agriculteurs est renforcé par la do- tation jeunes agriculteurs. Cette aide concerne, tout comme la première, les agriculteurs de moins de 40 ans, non installés dans les 5 an- nées précédentes et dont les compétences sont officiellement reconnues par des certificats d’aptitudes ou diplômes par exemple. Cette dotation est majorée pour les installations hors cadres familiaux, aux projets répondant aux principes de l’agroécologie et aux projets générateurs de valeur ajoutée et d’emploi. Une revalorisation de cette aide peut aussi se faire en fonction de l’effort de reprise et de modernisation de l’exploitation par le jeune agriculteur.

Enfin, l’objectif de performance économique améliorée poursuivi par les aides découplées, est renforcé par des aides plus spécifiques aux secteurs et zones en difficulté économique ou à faible compétiti­vité. Ces aides sont l’indemnité compensatoire de handicaps naturels (ICHN) ou encore des aides couplées à la production concernant majoritairement l’élevage et les protéines végétales. L’ICHN est l’aide principale du second pilier avec 1,1 milliards d’euros annuel soit 55% du montant total de ce dernier. Accès sur les zones dites défavorisées, principalement montagneuses, elle vise à soutenir l’activité agricole dans ces zones et ainsi principalement l’élevage. En effet, ce dernier est majoritaire dans ces zones montagneuses et a un rôle primordial dans le dynamisme de ces campagnes et dans l’entretien des paysages d’une grande richesse biologique. Enfin, les aides couplées viennent en complément de ce soutien de l’ICHN à l’élevage et viennent aussi inciter à la production de protéines végétales indispensables à la reconquête de la balance protéique de la France, notamment pour son alimentation animale. Néanmoins, n’oubliant pas la surproduction qu’avaient engendré les aides couplées du passé, l’octroie de celles-ci est désormais dégressif et plafonné. La PAC soutient aussi l’agriculture biologique par la mise en place d’aides à la conversion et au maintien en agriculture biologique. Ces aides ont été doublées sur la période 2015-2020, de façon à accompagner les objectifs du plan «Ambition bio» qui prévoit le doublement des surfaces en agriculture biologique d’ici 2022. Elles se proposent de faire face à l’incertitude des premières années de l’installation d’un système en agriculture biologique ainsi qu’à la réduction de la production sans ajustement des prix sur la phase de conversion.

Enfin, la PAC porte l’ambition de financer une stratégie commune pour la compétitivité et l’adaptation des exploitations agricoles ainsi que, par le programme national de gestion des risques et d’assistance technique (PNGRAT), de sou- tenir l’agriculture face aux différents aléas climatiques ou en- core sanitaires qu’elle doit affronter. Ainsi, le plan pour la compétitivité et l’adaptation des exploitations agricoles se décline autour de la modernisation des exploitations d’élevage (investissements pour l’amélioration des conditions de travail et de l’autonomie du cheptel entre autres), de la recherche de la performance économique et environnementale, par la maîtrise des intrants et la protection des ressources naturelles (érosion des sols, eau, biodiversité…), de la réponse aux problématiques particulières de certaines de ces filières : rénovation du verger, investissement dans les serres, investissement dans secteur du chanvre, lin, fécule de pommes de terre et riz pour éviter leur disparition au profit des céréales, etc, de l’amélioration de la performance énergétique des exploitations et de l’encouragement de projets s’inscrivant dans une démarche de développement de l’agroécologie. Le PNGRAT, quant à lui, repose sur deux types de soutien que sont l’aide à l’assurance multirisques climatique des récoltes et l’aide aux fonds de mutualisation en cas d’aléas sanitaires et d’incidents environnementaux.

Depuis sa création en 1962, la PAC s’est inscrite dans le cadre général des politiques européennes et a donc suivi les évolutions de celles- ci tout au long des décennies. Ainsi, se créant autour d’une logique de préférence communautaire puis de libéralisation des échanges, la PAC a été un outil majeur de l’évolution de l’agriculture en Europe. Elle a dans un premier temps réussi son pari de construire une sécurité alimentaire de l’Union Européenne et de faire de l’agriculture un secteur économique porteur avant de de- venir à partir de 1992 un instrument de compensation des logiques libérales. La PAC est un outil puissant qui a été utilisé de manière active et stratégique dans ces premières années avant d’être ensuite utilisé de manière tout à fait passive comme un lot de consolation à des agriculteurs alors enfermés dans une agriculture qui ne leur permet pas de vivre dignement et qui menace les générations actuelles et futures. Il est grand temps de mobiliser à nouveau activement les potentialités majeures de cet outil qu’est la PAC pour l’Union Européenne en collaboration avec les Etats qui la composent pour relever les défis économiques, sociaux et environnementaux auxquels fait face l’agriculture européenne et française. Les Etats n’ont pas hésité à utiliser des dispositifs de protection de l’agriculture européenne pour la transformer face aux défis auxquels ils faisaient face à la sortie de la Seconde Guerre Mondiale. Nous verrons dans la seconde partie de cet article (publiée dans le n°3 du Temps des Ruptures) pourquoi il est possible de le faire de nouveau.

La réforme de 2014 a prolongé les logiques libérales accompagnant la PAC depuis la réforme de 1992.

Lire aussi...

La faillite intellectuelle d’Emmanuel Todd (2/2)
The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)

Les communautés d’énergie en Europe : vers un nouveau modèle de production énergétique ?

L'État et les grandes transitions

Les communautés d’énergie en Europe : vers un nouveau modèle de production énergétique ?

Décrites dans deux directives européennes récentes, les communautés d’énergie citoyennes et renouvelables, demandent aux gouvernements et acteurs privés du marché de garantir aux citoyens le droit de produire, stocker, consommer et revendre leur énergie renouvelable. Elles promeuvent un modèle énergétique en le rendant à la fois plus démocratique et pérenne. Les bases juridiques de cette reconstruction du système énergétique actuel sont posées. Les Etats Membres vont devoir prendre la mesure des enjeux portés par ce nouveau statut et les définir dans un marché en grand besoin de renouvellement. Mais le plus grand enjeu ici repose sur les citoyens et leur capacité à concrétiser cette révolution. 
Première révolution : la reconnaissance du rôle actif des citoyens dans la transition énergétique
Jusqu’ici, les réseaux électriques étaient considérés comme le moyen le plus économique de répondre à des usages dispersés et variables. Après la Seconde Guerre mondiale, la France avait choisi de développer un système électrique centralisé, principalement centré sur les économies d’échelle. Désormais, avec le développement généralisé des énergies renouvelables depuis une dizaine d’années et une nouvelle tarification reposant plus sur le kWh consommé que sur la puissance à laquelle le réseau donne accès, une production plus proche des consommateurs est envisageable. De fait, les évolutions sociétales portent maintenant les évolutions techniques (réseau intelligent et stockage). En effet, de nombreux citoyens semblent aller vers des comportements plus sobres dans la consommation d’énergie. Néanmoins, la multiplicité des blocages technocratiques face à des volontés de changement pourtant puissantes ne doit pas être sous-estimée, particulièrement à l’échelle européenne, où elles se trouvent démultipliées. Publiées en 2018, dans une indifférence médiatique, pour le moins attendue, les communautés d’énergie, pourtant potentiellement révolutionnaires, autant pour le marché de l’énergie que pour l’ensemble du système électrique actuel, appellent une concrétisation rapide. Celle-ci dépendra surtout de l’implication des citoyens, pourtant très peu informés de l’actualité des institutions et des régulations européennes : ils sont ici le pivot de toute la dynamique portée par la Commission Européenne. En effet, deux directives européennes au sein du « Paquet pour une énergie propre pour tous les Européens » semblent apporter une partie, certes humble, de la réponse aux nombreuses grèves et marches pour le climat qui marquent ces deux dernières années. Elle tient en quelques mots : la reconnaissance du rôle actif des citoyens dans la transition énergétique. L’Union Européenne semble l’avoir compris : son objectif contraignant d’atteindre 32% d’énergies renouvelables d’ici 2030 ne se réalisera pas sans l’implication de ces derniers. Malgré sa faible couverture médiatique et son manque de reconnaissance au sein des Etats Membres, cette réponse pourrait pourtant bel et bien être une révolution. Révolution car les nouvelles règles créent une dynamique sans précédent : donner les moyens aux citoyens de produire, consommer et même de revendre leur propre énergie. Ce projet politique est particulièrement ambitieux, et met l’accent sur la production décentralisée d’énergies renouvelables, le stockage d’énergie et l’autoconsommation d’électricité. Face à ces évolutions, cer- tains gouvernements nationaux, inquiets de cette dynamique et de ses conséquences sur le système existant, en particulier sur ses « gros acteurs », avaient persisté tout au long des négociations, à freiner l’octroi de ce nouveau statut d’auto-consommateurs. Finalement, le Parlement Européen s’est imposé dans le bras de fer. Jusqu’ici, l’absence de référence dans les rédactions politiques européennes de l’engagement citoyen, ou des citoyens dans le système énergétique était sans nul doute à l’origine d’un cadre régulatoire en décalage avec les tendances de décentralisation et l’essor des « petits acteurs » dans le marché de l’énergie. D’abord conçues pour les entreprises multinationales, exploitant des énergies fossiles et dans une dynamique centralisée, les règles du marché de l’énergie européen semblaient jusqu’ici avoir encore du mal à reconnaître les citoyens (et les communautés d’énergie) comme des acteurs du marché à part entière. Ceci impliquait souvent l’absence de règles du jeu équitables à leur égard. A l’origine fortement indexées sur le marché, les énergies renouvelables considéraient encore jusqu’à peu toute dimension citoyenne hors du marché de l’énergie.
La réussite des communautés d’énergie dépendra d’abord de l’écho citoyen suscité.
Une possibilité de bouleversement de l’organisation dite « traditionnelle » du marché de l’énergie : un potentiel possiblement relégué à l’utopie
La « victoire » politique s’incarne donc à travers la définition juridique des communautés d’énergie, citoyennes et renouvelables, un concept essentiellement issu du droit européen, et relativement récent. Déjà concrétisées, à petite échelle, au sein de plusieurs Etats Membres, en Allemagne comme en France par exemple, elles manquaient d’une reconnaissance européenne attendue. Selon cette définition, une communauté d’énergie renouvelable peut être amenée à produire, consommer, stocker et vendre de l’énergie renouvelable, et partager en son sein l’énergie renouvelable produite par les unités de production qu’elle détient. Les communautés d’énergie citoyennes, quant à elles, disposent d’un périmètre plus large : outre la production d’énergie, la fourniture, la consommation, l’agrégation, le stockage et la vente d’électricité, elles peuvent fournir à leurs membres ou actionnaires des services liés à l’efficacité énergétique. Ces deux formes de communautés d’énergie doivent être autonomes, ne pas se limiter à un but purement lucratif et être effectivement contrôlées par des membres (citoyens, autorités locales et PME) situés à proximité des projets d’énergie renouvelable. L’ancrage local et les projets « citoyens » sont donc particulièrement à l’honneur dans les deux cas. C’est là une avancée majeure, en rupture avec le principe de mise en concurrence promu par la Commission depuis 2014. Les avantages économiques ne sont pas oubliés pour autant : le partage de l’énergie communautaire stimule des investissements supplémentaires dans les installations de production et de stockage d’énergie renouvelable. Sans compter que l’optimisation de l’énergie locale, à la condition d’être rendue possible par des technologies innovantes (logiciels de gestion, stockage), pourrait réduire la charge sur le réseau, la congestion, et limiter le besoin d’investissements dans de nouvelles infrastructures de réseau. Dès l’énoncé de cette définition, de la révolution qu’elle implique pour le système actuel, et de l’évocation de son champ d’application, il apparaît clairement que l’organisation dite « traditionnelle » du marché de l’énergie peut s’en trouver bouleversée. En effet, là où de grands énergéticiens produisent de l’électricité, transportée et distribuée dans des réseaux jusqu’à la consommation finale, ici, le consommateur peut devenir acteur. Et les avantages d’un tel changement seraient bien sûr nombreux : réduction de l’impact environnemental, réduction de la facture, sensibilisation des consommateurs/acteurs… Sans compter le potentiel de développement important qui révèle que la moitié des citoyens européens pourraient produire eux-mêmes leur électricité renouvelable d’ici 2050, recouvrant alors près de 45% de la demande en énergie. Le problème, c’est qu’une telle stratégie nécessite une dynamique forte, unifiée. Et, jusque là, les Etats paraissaient tout sauf unanimes dans les dynamiques d’implantation. Ainsi la réticence des Etats Membres n’est pas à sous_estimer : à titre d’exemple, l’incidence prévisible de ce nouveau statut de communautés dites « autonomes », (surtout en termes de coûts des réseaux), ou encore la conformité même avec les règles législatives de péréquation tarifaire et de solidarité nationale, sont des interrogations légitimes. La question du monopole des gestionnaires historiques des réseaux publics d’électricité et de gaz sous-tend bien sûr aussi les débats. Soumis à toutes ces interrogations, ce sera justement aux Etats Membres de décider d’accorder ou non la faculté aux communautés énergétiques les droits de gestion sur les réseaux. Cela revient à dire qu’ils seront chargés de créer les conditions permettant à ces communautés de participer au marché de manière équitable et non discriminatoire. Aucune direction spécifique n’est fournie dans ce domaine. La question, tout aussi légitime, du rôle à accorder aux citoyens dans le marché de l’énergie se pose : est-ce vraiment à eux de s’occuper de leur propre production/consommation d’énergie ? Cette gestion ne devrait-elle pas revenir aux mains de l’Etat, qui a su par le passé assurer l’efficience énergétique ? En effet, diviser les sources de production d’énergie produit systématiquement moins de rendement qu’une seule source de fourniture d’électricité. Cependant, est-ce bien le rendement qui est recherché ici ? Dans la révolution que nous évoquons, il s’agirait, non seulement d’un changement de paradigme dans les acteurs impliqués, mais aussi d’un profond bouleversement dans les modes de consommation de l’énergie. Consommer moins, de manière plus responsable et en pleine conscience des implications écologiques de toute production d’énergie.
La « victoire » politique s’incarne donc à travers la définition juridique des communautés d’énergie.
De nouveaux statuts et interrelations à définir entre acteurs historiques et nouveaux entrants : des leviers d’action et d’organisation à considérer
La situation n’est pas pour autant inextricable : un lien peut être établi, afin de protéger les deux parties, par des obligations réciproques. Pour les communautés, il s’agirait de déclarer les installations en amont de la mise en service, et de la part des gestionnaires de réseaux, une sorte d’obligation de coopération, destinée à faciliter les transferts d’énergies au sein de la communauté. En effet, la directive évoque l’importance de simplifier les démarches administratives, de la part des gouvernements, au sein des projets citoyens et justement communautaires, afin d’éviter un bras de fer opposant « David contre Goliath » avec les gros opérateurs de réseaux. En effet, si le puzzle administratif et juridique est trop important, cela pourrait faciliter la domination de grandes entreprises, soit pour créer, soit pour contrôler indirectement ces communautés, conçues de prime abord dans une dynamique citoyenne. Le cadre légal, mais aussi les dispositions administratives concrètes qui devront entourer cette relation seront essentielles pour faciliter à la fois le développement et le fonctionnement concret dans la durée des communautés. Comme toute transformation importante, le risque d’instrumentalisation par d’autres acteurs aux intérêts prégnants, et la conséquence de l’éloignement entre réalisations concrètes et objectifs initiaux existent. Cela se matérialise ici de manière complexe, par des procédés administratifs et financiers difficilement accessibles, mais pour autant moteurs du système énergétique ac­tuel. Finalement, la réussite des communautés d’énergie dépendra d’abord de l’écho citoyen suscité. Sans force vive, sans acteurs de terrain et sans dynamique locale, les ingrédients d’une décentralisation efficace, la directive restera caduque. Donner aux citoyens les moyens d’être à la fois producteurs et consommateurs part du postulat d’une double prise de conscience, à la fois en termes de production et de consommation. Les enjeux vont donc au-delà de la simple réorganisation du marché de l’énergie. Une reconstruction verte, reposant sur les énergies « propres » (qui n’excluent pas l’énergie nucléaire) et une économie circulaire, pourrait, par une dynamique citoyenne, prendre le relai de la croissance traditionnelle, avec en parallèle la créa- tion de nouveaux marchés et de nouveaux emplois. Pour autant, les défis seront nombreux : pour les citoyens, qu’il faudra convaincre du potentiel des communautés d’énergie, mais également pour les gouvernements.
La question du rôle à accorder aux citoyens dans le marché de l’énergie se pose : est-ce vraiment à eux de s’occuper de leur propre production / consommation d’énergie ?
Concrétiser la révolution : appel aux citoyens à se saisir de ce nouveau statut
À moyen-long terme, il est possible d’envisager un système de soutien sur le plan financier qui pourrait être un mécanisme d’obligation d’achat pour l’énergie produite en surplus par la communauté, avec des appels d’offres, des primes proportionnées, et éventuellement, un soutien fiscal. L’engagement public, sans nul doute essentiel, devra aller dans les deux-sens : les collectivités territoriales devront être impliquées au maximum, afin de faciliter l’ancrage et la pérennité des communautés. Allier cohésion sociale, implication des acteurs de terrain et des territoires sera un vrai défi : il s’agirait d’éviter le déclassement de certains territoires, et par là-même, de certaines populations. Qu’il s’agisse des capacités d’épargne ou des zones à faible rendement renouvelable, une stratégie globale d’unification sera nécessaire. Un autre écueil à éviter sera la définition conceptuelle libérale du concept d’autoconsommation : il s’agit d’éviter à tout prix dans cette dynamique de décentralisation, le repli sur soi, et promouvoir avec intensité la coordination. La concrétisation de l’ « autoconsommation collective » ne doit pas se faire au détriment de l’efficacité du système électrique. En effet, il est complexe de se représenter le fonctionnement concret d’une telle communauté : qui la finance concrètement ? Qui en est responsable ? Beaucoup de questions auxquelles la commission n’apporte que très peu de réponses, et c’est finalement assez compréhensible : on touche ici à la marge de manœuvre spécifique des Etats Membres. On comprend finalement peut-être un peu mieux leurs réticences, tant le chantier qui leur reste à accomplir est important, face à deux directives d’apparence bénignes. Ils doivent entreprendre une véritable réforme législative, revoir les redevances de réseau, les incitations et autres régimes de soutien et impliquer les citoyens, en partie en renforçant les capacités des autorités locales. Lors de la révision des politiques publiques, une attention particulière devrait aussi être accordée au rôle des communautés énergétiques dans la lutte contre la précarité énergétique, un sujet qui mérite une grande attention. D’autant plus qu’actuellement, les communautés énergétiques sont plus présentes dans les régions les plus riches de l’Union Européenne en raison des ressources financières et organisationnelles nécessaires. Il ne s’agit pas non plus de rester dans une approche naïve : si l’autoconsommation peut être une solution, elle ne figure pas pour autant, à elle seule, la sortie de notre crise écologique et sociale. A l’instar des conséquences de la politique de décentralisation énergétique allemande, plusieurs risques sous-tendent la dynamique : d’abord, des prix de l’électricité élevés, relatifs aussi aux coûts d’investissement dans un premier temps dans des infrastructures renouvelables à grande échelle. Par ailleurs, si le développement des énergies renouvelables génère un surplus d’électricité qui doit être exporté, il ne contribue pas pour autant à la sécurité d’approvisionnement, celle-ci doit aussi être considérée et solutionnée par les Etats Membres pour assurer la transition. Enfin, des réactions négatives de la part de l’industrie, au-delà du marché de l’énergie lui-même, sont à envisager : ces derniers peuvent craindre pour leur productivité. La prise de conscience des risques associés à une telle révolution est essentielle, la politique énergétique relevant d’enjeux multiples : industriels, techniques, sociétaux, financiers… Finalement, en dépit des nombreux écueils à éviter, par l’ambition forte et particulièrement importante dans le contexte actuel, qu’elles portent, les directives du paquet « Energie propre » semblent avoir saisi la nécessité d’impliquer les citoyens, dans la définition d’une sortie de crise, à la fois économique, écologique et sociale. Si la vitesse de déploiement de ces communautés est difficilement prévisible, notamment en raison des nombreuses zones d’ombres et de définitions encore trop vagues, elles ont vocation à s’imposer comme l’un des piliers de la transition énergétique européenne. Bien sûr, comme à l’aube de toute transformation profonde, les attentes tout autant que les risques d’instrumentalisation sont nombreux. Un autre enjeu essentiel tient donc à cette prise de conscience, à la fois individuelle et collective, des coûts environnementaux et sociétaux, de la production et de la consommation d’énergie. Un changement en profondeur, vers une utilisation énergétique consciente ne paraît plus si utopique. A nous de nous saisir de cette opportunité historique, et de nous montrer à la hauteur, à la fois du potentiel et de la force d’action des citoyens.
Une reconstruction verte pourrait prendre le relais de la croissance traditionnelle, avec en parallèle la création de nouveaux emplois.

Lire aussi...

La faillite intellectuelle d’Emmanuel Todd (2/2)
The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)

Le modèle agricole français : entre crise et renouveau

L'État et les grandes transitions

Le modèle agricole français : entre crise et renouveau

Par Inès Heeren La crise du coronavirus a révélé les faiblesses de nombreux secteurs. Le monde agricole agroalimentaire s’est retrouvé sur le devant de la scène avec des rayons de supermarchés dévalisés, un appel aux citoyens à aller « aux champs », du lait jeté quotidiennement…Face à ces défaillances, de nombreuses questions se soulèvent. Nous interrogeons Romain Dureau, agroéconomiste et cofondateur d’un laboratoire d’idées au service de la transformation écologique, de l’agriculture et de l’alimentation : Urgence Transformation Agricole et Agroalimentaire (UTAA). 
Comment expliquez-vous les failles du système agricole et alimentaire français révélées par la crise sanitaire ?

La crise sanitaire a effectivement été davantage un révélateur qu’un déclencheur. Basiquement, le coronavirus a été le grain de sable qui s’est immiscé dans les rouages déjà abimés des marchés agricoles dérégulés. La première faille majeure mise en évidence lors du premier confinement de mars à mai 2020 est la forte dépendance de notre agriculture à la main d’œuvre étrangère, qui représente environ 40% du travail saisonnier. La France, « puis- sance agricole » selon les libéraux, a connu le ridicule de voir son Ministre de l’Agriculture de l’époque, Didier Guillaume, en appeler à « l’armée des ombres » (sic) pour rejoindre les rangs des travailleurs agricoles. L’agriculture française connaissait un manque important de main d’œuvre du fait de la fermeture des frontières aux travailleurs étrangers. Etonnant ? Pas vraiment. Du fait de leur forte saisonnalité, certaines productions, telles que l’arboriculture et le maraîchage, sont très gourmandes en main d’œuvre, principalement lors des travaux de taille et de récolte. Dans la logique de compression des coûts, l’agriculture française a compté de plus en plus sur une main d’œuvre venue de pays étrangers plus susceptible d’accepter des emplois peu rémunérés et aux conditions d’activité difficiles. Depuis quelques années, le recours au travail détaché, véritable dumping social organisé par l’Union Européenne, a augmenté : les travailleurs détachés étaient 67 601 en 2017 (contre 26 000 en 2016), principalement en viticulture, en maraichage et arboriculture, mais aussi en grandes cultures et production ovine, en moindre mesure. Cet épisode doit nous conduire à nous interroger sur ce manque structurel de main d’œuvre agricole : augmentation du travail saisonnier, journées harassantes pour de nombreux chefs d’exploitation… Cette question est complexe, mais l’une des réponses clés est la suivante : pour donner « envie d’agriculture », il faut changer de modèle, et proposer des conditions de travail, de rémunération et de vie en milieu rural bien plus attractives.

La deuxième faille majeure (re)mise en lumière par la crise sanitaire est la forte dépendance de notre agriculture et de notre alimentation aux marchés internationaux. D’un côté, l’agriculture française est dépendante des exportations à destination d’autres pays européens mais également de pays tiers. Ainsi, les productions qui sont fortement intégrées sur les marchés internationaux et destinées à l’export, telles que les vins (30% de la production exportée) et spiritueux, les cé- réales (50% du blé exporté) ou les produits laitiers (10% de la production exportée), se sont retrouvées confrontée à la perte de débouchés ou la diminution de la demande mondiale. C’est le cas de la poudre de lait exportée en Chine ou encore du porc et des broutards exportés en Italie. D’un autre côté, nous sommes également dépendants des importations pour plusieurs produits alimentaires de base. Un rapport d’information du Sénat en date de mai 2019 estime que nous importons environ 20% de notre alimentation. Cela concerne principalement les fruits et légumes (50% sont importés, pour un coût de 2,5 à 3 milliards d’euros), la viande de porc (25% importés), la volaille (34%), la viande bovine (environ 30%), la viande bovine (50%) mais aussi les aliments pour les animaux d’élevage (3 millions de tonnes de soja importés d’Amérique latine chaque année). Nous ne parlons pas là de produits annexes, mais de produits de consommation quotidienne. Cette dépendance aux importations pose enfin la question de la traçabilité de la production. Il est estimé que 10 à 25% des importations ne respecteraient pas les normes sociales, sanitaires et environnementales françaises. Nous voyons aujourd’hui le danger que représente cette dépendance aux marchés internationaux sciemment organisée : notre souveraineté alimentaire – comprendre : pour les denrées alimentaires de consommation quotidienne – a été perdue du fait de choix politiques contraires à l’intérêt fondamental de la Nation.

Face à ces limites, sommes-nous en mesure d’agir à l’échelle nationale ? Est-ce que l’Union européenne représente une barrière ou un levier face à l’urgence de la transformation de notre modèle agricole ?

Comme sur beaucoup de sujets, la doxa libérale nous dit que la question des politiques agricoles et alimentaires prend place à l’échelle européenne voire internationale. Ce n’est pas faux, tant les politiques commerciales et agricoles européennes ont façonné l’agriculture française à partir de la deuxième moitié du XXe siècle. Si la question de la sécurité alimentaire relève bien d’un enjeu planétaire, des marges de manœuvre existent au niveau national, notamment en actionnant des leviers divers et non négligeables : les politiques de développement rural et d’aménagement du territoire, la commande publique, la recherche agronomique, l’enseignement et la formation agricoles mais aussi l’accompagnement des projets de transition agroécologique. Toutefois, il est vrai que les règles européennes et de l’OMC limitent fortement la possibilité d’agir sur les deux causes fondamentales de l’industrialisation et de la mondialisation de l’agriculture : la Politique Agricole Commune (PAC) et les poli- tiques commerciales européennes (auxquelles nous pourrions rajouter les poli- tiques monétaires). Tant le fonctionnement actuel de l’Union Européenne que les choix politiques qui sont les siens représentent autant de barrières à la transformation de l’agriculture. Le corolaire de ce constat est qu’un changement profond de ces politiques agricoles et commerciales serait un levier assez puissant pour ré orienter l’agriculture.

La nouvelle réforme de la PAC 2021-2027, qui est encore en discussion, sans révolutionner l’essentiel, semble lentement mais surement s’orienter vers une forme de renationalisation d’un certain nombre de choix politiques relevant de la mise en œuvre de la PAC. Dans ce contexte de libre-échange généralisé, beaucoup redoutent, à juste titre, une forme de « PAC à
la carte » qui n’aurait pour effet que d’augmenter la concurrence entre les agricultures européennes, certains pays continuant
la course au productivisme, et d’autres augmentant leurs exigences environnementales et sociales. Ce risque de dumping est réel, mais il n’est pas nouveau et ne concerne pas uniquement le marché unique européen, mais également les marchés internationaux, auxquels notre agriculture est fortement intégrée. Si la réforme 2021-2027 de la PAC donnait plus de marges de manœuvre aux Etats, un gouvernement déterminé à conduire une politique de souveraineté alimentaire sera certainement avantagé, à condition, en parallèle, d’assumer la mise en œuvre de protections à l’échelle nationale face aux importations qui respondent pas aux modes de production que nous souhaitons pour l’Humanité. En somme, si la reprise en main de politiques agricoles à l’échelle nationale peut redonner des marges de manœuvre aux Etats, cela ne peut pas se faire positivement si nous ne reprenons pas également la main sur nos politiques commerciales. Cela n’interdit évidemment pas de proposer des alternatives à l’échelle européenne, mais nous savons la difficulté de telles négociations et le culte du « consensus » qui, concession par concession, nous a conduit à l’impasse. Ne nous interdisons pas d’agir maintenant à l’échelle nationale, car l’agriculture française se meurt à petit feu.

SI LA QUESTION DE LA SÉCURITÉ ALIMENTAIRE RELÈVE BIEN D’UN ENJEU PLANÉTAIRE, DES MARGES DE MANOEUVRE EXISTENT AU NIVEAU NATIONAL.

Votre laboratoire d’idée UTAA prône la relocalisation et le protectionnisme. De quelle manière les accords libéraux de l’Union européenne et sa volonté de s’insérer dans le marché mondial impact le monde agricole ? Doit-on, et si oui comment peut-on, sortir de la logique de libre-échange et s’orienter vers celle de la souveraineté alimentaire ?

Comprenons déjà comment les agricultures européennes se sont retrouvées si fortement intégrées aux marchés internationaux. Lorsque la PAC a été mise en œuvre à partir de 1962, elle avait pour objectif d’augmenter la production agricole du continent, qui était alors déficitaire et importateur pour des produits alimentaires de base. L’Europe se rassemblait autour d’un projet commun de souveraineté alimentaire. Devenant de plus en plus excédentaire à partir des années 1970, l’agriculture européenne a éloigné le continent des risques de pénurie et de famines. Cependant, la surproduction croissante de produits alimentaires fait courir le risque d’un effondrement des prix payés aux producteurs, et donc la mise en danger du tissu productif. Pour éviter cela, d’une part, l’Union européenne a mis en place des mécanismes de gestion de l’offre (quotas, par exemple), et d’autre part, l’UE a trouvé de nouveaux débouchés sur les marchés internationaux, en subventionnant les exportations.

Puis, dans les années 1990, face aux coûts importants de ces mécanismes de régulation des marchés et espérant profiter d’une demande alimentaire mondiale croissante, l’Union européenne a supprimé ces régulations et fortement libéralisé son marché agricole.

Le problème d’aligner les prix du marché intérieur sur les prix des marchés internationaux, qui ne représentent pourtant que 15% des échanges de produits agricoles, est d’imposer des prix qui sont ceux d’excédents agricoles, dont les pays veulent se débarrasser à bas prix à l’export. L’UE est le seul espace économique du monde à ne pas distinguer son marché intérieur des marchés internationaux par des mesures protectrices. La question posée par la dérégulation et la mondialisation des échanges de produits agricoles est également celle de la capacité intrinsèque des marchés à se réguler. Un consensus semble émerger entre agroéconomistes pour acter que les fluctuations des prix sur les marchés agricoles ne sont pas seulement la conséquence de facteurs exogènes (climat, ravageurs, etc.) mais également de facteurs endogènes à leur fonctionnement. Notamment, les cycles de productions agricoles sont longs, et les délais dans l’ajustement entre l’offre et la demande en produits alimentaires sont responsables de cycles de variation des prix sur les marchés plus ou moins chaotiques selon les produits. S’ils sont d’accord sur l’analyse du fonctionnement des marchés, les avis des économistes divergent en revanche quant aux solutions à apporter. Certains pensent que les marchés agricoles se réguleront d’eux-mêmes dès lors que de nouveaux outils qui leur sont propres, comme les assurances ou les marchés à termes, permettront de corriger cette instabilité endogène. D’autres, dont je suis et dont nous sommes avec UTAA, défendent plutôt une intervention plus directe de l’Etat dans la régulation des volumes produits et des prix, et donc la protection du marché intérieur face à des importations qui constituent, entre autres choses, une concurrence déloyale de notre agriculture en ne respectant pas les mêmes normes sociales et environnementales de production.

Il y a de très nombreuses raisons qui plaident pour une reprise en main par l’Etat de la régulation des marchés agricoles. Au-delà des défaillances « naturelles » des marchés agricoles que j’ai présentées, nous considérons que l’agriculture et l’alimentation relèvent de l’intérêt général : l’alimentation est un droit fondamental de toute personne humaine. Il est alors important que l’agriculture et l’alimentation soient pleinement présentes dans le champ démocratique : la souveraineté alimentaire est le droit des paysans et des peuples à décider de ce qu’ils veulent produire, en quelles quantités et de quelles manières ils veulent le produire. Cette démocratisation de l’alimentation nécessite que l’Etat assure la régulation des marchés, que ce soit des volumes produits, afin d’éviter les surproductions, ou des prix payés aux producteurs pour garantir un revenu décent et stable. La volatilité des prix est l’une des principales causes actuelles de la course au productivisme, avec tous les dégâts environnementaux que cela implique.

L’agriculture est critiquée pour son impact environnemental, émissions de gaz à effet de serre, dégradation de la biodiversité et du sol… Un modèle agroécologique est-il viable selon vous en France ? Comment peut-on réorienter notre système agricole, l’Etat a-t-il un rôle à jouer ? Com- ment cette évolution s’inscrirait elle dans le temps ?

La France est riche d’une grande diversité de territoires et de conditions agronomiques. Cela lui permet d’envisager la production diversifiée de nombreux produits agricoles, au moins à l’échelle nationale si ce n’est à l’échelle régionale. Cette richesse n’a été que trop peu valorisée au cours des 30 der- nières années du fait de la logique des « avantages comparatifs » : chaque pays doit se spécialiser dans les productions pour lesquels il dispose d’avantages naturels par rapport aux autres productions et aux autres pays. Cette logique libérale se heurte aujourd’hui aux réalités sociales et environnementales, et va à l’encontre du principe de souveraineté alimentaire. A l’inverse, la France pourrait valoriser cette richesse en produisant la quasi-totalité des produits agricoles de base ; cette diversification, et notamment le recouplage entre les activités d’agriculture et d’élevage (que l’on appelle polyculture-élevage), est le fondement des systèmes agroécologiques. En cela, un modèle agroécologique est bénéfique sur le plan environnemental, possible techniquement et agronomiquement, mais également souhaitable du point de vue de notre souveraineté alimentaire. Un tel modèle cessera, par exemple, d’importer du soja OGM brésilien pour nourrir les animaux d’élevage français et européen, mais augmentera la production de protéines végétales à destination de l’alimentation humaine et animale. Un tel modèle cessera le dumping lié aux exportations d’importants excédents de blé à bas coût, indirectement mais for- tement subventionnés par la PAC, en Afrique de l’Ouest, avec des conséquences dramatiques sur les productions vivrières de ces pays.

J’ai mentionné précédemment d’un côté les leviers que l’Etat pouvait mobiliser, et de l’autre comment l’Union européenne pourrait réformer ses politiques agricoles pour soutenir un modèle agroécologique. Le soutien à la transformation agroécologique suppose de rompre avec la logique libérale des avantages comparatifs afin de privilégier la diversification des productions et la coopération internationale autant que de besoin. Cette agriculture écologique est une agriculture paysanne, qui valorise les connaissances et les savoir- faire des agriculteurs et des éleveurs, de concert avec les techniciens, les ingénieurs et les chercheurs. Cette transition suppose la création de centaines de milliers d’emplois dans l’agriculture et dans l’artisanat agroalimentaire, d’où l’importance de revoir profondément les objectifs et modes d’attribution des subventions de la PAC. Cela se planifie afin de mettre en cohérence un calendrier de sortie des pesticides, la reconstruction d’écosystèmes agricoles stables et diversifiés, la formation et l’installation de nombreux nouveaux paysans, etc. Il y a cependant urgence : d’ici 5 à 10 ans, nous aurons perdu la moitié des exploitants agricoles actuellement en activité. C’est donc une transition rapide qu’il nous faut opérer ; elle pourrait être soutenue, d’une part, grâce à la réorientation des subventions européennes, et d’autre part, par une intervention de l’Etat pour désendetter les paysans et adapter rapidement les structures agraires à cette nouvelle agriculture (partage du foncier, notamment).

IL Y A DE TRÈS NOMBREUSES RAISONS QUI PLAIDENT POUR UNE REPRISE EN MAIN PAR L’ETAT DE LA RÉGULATION DES MARCHÉS AGRICOLES.

Comment peut-on relocaliser et repartager la valeur ajoutée sur les filières agricoles ? Est-ce qu’un juste prix aux producteurs signifie une hausse des prix pour les consommateurs ?

La mondialisation des systèmes alimentaires a été rendue possible par le faible coût de l’énergie permettant le transport d’intrants et de matières premières agricoles sur des longues distances. Les effets pervers de cette mondialisation sont connus : perte de souveraineté alimentaire au Nord comme au Sud, chômage de masse, développement du productivisme agricole et déforestation, émissions croissantes de gaz à effet de serre.

Il est estimé que le système ali- mentaire mondial est responsable d’environ 50% des émissions de GES. La relocalisation de notre alimentation est autant un enjeu environnemental que démocratique. Ce projet rencontrera notamment l’opposition des grandes indus- tries agroalimentaires transnationales, qui sont aussi bien implantées au Nord qu’au Sud, et qui sont en situation d’oligopoles sur les marchés. Stratégiquement, nous devrons organiser la relocalisation et surtout la ré-atomisation de l’agroalimentaire français. Le rapport de négociation des prix entre les paysans et l’agroalimentaire doit être strictement encadré par la loi, avec la mise en place d’un coefficient multiplicateur limitant les marges des intermédiaires. La mise en place d’un prix minimum garanti rémunérateur (qui n’est ni plus ni moins que la traduction concrète de l’interdiction de vente à perte), l’encadrement des marges des intermédiaires, ainsi que la protection aux frontières contre les importations déloyales sont autant d’outils pour assurer le partage de la valeur ajoutée au sein des filières.

La question des prix payés par le consommateur est le grand argument avancé par les libéraux et par les défenseurs d’une agriculture industrielle cherchant encore à augmenter la productivité du travail et de la terre, faisant fi des graves problématiques environnementales et agronomiques sous-jacentes. L’existence de prix alimentaires faibles est la condition pour que le reste de l’économie (industrie et services) puisse maintenir les bas salaires à des niveaux parfois insuffisants pour vivre correctement. Ainsi, sans hausse générale des salaires, il apparaît que la hausse du prix de l’alimentation sera dramatique pour de nombreux ménages modestes, y compris en France, où déjà 12% de la population, soit 6 millions de nos concitoyens, sont en situation de précarité alimentaire. En cela, l’idée d’une Sécurité sociale de l’alimentation fait son chemin, et pourrait constituer une solution intéressante, notamment pour les produits tels que les fruits et légumes bio. Toutefois, il est notable que la forte volatilité des prix sur les marchés agricoles (des matières premières) ne conduit pas à une telle volatilité des prix sur les marchés alimentaires, qui sont, eux, plutôt stables. On parle souvent d’asymétrie dans la transmission des prix pour décrire ce phénomène : une variation des prix payés aux producteurs ne se transmet pas jusqu’au consommateur. De plus, en observant la composition des prix alimentaires, nous remarquons que pour de nombreux produits de première nécessité, comme le pain par exemple, la part du prix payé par le consommateur qui revient au producteur de blé est très faible, le reste du prix correspondant aux intermédiaires. Par exemple, un doublement du prix payé au producteur pour le blé tendre destiné à la fabrication de pain n’occasionnerait, à supposer que cette hausse soit totalement transmise au consommateur, qu’une hausse minime du prix de la baguette (+1,575€/mois pour l’achat d’une baguette de 250g par jour).

Cette diversification, et notamment le recoupage entre les activités d’agriculture et d’élevage est le fondement des systèmes agroécologiques.

Lire aussi...

La faillite intellectuelle d’Emmanuel Todd (2/2)
The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)

La décentralisation et l’aménagement du territoire : comment remédier à l’échec écologique ?

L'État et les grandes transitions

La décentralisation et l’aménagement du territoire : comment remédier à l’échec écologique ?

Conçu comme un remède au malaise démocratique et à un aménagement vertical et peu harmonieux du territoire, la décentralisation n’est pas exempte de critiques : confiscation de la parole citoyenne, bétonisation accrue, artificialisation des sols accélérée au bénéfice des intérêts des entreprises du CAC40… Repenser les relations entre Etat, collectivités territoriales et citoyens s’avère nécessaire pour remédier à l’échec écologique. 
Une décentralisation qui met fin à l’aménagement du territoire d’Etat

La France a longtemps développé un système alliant liberté locale et planification centrale, avant que cet édifice administratif original ne soit réformé du fait de ses contradictions. Malgré une dimension centralisatrice marquée, la IIIème République est à l’origine des premiers textes instituant la libre administration des collectivités territoriales : la charte communale de 1884 proclame que « le conseil municipal règle par délibération les affaires de la commune » consacrant ainsi un intérêt public communal. Cette « clause générale de compétence » est l’une des premières et des plus importantes libertés locales, dans la mesure où elle garantit la libre administration là où se présente un « intérêt communal, justifiant la création de services publics communaux et l’octroi de subventions ». En outre, la loi de 1871 consacre un « intérêt départemental » sur lequel les conseils généraux ont capacité à délibérer, anticipant la clause générale de compétence des communes.

Néanmoins, cette libre administration a été nuancée par l’affirmation d’une autorité préfectorale forte, garantissant une représentation du gouvernement et un respect de la loi à l’échelle départementale. Ainsi, la libre administration des territoires s’accompagne en France, depuis 1945, d’une planification nationale plus ou moins forte selon les époques, destinée à créer un urbanisme plus harmonieux et conforme aux attentes de l’État. La France s’est dotée d’instruments exceptionnels en ce sens, notamment sous les mandats gaullistes. Charles de Gaulle affirma lui-même que « la construction, la voirie, les écoles, les hôpitaux, l’implantation d’usine, les chantiers, les stades, les espaces verts, la circulation requièrent des plans unifiés et des règles communes ». L’aménagement est donc mis en œuvre à travers plusieurs dispositifs:

1. Par l’autorité du Préfet, chargé de l’urbanisme, de l’équipement et de l’aménagement, maitrisant les droits des sols, ce qui lui permettait de signer les permis de construire.

2. Par les schémas directeurs, organisés par la DATAR, organisme directement sous contrôle du Premier Ministre guidant la nature des aménagements via un processus de zonages : ici apparaissent les ZUP et les ZAC, qui organisent rationnellement le territoire en fonction des besoins de l’Etat. Cette situation est contestée au sortir du gaullisme : la tutelle du préfet sur les collectivités territoriales n’est plus acceptée par un pouvoir local, qui, dépossédé de sa capacité à produire des actes réglementaires, n’avait qu’un rôle finalement secondaire dans des domaines fondamentaux de l’économie d’après-guerre : le logement, l’aménagement et l’urbanisme. Les lois Defferre de 1982-1983, en réduisant le pouvoir des préfets aux profits des élus, désormais soumis au contrôle réglementaire a posteriori, enclenchent une révolution qui modifie profondément l’organisation territoriale de notre pays.

LA FIN DE L’AMÉNAGEMENT ANARCHIQUE PASSE PAR UNE RÉHABILITATION DU RÔLE DE L’ETAT.

Tout d’abord, les communes acquièrent des compétences élargies en termes d’urbanisme et d’aménagement, qu’il s’agisse de l’élaboration de la règle générale, à travers le plan local d’urbanisme (PLU), ou de délivrance d’autorisations individuelles, comme les permis de construire. Elles deviennent également compétentes pour la gestion de grands services publics locaux, notamment en matière de voirie, logement, adduction et assainissement des eaux, dont l’organisation est souvent partagée avec d’autres communes via les syndicats à vocation unique (SIVU). Les échecs de certains projets urbanistiques lancés par l’Etat, tels que les Grands ensembles, ont progressivement discrédité une action centralisée en matière d’urbanisme et légitimé le processus de décentralisation en la matière.

En outre, la loi Defferre transmet des blocs de compétences aux collectivités territoriales, accompagnés des moyens financiers nécessaires à leur exercice, en vertu du principe de compensation. La commune prend ainsi en charge les écoles, le département les collèges et l’action sociale (notamment la gestion du RSA), la région les lycées, la formation professionnelle et le développement économique. Ces blocs de compétences ont pour objectif de créer une gestion du service public plus cohérente par rapport au territoire dans lequel ils s’inscrivent : il n’était pas rare, du temps de la gestion du « tout Etat », que les élus aient à contenter le préfet pour assurer, par exemple, la rénovation de leur école communale, ce qui posait problème au niveau de leur indépendance politique.

Ainsi, la décentralisation est une réussite en termes d’amélioration de la libre administration locale. Mais la liberté a son revers de médaille : l’aménagement du territoire peu cohérent qui en est issu a considérablement endommagé les espaces naturels français, accru les inégalités territoriales et copieusement enrichi les entreprises du CAC 40.

Bétonisation de la France, recul de la biodiversité : les travers de la décentralisation

La libéralisation de l’aménagement du territoire, via la décentralisation, a ouvert la porte à l’omniprésence du capital privé sur les décisions des collectivités territoriales, affaiblissant la démocratie locale. Depuis les années 1980, la France subit une lame de fond néolibérale caractérisée par l’accroissement de la prédation du capital, notamment des grands groupes du CAC 40, sur la société en général et la décision politique en particulier. Cette vague a su s’engouffrer dans les failles que portaient les lois de décentralisation. L’aspect le plus négatif en est indéniablement l’accélération du rythme de l’artificialisation des sols. Ce processus atteint en France une proportion considérablement et réellement inquiétante : 5,2 % des sols sont artificialisés dans notre pays, contre 4% de moyenne dans l’Union Européenne, alors que la densité de population française est moins élevée. La surface commerciale y est également très conséquente, atteignant 1,2 mètres carrés par habitant, avec des effets particulièrement délétères pour le commerce de centre-ville. Ce processus s’accélère en dépit de la prise de conscience du recul de la biodiversité et de l’effondrement du vivant : chaque année, 60 000 hectares, soit l’équivalent de plus de la métropole de Lyon, sont coulés dans le béton, pour y établir en général un urbanisme très critiqué, essentiellement fait de zones commerciales et de voies rapides.

Les causes de cette dérive sont bien connues. Tout d’abord, le transfert des capacités d’aménagement de l’Etat en direction des collectivités territoriales, commune et leurs maires en premier lieu, notamment par la compétence en droit des sols, a entrainé la signature de milliers de permis de construire sans qu’une régulation exigeante ne se présente. Dès lors ont émergé les ZAC, symboles de la Vème République, « d’une France hideuse » bétonnée, remplaçant inexorablement le petit commerce des centres villes en déshérence ; entrainant, en conséquence, une dépendance accrue par rap- port à l’automobile, dont les Gilets Jaunes démontrent l’incompatibilité avec l’accomplissement d’exigences sociales et environnementales.

A fortiori, ce processus délétère a été accéléré par la dimension concurrentielle de l’économie de marché, incitant chaque maire à aménager au plus vite et au moins cher, afin d’attirer des entreprises et des emplois au détriment du voisinage, notamment pour bénéficier de surplus de recettes fiscales. En effet, l’autonomie financière des collectivités territoriales leur permet d’en déterminer partiellement le montant et l’assiette. A la concurrence pour l’attraction des investissements, s’est donc ajoutée celle pour les impôts locaux, au risque d’entrainer une gestion malsaine des affaires locales. La libéralisation de l’attribution des permis de construire, mais aussi de la gestion de l’adduction d’eau, a fait la fortune des entreprises du CAC 40, notamment dans le secteur du BTP et de services collectifs, où les majors françaises sont les plus puissantes du monde.

L’artificialisation des sols a également profité au secteur de la grande distribution, jusqu’à multiplier par 6 la surface commerciale en 30 ans. Le BTP n’est pas en reste : les promoteurs immobiliers vendent désormais aux communes des « ensembles urbains » comprenant également la construction d’équipements sportifs, culturels et de logements sociaux dans un urbanisme largement standardisé.

L’ARTIFICIALISATION DES SOLS S’ACCÉLÈRE MALGRÉ LA PRISE DE CONSCIENCE DU RECUL DE LA BIODIVERSITÉ.

Les kilomètres d’autoroutes inutiles, comme par l’exemple l’A65 entre Pau et Langon, se comptent en centaines, alors que s’étendent les zones d’activités et les zones commerciales improductives au détriment des espaces agricoles et naturels.

Ainsi, les collectivités territoriales se targuent d’être les premiers investisseurs de France (80% du total des investissements dans le pays), tout en finançant des projets peu productifs en soi et inutiles pour le futur de l’économie française. Peut-on raisonnablement imaginer qu’il ne soit pas préférable d’investir dans la construction d’un énième supermarché que dans les nouvelles technologies vertes ? Pourtant, les entreprises des services collectifs et du BTP française profitent de l’appétit de certains élus et de marchés peu concurrentiels pour bénéficier de rendements sur actions des plus élevés et des ressources propres nécessaires pour « superformer » le marché à l’international, en remportant notamment des marchés publics.

Un Etat organisant son impuissance écologique

L’artificialisation des sols repart à la hausse après un ralentissement en 2016. Comment expliquer l’accélération de cette tendance, malgré la prise de conscience grandissante des enjeux écologiques ? Tout d’abord, le déclin de l’action de l’Etat a considérablement renforcé le rôle des groupes privés. Avant 1982, le préfet, par l’intermédiaire de la Direction Départemental de l’équipement et des territoires (DDE/DDT) déterminait le plan d’occupation des sols (POS) et délivrait les permis de construire. Cette politique s’accompagnait d’un zonage territorial, destiné à répartir les nouveaux quartiers de logements sociaux, les aires sportives, les zones commerciales etc.

Le préfet organisait ainsi la construction du logement social, en mobilisant un promoteur public, la SIC, et un promoteur bénéficiant de prêts bonifiés, GFF, pour construire du logement privé bon marché. L’Etat perdant son monopole dans la construction de quartier d’habitat social, cette situation n’avait plus lieu d’être après la décentralisation.

Ainsi, ont émergé des promoteurs privés sous le contrôle de l’économie financières, tels que Kaufmann and Broad, BNP Paribas Real Estate, Bouygues Immobiliers qui se sont progressivement substitués à l’action publique pour la construction de logements sociaux et d’équipements collectifs. Ces entreprises, suivant une bonne logique capitaliste, ont tenté de remporter des marchés publics peu concurrentiels en proposant des bâtis standardisés, peu durables, étrangers à toute considération architecturale en termes de respect du patrimoine local ; faisant une « France hideuse » mais rapide et peu couteuse à construire. Un procédé d’autant plus redoutable qu’il est difficile pour les élus de résister aux sirènes du « vite fait, mal fait » pour un moindre coût, dans la mesure où la baisse des dotations de fonctionnement les oblige à chercher à augmenter leurs ressources par des investissements douteux.

UNE AGENCE NATIONALE DE LA COHÉSION DES TERRITOIRES RENOUVELÉE EST ENVISAGEABLE.

Ces entreprises exercent ainsi une influence considérable sur les directions d’aménagements et les maires, qui logiquement, prennent l’ascendant sur la décision locale, au risque de développer des logiques problématiques de conflits d’intérêts. Il suffit de se rendre dans un salon d’élus pour comprendre que le démarchage par les grandes entreprises est une réalité quotidienne dans la vie des collectivités territoriales. Dans ces congrès, les groupes de services collectifs (Veolia, Suez, Guy Dauphin) du BTP (Eiffage, Bouygues) et de la concession (Vinci) y côtoient des élus et des directions d’aménagements, où des relations d’influences se tissent. Il n’est ainsi pas rare de voir certains directeurs généraux de services ou de l’aménagement des communes intégrer un poste bien rémunéré dans l’une de ces entreprises pour service rendu…Une logique de prébende qui n’a pas sa place en démocratie. Les marchés publics discutables de délivrance de permis de construire, sont l’une des principales sources de corruption en France, et tout promoteur avouera au cours de sa carrière, avoir « fait passer au moins une valise ».

Mais l’effet pernicieux de cette logique est indéniablement la concentration du pouvoir au- tour du maire et de ses services techniques, notamment dans le domaine de l’aménagement. Le premier édile est en général roi dans son conseil municipal, toute récalcitrance au sein d’une majorité signe, en général, un arrêt de mort politique. Les décisions prises par les services techniques, aménagement en premier lieu, ne sont pas toujours transparentes, tout particulièrement pour les administrés, dont le droit de regard sur la gestion municipale est habituellement très limité. Les Conseils de quartier sont en général noyautés par des élus locaux, qui les réduisent en officines de la mairie. Les membres des Conseils Citoyens se plaignent de leur faible capacité d’influence et de décision, ce qui explique qu’ils soient désertés par la population et essentiellement composés de professionnels en politique de la ville : à titre d’exemple, le Conseil citoyen du quartier « la Dame Blanche » (Garches les Gonesse) n’est composé que de 14 membres pour les 20 000 habitants que compte ce quartier prioritaire de la ville (QPV).

Il ne s’agit pas là de faire le procès des élus locaux, dont le rôle pour la bonne tenue de la démocratie en France est essentiel. Par ailleurs, il arrive souvent que les élus refusent le permis de construire pour lutter contre l’artificialisation des sols, comme cela a été le cas à Dolus d’Oléron contre un projet d’implantation de Mac Donald’s.

Néanmoins, ces oppositions sont souvent cassées par les tribunaux administratifs, dans la mesure où une commune ne peut refuser de valider un permis de construire sans motivation réelle et sérieuse (TA de Poitiers, Dolus d’Oléron c/ Mac Donald’s, 2018). Si les possibilités pour les collectivités territoriales d’œuvrer à un monde plus juste et durable existent, elles sont néanmoins entravées par une organisation juridique et administrative de la France qui n’a pas su se réformer suffisamment.

Des propositions pour un aménagement plus rationnel du territoire

La fin de l’aménagement anarchique et du cortège d’inégalités et de destructions environnementales qu’il engendre passent par une réhabilitation de rôle de l’Etat, un renforcement de la réglementation en la matière et un approfondissement du contrôle des élus par les citoyens. Une série de mesures sont envisageables en ce sens.

1/ Renforcer le rôle de l’Etat dans l’aménagement du territoire. Tout d’abord, la France dispose d’une grande tradition de planification urbaine par les politiques d’aménagement du territoire. Les instruments existent, mais ont été vidés de leur substance, faute de moyens, mais aussi à cause d’un nouveau cadre juridique qui réduit leurs prérogatives.

A cet effet, il semble nécessaire de revenir à la tradition d’aménagement du territoire, en renforçant le rôle de l’Agence nationale de la co- hésion des territoires (ANCT) et de la doter de plus fortes prérogatives. Le contrôle a posteriori via le déféré préfectoral des PLU, POS et des permis de construire ne suffit pas, les préfectures n’ayant plus les moyens de vérifier la validité de tous les actes administratifs des collectivités territoriales. Une Agence nationale de la cohésion des territoires renouvelée, établissant un contrôle a priori sur les plans locaux d’urbanisme et les plans d’occupation des sols, via les agents des DDE et des DDT, est tout à fait envisageable : en matière d’aménagement du territoire, la codécision entre les maires, porteurs de l’intérêt local, et l’Etat, porteur de l’intérêt général, auquel incombe la mission de préserver l’environnement est plus souhaitable que l’exclusivité d’un seul de ces acteurs sur le sujet. L’Agence nationale de la cohésion des territoires devra disposer des moyens nécessaires à son action (bureau d’études, cabinet d’urbanisme) et déconcentrer ses agents directement vers les 101 préfectures qui composent le France, d’où ils établiront une délimitation plus stricte des zones constructibles ou non.

La fonction publique emploie 1 millions de cadres, la majorité en région parisienne. Si les enquêtes d’opinion témoignent d’un désenchantement croissant des cadres pour la mégapole parisienne, quels arguments pourraient être opposés à un transfert massif d’agents vers la province ? En matière d’organisation de l’administration d’Etat, l’égalité entre les territoires doit primer : il est donc temps de convertir les principes de la Loi ATR (1992) « La République est décentralisée et déconcentrée » en actes.

2/ Renforcer la réglementation des constructions. Ce processus de « replanification » de l’aménagement du territoire gagnerait à s’accompagner d’une réglementation plus forte limitant immédiatement le rouleau compresseur de l’artificialisation des sols. Plusieurs solutions gagneraient à s’imposer. Tout d’abord, un moratoire sur les nouvelles constructions : les entrepreneurs doivent se contenter du bâti déjà considérable, 6% du sol français en 2020 contre 2% en 1970, afin de faire cesser la compétition délétère aux investissements et aux impôts entre les collectivités au détriment de l’environnement et du petit commerce des centres villes. En outre, un plafonnement des mètres carrés commerciaux des villes de banlieue en un ratio raisonnable par rapport au nombre d’habitants des communes apparaît nécessaire. Les maires seraient ainsi déchargés d’une responsabilité écrasante qui pèse sur leur fonction et pourraient se concentrer sur des dispositifs plus prioritaires, tel que la réalisation de la péréquation et la réduction de la dépendance à l’automobile.

3/ Retrouver une démocratie locale digne de ce nom. Aucune amélioration de la décentralisation ne pourrait être opérante sans une prise en compte de la voix des citoyens dans le procesus de décisions. Plusieurs propositions réalistes sont envisageables en ce sens.

1. Réformer les EPCI : il est inacceptable qu’une grande partie des prérogatives des communes soient organisées à l’échelle des établissements publics de coopération intercommunaux (EPCI) dont les représentants ne sont pas élus, et dont l’existence est en général ignorée des citoyens. Une réforme constitutionnelle s’impose pour convertir les EPCI en collectivités territoriales, ce qui permettrait d’élire leur conseil et accroitre, ce faisant, leur contrôle démocratique. Dans le cas contraire, ces EPCI n’auraient pas vocation à poursuivre leur existence.

2. Renforcer les instances participatives existantes : soulignons ainsi que les Conseils de quartier et les Conseils citoyens doivent cesser d’être des succursales invisibles de majorités politiques où se morfondent une poignée de responsables associatifs.La moindre des choses serait de leur permettre d’imposer une question à l’ordre du jour de chaque conseil municipal. En outre, peut être imaginée une « Assemblée des conseils citoyens et de conseils de quartiers », disposant du pouvoir d’organiser une consultation sur un sujet relevant des compétences locales tous les deux ans. L’état actuel des consultations n’est certainement pas satisfaisant : les barrières à l’entrée pour l’organisation d’un référendum local sont trop importantes. Le seuil d’acceptabilité peut-être redescendu de 1/5 du corps électoral à 1/10, avec obligation pour le maire de se plier à l’organisation en cas de réunion d’un nombre suffisant de signatures. Plusieurs autres idées gagnent à être étudiées :

2.1– Expérimenter, conformément à l’article 72-4 de la Constitution, dans certaines collectivités, un nouveau mode de scrutin permettant de répondre davantage aux attentes des citoyens, tels que le jugement majoritaire, proposé par Chloé Ridel.

2.2- Donner au maire, ou à un nombre suffisant de citoyens inscrits sur les listes électorales, le droit de se prononcer par référendum pour un projet urbanistique requérant plus de 0,5 hectare d’artificialisation des sols. Trop souvent, les collectivités territoriales n’ont pas leur mot à dire sur des projets qui ne concernent pas leur bloc de compétence, ce faisant, l’enthousiasme des maires et des élus sur leur fonction en pâtit. Il semble donc nécessaire de rétablir la clause générale de compétence et de défendre les libertés locales comme acquis de la République.

La préservation de l’environnement et la réduction des inégalités territoriales appellent par conséquent un nouveau contrat entre collectivités territoriales, Etat et citoyens afin de définir démocratiquement des règles contraignantes pour limiter l’artificialisation des sols et sauver la biodiversité de son effondrement. Sans cela, l’aménagement du territoire restera une réalité anarchique, davantage motivée par la concurrence fiscale et l’appât du gain de certain d’élus dont les intérêts convergent avec ceux du CAC 40.

LA RÉDUCTION DES INÉGALITÉS TERRITORIALES APPELLE PAR CONSÉQUENT UN NOUVEAU CONTRAT ENTRE COLLECTIVITÉS TERRITORIALES, ETAT ET CITOYENS.

Références

Chloé Ridel, Ma solution pour la France : le jugement majoritaire, L’Obs, 19/03/2019

Lire aussi...

La faillite intellectuelle d’Emmanuel Todd (2/2)
The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)
Un tout petit effort pour ne rien rater …

Inscrivez-vous à notre newsletter