« L’idée que les Occidentaux se sont faite dans les années 1990 de leur triomphe historique définitif était fausse »

Stratégie & Bifurcation

« L’idée que les Occidentaux se sont faite dans les années 1990 de leur triomphe historique définitif était fausse »

Entretien exceptionnel avec Hubert Védrine
Ancien ministre des Affaires étrangères, ancien secrétaire général de l’Elysée sous François Mitterrand, l’expertise géopolitique d’Hubert Védrine est aujourd’hui internationalement reconnue. Il a très récemment publié l’ouvrage « Une vision du monde » (Bouquin, 30€) qui dessine, au fil des interventions réunies à cette occasion, une vision du monde et des relations internationales qualifiée de néo-réaliste. A cette occasion, il a accordé au Temps des Ruptures un entretien exceptionnel au cours duquel nous avons pu aborder la place de la France dans le monde, le conflit en Ukraine, l’avenir de l’Europe et du système international, l’impact géopolitique de la crise écologique et bien-sûr, le défi Chinois. L’occasion, en cette période troublée où nos repères géopolitiques des trente dernières années vacillent, de faire un point général.
Le Temps des Ruptures : Pour de nombreux commentateurs, la politique étrangère d’Emmanuel Macron renoue avec ce qu’on appelle le « Gaullo-Mitterrandisme », mais qu’est-ce au juste que cette doctrine ? Qui l’a théorisée et comment la définir au XXI siècle ? La France s’en était-elle vraiment écartée depuis quelques années ?
Hubert Védrine : 

C’est moi qui ai, le premier, dans les années 80, proposé l’oxymore « gaullo-mitterrandisme », pour désigner la reprise et la poursuite par le président Mitterrand des fondamentaux de la dissuasion nucléaire selon Charles de Gaulle. Cette expression a été ensuite étendue à la politique étrangère française en général. Elle a été utilisée au sein du Quai d’Orsay par ceux – les néo-conservateurs – qui, tout en prétendant que le néo-conservatisme n’existe pas (c’est même à cela qu’on les reconnaît) ont, depuis la présidence Sarkozy, mené la bataille occidentaliste contre ce gaullo-mitterrandisme présenté comme étant systématiquement anti-américain, anti-israélien, anti-mondialisation, etc., ce qui est évidemment faux. Ce terme désigne tout simplement une politique étrangère qui œuvre à ce que la France, loyale envers ses alliés et ses partenaires, conserve in fine son autonomie de décision, ce qui est de plus en plus difficile. Cela dit, personne ne sait ce que penserait le Général de Gaulle, ou Mitterrand, aujourd’hui ! Quant au président Macron, il a mêlé depuis 2017 dans sa politique étrangère et selon les sujets des approches gaullo-mitterrandienne, mondialistes, européennes, ou autres. En fait il mène une politique … macronienne, enrichie maintenant par cinq ans d’expérience.

LTR : Dans un monde ouvert comme le nôtre, chaque nation doit user des atouts dont elle dispose, quels sont les atouts de la France aujourd’hui pour construire sa politique étrangère et maximiser son influence ?
Hubert Védrine : 

La France a de très nombreux atouts qu’elle ne reconnaît pas et divers handicaps que, par masochisme, elle ne cesse de mettre en avant. Le décrochage économique par rapport à l’Allemagne est, lui, une réalité tangible. Mais la France reste une puissance (et il y a peu de puissances dans le monde, au maximum une quinzaine), une puissance moyenne d’influence mondiale. Chaque mot compte. Ce qui devrait suffire à écarter à la fois la grandiloquence et la déprime.

LTR : La politique étrangère de la France est-elle constante ou bien est-elle sujette au jeu de l’alternance démocratique ?
Hubert Védrine :

Les politiques étrangères des pays sont assez constantes dans la durée car elles découlent de la géographie, de l’histoire et de l’idée que les peuples se font d’eux-mêmes, de ce qu’ils redoutent ou espèrent, ce qui ne change que lentement, même si les rapports de force économiques évoluent plus vite. Mais plus les opinions pèsent dans les démocraties, pas seulement au moment des élections, mais en permanence, voire à chaque minute, plus les ouragans émotionnels médiatiques ou numériques peuvent contraindre ou handicaper des politiques étrangères obligées d’être « réactives ». A tel point que dans la plupart des démocraties, les dirigeants ne cherchent même plus à concevoir et à conduire une vraie politique étrangère, mais se bornent à prendre des « positions » pour satisfaire leur électorat ou calmer l’opinion à l’instant T, d’où une guerre interne, statique et stérile de « positions », ce qui n’a évidemment aucun impact sur les évènements internationaux. Cela les affaiblit beaucoup.

LTR : La France a, pour d’évidentes raisons historiques, été très active au Moyen-Orient. Pourtant on a le sentiment d’un désengagement, non seulement Français mais plus largement occidental, dans la région à la faveur de la recomposition en cours (Syrie, Irak, relations entre Israël et le Golfe, etc…), existe-t-il encore une politique Française structurée au Moyen-Orient ?
Hubert Védrine : 

Il y a en effet une fatigue visible et un désengagement occidental, y compris français, au Proche et, sur la question palestinienne, au Moyen-Orient. Il demeure quand même une politique française sur chaque problème et pays par pays. Mais la cohérence du tableau d’ensemble n’est pas évidente. Cela dit, cette remarque s’applique également aux autres puissances extérieures à cette zone, ainsi qu’aux puissances régionales (dont aucune ne peut l’emporter complètement sur les autres). Seul un compromis durable Iran/Arabie modifierait cette donne.

LTR : Vu d’Europe, l’Afrique est un enjeu essentiel du XXIe siècle pour des raisons démographiques et climatiques. Pourtant le continent peine à se structurer politiquement et reste la proie de certaines puissances dont la politique étrangère peut être qualifiée de néo-colonialiste. On voit par ailleurs l’échec de l’opération Barkhane au Mali (après le succès de l’opération Serval) et les difficultés que nous avons, y compris en zone francophone, à contenir l’emprise chinoise et, désormais, russe. Quelles sont nos marges de manœuvre ? Quels devraient être les piliers de notre politique étrangère en Afrique, au-delà de la seule aide au développement ?
Hubert Védrine : 

On ne peut parler d’Afrique(s) qu’au pluriel. Il y a trop de différences entre les régions et entre chaque pays ! En dépit de ce que ressassent les Européens, Français en tête, l’avenir des pays d’Afrique dépend avant tout des Africains eux-mêmes. Barack Obama avait été courageux de leur rappeler, à Accra, qu’ils ne pouvaient plus attribuer leurs problèmes aux colonisations, très anciennes, ni à l’esclavage (qui a d’ailleurs été, dans la durée, majoritairement d’origine africaine ou arabe) mais à eux-mêmes. Certains pays d’Afrique s’en sortiront très bien, d’autres moins. Nous n’y pouvons pas grand-chose. D’autant que l’aide au développement, abondante depuis des décennies, a été largement détournée ou plus encore gaspillée et qu’en plus il n’est pas certain que l’aide déclenche le développement. Cela se serait vu ! Les pays d’Afrique, sauf les très pauvres, demandent d’ailleurs plutôt des investissements ou l’accès à nos marchés.

 

Une de nos priorités concernant l’Afrique, ou plutôt le préalable, devrait être la cogestion des flux migratoires (nécessaires) entre les pays de départ ou de transit – il faudra qu’ils l’acceptent – et d’arrivée – un Schengen qui fonctionne vraiment – par la fixation annuelle de quotas par métiers. Ce qui nécessitera le démantèlement systématique des réseaux de passeurs qui savent très bien comment tourner et détourner massivement le droit d’asile, lequel doit être absolument préservé mais refocalisé sur sa vraie raison d’être : protéger des gens en danger.

Les Africains continueront bien sûr à jouer de la mondialisation en mettant en concurrence la quinzaine de puissances qui ont des projets et des intérêts en Afrique, et dont la plupart ne leur posent pas de conditions démocratiques ! On ne peut pas s’en étonner, ni leur reprocher ! En plus, vous avez vu que beaucoup d’entre eux n’ont pas condamné la Russie.

LTR : Par conséquent, pensez-vous que nous devrions rester au Mali ou bien quitter le pays ?
Hubert Védrine : 

On ne peut pas rester au Mali, coup d’Etat ou non, Russes ou pas, si le gouvernement de Bamako nous demande de partir. Les Maliens, comme les Guinéens, ont d’ailleurs déjà joué plusieurs fois la carte russe depuis leur indépendance. Grand bien leur fasse !

La France était venue au Mali avec l’Opération Serval, à la demande du Mali, des pays voisins et du Conseil de sécurité, pour empêcher la conquête de Bamako par un nouveau Daesh. Ce qui a été réussi. Nos 57 morts ne le sont pas pour rien. En revanche l’Opération Barkhane ne pouvait éliminer le djihadisme dans tout le Sahel si la France était à peu près seule !

En revanche, il faudrait obtenir de chacun des autres pays du Sahel une réponse claire  à la question : veulent-ils que nous restions pour les aider à lutter contre le djihadisme ? Si oui, on verra dans quelles conditions, mais alors ce sera à eux de régler leurs problèmes avec le Mali.

LTR : Enfin, pensez-vous que la France soit aujourd’hui une nation souveraine en matière de politique étrangère ?
Hubert Védrine :  

Il n’y a plus dans le monde globalisé de nations totalement souveraines au sens autarciques – même pas les Etats-Unis ou la Chine ou la Russie (quoi que croit Poutine) – tant les interdépendances sont fortes. Les pays se tiennent un peu tous par la barbichette, mais il y a quand même des pays qui réussissent à rester plus souverains ou moins dépendants que d’autres ! Voyez l’énergie ou les matières premières ! Au minimum, il faut préserver notre autonomie finale de décision sur les questions vitales et réduire méthodiquement toutes les dépendances que nous avons laissé s’accroître du fait d’une confiance trop naïve dans la mondialisation. Ce qu’a compris l’actuelle Commission et ce que va accélérer pour l’énergie le choc de la guerre en Ukraine qui s’ajoute à la désimbrication en cours, mais qui ne sera jamais totale, des économies chinoises et américaines.

LTR : La crise en Ukraine, qui n’est pas terminée, a été un révélateur : on a vu l’OTAN, pourtant en « état de mort cérébrale » comme le disait il y a peu encore Emmanuel Macron, revivifiée et l’Union Européenne parfaitement inaudible. Certains, en France, s’en désolent : faut-il en conclure que l’OTAN est un élément indépassable de notre politique étrangère ? Ou bien la confirmation que l’OTAN a pour seule vocation de gérer le cas russe ?
Hubert Védrine : 

L’OTAN est depuis sa création une alliance militaire défensive anti-soviétique. Ce n’est donc pas étonnant qu’elle soit aujourd’hui revigorée par la guerre d’invasion russe en Ukraine, à ses frontières. Elle perdurera tant que les pays alliés européens jugeront impensable de la remplacer par quoi que ce soit d’autre, et notamment pas par une défense spécifiquement européenne, à laquelle ils ne croient pas. Mais ce n’est pas non plus le rôle de l’OTAN de définir une stratégie politique par rapport à la Russie. Rappelons-nous la guerre froide. Les dirigeants américains dissuadaient fermement l’URSS mais négociaient quand même avec elle, et ne chargeaient pas l’OTAN de ce volet politique. Donc il n’y a rien à reprocher à l’OTAN, mais il ne faut pas se tromper sur son rôle. Et de toute façon ce n’est pas d’actualité.

LTR : Un mot de la crise ukrainienne : comment en sommes-nous arrivés là en trente ans ? Comment répartiriez-vous les responsabilités entre Russes, Américains – OTAN – et Européens de l’est ? Ne sommes-nous pas en train de pousser définitivement la Russie dans les bras de la Chine ?
Hubert Védrine : 

Je pense en effet que les Occidentaux n’ont pas eu une politique intelligente envers la Russie, du moins au début, pendant le mandat effarant d’Eltsine, ainsi que pendant les deux premiers mandats de Poutine et celui de Medvedev. Je ne suis pas seul : Kissinger, Brezinski et d’autres Américains vétérans de la guerre froide (Kennan, Matlock) pensaient qu’il fallait impliquer, contraindre la Russie, dans un système de sécurité européen et que pour l’Ukraine, un statut de neutralité, à la finlandaise, avec de vraies garanties croisées, aurait été la meilleure solution. Le sommet de l’OTAN en 2008 à Bucarest qui provoquait sans choisir a été une erreur tragique. Mais l’attaque du 24 février balaye ces considérations et définit le nouveau contexte.

LTR : Il y a trente ans, François Mitterrand élaborait et défendait avec Gorbatchev la notion de « maison commune » européenne. L’idée était de ne surtout pas encercler ni humilier la Russie mais de l’arrimer au bloc européen sur une base civilisationnelle. Cette idée, qui visait aussi à contrebalancer l’effet attendu de la réunification Allemande, a été torpillée par les Américains, les Allemands et plus largement les pays de l’est. N’aurait-ce pas été pourtant la meilleure solution pour unifier le continent et donner au projet eurasien – qui est en train de se faire sans nous – une coloration occidentale ?
Hubert Védrine : 

C’est très regrettable que les propositions de François Mitterrand pour une confédération européenne (lancée beaucoup trop tôt, dès le 31 décembre 1989), son intérêt pour la proposition de Gorbatchev d’une « maison commune européenne » (même si elle était très floue), le travail fait par tous les membres de l’OSCE à l’occasion de la Charte de Paris en novembre 1990, l’association de Gorbatchev au G7 de Londres en 1991, n’aient pas été amplifiés avec la Russie, et aient été torpillés. Il aurait fallu reprendre cette vaste question de la sécurité en Europe. L’histoire aurait peut-être pu être différente, si on s’y était pris autrement dès la fin de l’URSS.

Peut-être … Finalement, Poutine a fait un choix tragique pour les Ukrainiens et à terme désastreux pour son pays.

LTR : Le premier semestre de l’année 2022 est marqué par la présidence Française de l’Union, un évènement qui se produit une fois tous les 13,5 ans. Quelle a été selon vous l’évolution de l’influence Française au sein de l’Union Européenne depuis notre dernière présidence de l’UE, sous Nicolas Sarkozy ?
Hubert Védrine : 

L’influence de la France au sein de l’Union Européenne a en effet diminué, c’est incontestable : les causes sont diverses. Le décrochage économique et industriel français par rapport à l’Allemagne (industrie, dette, technologie, commerce extérieur) ; l’élargissement et le recul du français ; la réunification allemande qui a conduit à l’augmentation du nombre de parlementaires allemands au sein du Parlement européen (sans compter leur travail et leur assiduité) ; une pondération différente de voix au Conseil européen, du fait du Traité de Lisbonne qui a renforcé le poids de l’Allemagne.

LTR : Selon vous le départ d’Angela Merkel et l’arrivée d’un nouveau chancelier issu du SPD – et à la tête d’une coalition tripartite SPD, verts, libéraux – est-il l’occasion d’un rééquilibrage des rapports de force au sein de l’UE ? Le « verrou » allemand, notamment sur l’inflation et le mécanisme de stabilité (les 3% de déficit et 70% de dettes) peut-il sauter ?
Hubert Védrine : 

Au point de départ, la politique du nouveau chancelier allemand ne s’annonçait pas très différente de celle de Madame Merkel qui a géré l’immobilisme de façon favorable aux intérêts allemands. Une question se posait : comment le chancelier Scholz allait-il arbitrer les désaccords qui n’allaient pas manquer d’apparaître au sein de sa coalition tripartite, sur les questions internationales, européennes et budgétaire ?

Mais la décision de Poutine de déclencher la guerre a changé tout cela. L’abandon du pacifisme allemand et la (re)création d’une armée allemande vont avoir des conséquences considérables. Mais le débat sur l’usage de ces 100 milliards ne fait que commencer.

Et l’Allemagne est obligée de programmer d’autres sources d’énergie que le gaz russe …

LTR : En période de crise, nous sommes toujours surpris de constater à quel point, en l’état actuel, les intérêts des nations européennes ne sont pas alignés, et cela pour tout un ensemble de raisons : position géographique, besoins en ressources naturelles, intérêts commerciaux, tradition pacifiste ou bien de non-alignement, etc… Au vu de ces intérêts difficilement conciliables, pensez-vous que l’Europe puissance soit autre chose qu’un mythe fédérateur ? L’Union peut-elle peser sur la reconfiguration de l’ordre international ou bien est-elle condamnée à un atlantisme paresseux ?
Hubert Védrine : 

On ne devrait pas être surpris de redécouvrir que, pour les raisons mêmes que vous rappelez, les intérêts des nations européennes, à part quelques valeurs communes, ne sont pas automatiquement alignés. Et indépendamment même des intérêts, il y a des imaginaires et des narratifs, des peurs et des espoirs qui restent différents d’un pays européen à l’autre. De toute façon, la construction européenne n’a jamais été conçue par ses Pères fondateurs comme devant conduire à une « Europe puissance ». L’idée était de ne pas refaire le traité de Versailles. Cela a été un projet intelligent de relèvement de l’Europe après la guerre, notamment grâce au Plan Marshall et à l’Alliance Atlantique, sous la protection des Etats-Unis demandée et obtenue par les Européens. Cela n’a pas encore fondamentalement changé dans la tête des autres Européens, en dépit des innombrables propositions françaises, et notamment, depuis 2017, de celles du président Macron. Ca ne devrait pas empêcher les Européens, sur d’autres sujets que la défense, de mieux définir et défendre leurs intérêts dans le monde global et semi chaotique. Mais encore faudrait-il qu’ils arrivent à se mettre d’accord sur ces fameux intérêts et sur ceux qui sont prioritaires voire vitaux, et pas seulement sur leurs « valeurs ». De toute façon, la violente agression de Poutine nous a ramené au début de la Guerre froide et cela va avoir des effets disruptifs dans la tête des Européens.

LTR : L’ère « Fukuyamienne » semble définitivement refermée, le dernier clou dans son cercueil ayant sans doute été le mandat de Donald Trump. On constate aujourd’hui que Joe Biden ne parvient pas à renouer avec le langage hégémonique qu’un Barack Obama pouvait encore tenir. L’Amérique semble accepter progressivement l’idée que des blocs se reforment et cherche à souder ses alliés autour d’elle pour faire front. Pensez-vous que la guerre, froide ou non, soit inéluctable ?
Hubert Védrine : 

La vision de Fukuyama était illusoire ou alors très très prématurée. En tout cas rappelons des banalités : les Occidentaux ont perdu le monopole de la puissance ; il n’y a pas encore de communauté internationale, mais une foire d’empoigne au sein de laquelle les puissances installées essayent de préserver leurs acquis (et la Russie de maximiser sans retenue sa capacité de nuisance) et les puissances émergentes de s’affirmer de plus en plus sur une ligne post-occidentale. Le défi chinois symbolisant cette nouvelle période. Il faudrait que les Occidentaux soient très bien coordonnés et que leurs stratégies convergent pour gérer, avec the rest, cette gigantesque mutation, au mieux de leurs intérêts et de leurs croyances (les fameuses « valeurs »). Ce n’est pas encore le cas. L’ironie – contre-intuitive – de l’histoire étant que les pays européens n’ont jamais été aussi puissants et influents dans le monde que quand ils étaient en rivalité et en compétition permanente entre eux ..!

Mais revenons à 2022 : que ferons-nous du bouleversement traumatique provoqué par Poutine ?

LTR : Finalement la stratégie Américaine vis-à-vis de la Chine est la même qu’avec la Russie : la création d’alliances défensives (AUCUS, Taiwan, Séoul) visant à encercler l’adversaire. Néanmoins, la position des pays asiatiques vis-à-vis de la Chine est bien plus complexe, d’autant que ces pays-là ne font pas partie du bloc occidental – excepté l’Australie bien entendu –, la force de leur lien avec l’Occident est bien plus faible et distendu. Enfin, le conflit larvé qui oppose les Etats-Unis à la Chine est une rivalité de puissances qui ne se redouble pas d’un conflit idéologique profond et mobilisateur comme au temps de l’URSS. Pensez-vous que la stratégie Américaine en Asie ait une chance de réussite ou bien est-elle vaine ? Pensez-vous que les Américains soient réellement prêts à mourir pour Taiwan ou la Corée du sud ?
Hubert Védrine : 

Endiguer l’ascension de la Chine comme éventuelle première puissance mondiale va continuer à dominer la politique étrangère américaine des prochaines décennies, même après l’énorme bug poutinien. Ce qui continuera de rendre relativement secondaire, du point de vue américain, les conflits ailleurs. En Asie, les Etats-Unis peuvent bénéficier, en plus naturellement du soutien de l’Australie, de la Nouvelle-Zélande et de Taïwan, de l’inquiétude d’un certain nombre de pays d’Asie du sud-est, qui ne veulent pas tomber complètement sous la coupe de Pékin, sans trop se lier, non plus, aux Etats-Unis. La suite dépendra de l’intelligence stratégique, ou non, des politiques américaines et chinoises. Mais si les Etats-Unis ne dissuadaient pas une attaque chinoise sur Taïwan, leur garantie ne vaudrait plus rien nulle part … Peuvent-ils l’accepter ?

LTR : Il y a une quinzaine d’années le concept de « BRICS » (Brésil, Russie, Inde, Chine, Afrique du sud) pour qualifier les puissances émergentes avait le vent en poupe et permettait d’identifier les « puissances de demain ». Finalement seule la Chine a vraiment explosé. Ce concept est-il définitivement devenu inopérant ?
Hubert Védrine : 

Le concept de BRICS, formulé par un économiste de la banque Goldman Sachs, Jim O’Neill, désignait des puissances économiquement émergentes avec une classe moyenne très nombreuse, dont le pouvoir d’achat croissait. Mais cela n’a jamais été un concept géopolitique opérant. De plus, le parcours de la Chine est tout à fait singulier.

LTR : La Chine renforce son influence internationale : organisation de coopération de Shanghai, routes de la Soie, mais aussi recours massif au veto en conseil de sécurité et influence croissante sur les organisations internationales (le cas de l’OMS s’est révélé flagrant durant la crise du covid-19). Peut-elle selon vous faire vaciller l’ordre international ?
Hubert Védrine : 

En effet, la Chine cherche à réviser l’ordre international américano-global (comme d’autres puissances, l’Iran ou la Turquie, et d’autres, qui n’ont pas le même poids) pour le modifier en son sens, voire y substituer un nouveau système international post-occidental. C’est emblématique de notre monde au sein duquel les puissances installées depuis des siècles cherchent à préserver leurs acquis que remettent en cause les puissances émergentes révisionnistes. L’issue de ce gigantesque bras de fer, qui n’est pas écrite d’avance, dépendra de l’intelligence stratégique des Occidentaux (sauront-ils ne pas unir contre eux les puissances révisionnistes ? Pour le moment, ils font le contraire). Ils ne s’en sont pas souciés ces trente dernières années car ils pensaient avoir gagné la bataille de l’Histoire.

LTR : Enfin, pensez-vous que la crise environnementale soit d’ores et déjà un enjeu géopolitique ? Peut-elle devenir l’élément structurant d’un (dés)ordre international au XXIe siècle ?
Hubert Védrine : 

La dégradation des conditions de vie sur une planète surpeuplée et archi-productiviste/prédatrice est évidente. Cette prise de conscience s’impose partout. La discussion ou la controverse sur ce qu’il faut faire pour ralentir l’augmentation des températures, réduire le CO2, recycler les déchets, rendre productive une agriculture plus biologique, changer les modes de propulsion, bref, « écologiser » toutes les activités humaines, s’est déjà imposée dans toutes les enceintes internationales. D’innombrables discussions et conflits auront lieu au cours des prochaines décennies sur cette transformation. Ce n’est plus un combat binaire et manichéen – plus personne ne peut nier le risque écologique et le contrer est un impératif – mais un débat sur le rythme et les moyens. Or, sur ce plan aussi, la guerre en Ukraine et ses conséquences nous font tragiquement régresser …

LTR : L’effet de souffle du début de la guerre a déclenché des réactions très vives dans les opinions publiques des démocraties occidentales et jusqu’à l’assemblée générale de l’ONU, transformant le conflit ukrainien en théâtre d’affrontement entre le monde occidental et les puissances qui refusent cet hegemon, à l’image de la Russie. Un mois après le début de la guerre, la perception du conflit ne risque-t-elle pas de se transformer, d’un conflit perçu comme « mondialisé » – ou faisant peser un risque de guerre à une échelle intercontinentale – en un conflit essentiellement régional et interne à « l’espace russe » ?
Hubert Védrine : 

Attaquer l’Ukraine est une décision du président Poutine contre un autre Etat slave, dont il conteste par la guerre la légitimité. Et donc les Occidentaux (Etats-Unis, Canada et Union Européenne) ont réagi par des sanctions très dures : tout sauf l’entrée en guerre contre la Russie. Cette décision remet brutalement en cause l’idée que la guerre ne pouvait plus avoir lieu sur le continent européen (même s’il y a eu des guerres en Yougoslavie) et que le recours à la force pour régler les questions internationales était proscrit. C’est pour cela qu’aux yeux des Occidentaux cette guerre est intolérable. Mais notez qu’à l’occasion de deux votes aux Nations Unies, même si l’agression russe a été condamnée par 140 pays, une quarantaine, pour diverses raisons, n’ont pas voulu condamner la Russie, sont restés neutres. C’est la preuve que le monopole occidental dans la gestion du monde est bel et bien terminé.

LTR : Vladimir Poutine était, semble-t-il, sur le point d’obtenir la neutralité (la Finlandisation) de l’Ukraine à la veille de l’invasion – proposition désormais plus difficile à envisager et d’ailleurs rejetée par les Ukrainiens au début des pourparlers –, il n’a ensuite pas hésité à agiter le spectre d’un conflit nucléaire dès le début du conflit. Ces actes délibérés, sans compter les errements stratégiques et l’impréparation logistique qui témoignent d’un excès de confiance dans les capacités militaires réelles de l’armée russe, mènent de nombreux analystes à se poser une question dérangeante : Vladimir Poutine est-il encore un acteur rationnel ?
Hubert Védrine : 

C’est une tentation fréquente chez les Occidentaux, qui estiment être l’avant-garde morale du monde, les concepteurs des valeurs universelles et les piliers de la « communauté » internationale, de pathologiser les personnalités qui osent contester cet ordre « libéral » américano-global. En réalité – faut-il dire malheureusement ? – Poutine suit une sorte de logique. Il a pu se tromper totalement sur l’Ukraine d’aujourd’hui, sur son armée, médiocre au combat (mais qui peut commettre des atrocités), sur les aspirations à l’ouverture d’un grand nombre de Russes, sur la capacité de résistance et de réaction de l’Occident, mais il n’est pas fou au sens où il ne saurait plus ce qu’il fait …

LTR : Il semble que deux scénarii se dégagent désormais : 1/ un conflit militaire qui s’enlise –l’arrivée du Printemps et la perspective d’une guérilla urbaine acharnée ne sont pas de bons augures pour l’armée russe qui semble avoir provisoirement renoncé à conquérir les grandes villes, à l’exception de Marioupol, et privilégie désormais une campagne d’artillerie, comme à Kiev – ; 2/ une solution diplomatique dès lors que l’armée Russe sera parvenue à prendre le contrôle du Donbass et, peut-être, après Marioupol, d’Odessa, afin de contrôler les espaces russophones, la côte et de renforcer son accès à la mer Noire. Quels seraient les risques du premier scénario ? Quels pourraient être les termes d’un armistice acceptable pour les deux parties ? La partition du pays est-elle envisageable ou inévitable ?
Hubert Védrine : 

A la date d’aujourd’hui – 6 avril – plusieurs scénarii sont possibles : un long enlisement, une sorte de guerre de positions ; une escalade sur le terrain, dans l’hypothèse où la Russie décide, et a les moyens, de briser la résistance ukrainienne, dans l’est du pays, et notamment à Dniepro là où est concentré un tiers de l’armée ukrainienne en employant des armes plus dévastatrices encore (chimiques ?) – il y a déjà eu le massacre de Boutcha – ; un durcissement des contre-sanctions : la Russie exigeant que son gaz soit payé en roubles ; un élargissement si l’armée russe va jusqu’à frapper des concentrations d’armes destinées à l’Ukraine sur le territoire de pays voisins membres de l’OTAN ; et un scénario tout à fait inverse, qui commencerait par un cessez-le-feu. Dans les cas d’aggravation, on peut penser que les Occidentaux resteraient unis, en tout cas un certain temps. Dans l’autre scenario, si la Russie veut empocher ses gains territoriaux et que le président Zelenski finit, faute d’alternative, à se résigner au fait accompli, il peut y avoir une division entre les Occidentaux qui comprendraient le président ukrainien, et des maximalistes, surtout américains. Mais ce n’est pour le moment qu’une hypothèse.

LTR : Le Président Macron a assumé, malgré une opinion publique ambivalente sur ce sujet, le rôle de médiateur jusqu’au début du conflit. Le soutien affiché à l’Ukraine et au Président Zelenski a-t-il définitivement mis un terme à ce rôle que la France, et peut-être l’UE auraient pu jouer ? Qui sont aujourd’hui les médiateurs potentiels et sommes-nous devenus des acteurs de faitde ce conflit ? Aurions-nous dû préférer le non-alignement ?
Hubert Védrine : 

Le non-alignement est inenvisageable pour un pays membre de l’Union Européenne et de l’Alliance Atlantique. Je ne suis pas sûr que le Président Macron ait pensé pouvoir être vraiment un « médiateur », mais ce qui est sûr c’est qu’il a cherché à garder le contact, avec le président Poutine, même si c’est très pénible, parfois en compagnie du chancelier allemand. A ma connaissance, et en dépit de ses déclarations en Pologne, le président Biden juge utile qu’un des leaders occidentaux garde ce contact. En tout cas jusqu’aux massacres. Il ne peut pas y avoir de vraie médiation si la Russie n’en éprouve pas le besoin et s’il doit y avoir, le moment venu, un médiateur, il devra être accepté par les deux. Il ne pourra s’agir que d’un pays non-membre de l’OTAN (Finlande), ou, en tout cas, non occidental : Turquie, Israël, Inde ou Chine. Il ne s’agira pas de négociations, mais d’une décision ukrainienne de se résigner, ou non, et jusqu’à un certain point, au fait accompli.

LTR : La récente décision Allemande de porter à 2% de son PIB son budget militaire est une révolution dans la doctrine militaire de ce pays. Par ailleurs le projet d’une Europe de la Défense semble avoir repris des couleurs au sein de l’Union. Comment distinguer entre ce qui relève de la réaction et ce qui relève d’une mutation ? L’Europe de la défense peut-elle advenir sans une certaine prise de distance vis-à-vis de l’OTAN ? Le récent choix d’équipement fait par les Allemands (achat de F35 plutôt que de rafales) et l’annonce d’un renforcement d’envergure des capacités défensives de l’alliance sur son flanc est ne sont-ils pas les clous dans le cercueil d’une Europe de la défense mort-née ? 
Hubert Védrine : 

Pour le moment, l’agression russe a réveillé l’esprit de défense en Europe, qui avait disparu, notamment en Allemagne, et ressuscité l’OTAN. En ce qui concerne l’Europe de la défense, il faut se rappeler qu’aucun pays européen n’a jamais soutenu cette idée dès lors qu’elle comportait – à leurs yeux – le risque d’un éclatement de l’Alliance Atlantique et d’un retrait américain. Ce n’est pas nouveau. Il y avait eu là-dessus, en 1999, un compromis historique entre la grande Bretagne et la France au Sommet de Saint-Malo, et il est clair qu’il n’y aura pas, dans une perspective prévisible, une Europe de la défense capable de défendre l’Europe de façon autonome. En revanche il est tout à fait possible que le renforcement des capacités militaires des pays européens membres de l’Alliance les conduisent à s’affirmer plus au sein de l’Alliance dans les prochaines années.

LTR : Enfin, de quelle réalité internationale les différents sujets que nous avons abordés – la France et l’Europe dans le monde, la guerre en Ukraine, la compétition sino-américaine et leurs conséquences – procèdent-elles ? Quelles grandes leçons peut-on tirer de ces événements et des transformations géopolitiques majeures qui les accompagnent ?
Hubert Védrine : 

Pour moi, le fait majeur est que les Occidentaux ont perdu, au XXIème siècle, avec le décollage des émergents, Chine, etc., le monopole de la puissance qu’ils ont exercé, Européens d’abord, Etats-Unis ensuite, sur le monde, durant trois ou quatre siècles. Comprendre comment cela a pu être possible est un autre sujet, de même que l’évaluation qui peut être faite de cette période. Je ne rejoins pas le géopoliticien Kishore Mahbubani quand il affirme que c’est la fin de la « parenthèse » occidentale ! Mais quand même, il est évident que l’idée que les Occidentaux se sont faite dans les années 1990 de leur triomphe historique définitif était fausse. Universalisme de nos valeurs, de gré ou de force ; prosélytisme ; hubris ; hyperpuissance ; mais aussi américano-globalisation, dérégulation, financiarisation illimitée, combinées à l’idéologie OMC : cela n’a pas marché. Nous allons connaître non pas une démondialisation générale, impossible, mais une re-régionalisation, déjà entamée avec la désimbrication des économies américaine et chinoise, à quoi s’ajoute maintenant une inévitable mise au ban de la Russie et de quelques pays satellites. Jusqu’où ira l’alliance Chine-Russie n’est pas écrit. Les quarante pays qui ont refusé aux Nations Unies de condamner l’agression russe, dont l’Inde et la Chine, et qui représentent la majorité de la population mondiale, ont réinventé le non-alignement. Les Occidentaux resteront évidemment convaincus de l’universalité de leurs valeurs, mais d’autres ne le seront pas. Les Occidentaux vont tout faire pour préserver les démocraties libérales et le marché, mais ils auront à gérer la puissante contestation interne de la démocratie représentative par le vaste mouvement populiste. Et se posera toujours la même question concernant les Européens : veulent-ils faire de l’Europe une puissance ? Certains estiment que Poutine a provoqué ce réveil. En réalité, pour le moment, je le répète, il a ressuscité l’OTAN et l’esprit de défense dans chaque pays européen. Est-ce que cela va renforcer l’Europe en tant que telle ? Ce n’est pas encore acquis. Mais pourrait être obtenu par la France avant la fin de sa présidence de l’Union Européenne.

Lire aussi...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)

Anicet Le Pors, une vie au service de l’intérêt général (2/3) : propriété et fonction publique

État & transition

Anicet Le Pors, une vie au service de l’intérêt général (2/3) : propriété et fonction publique

Entretien
Suite de notre grand entretien avec Anicet Le Pors, après une première partie consacrée à son parcours politique hors du commun, de la météo au Conseil d’Etat après avoir été ministre, nous entrons dans le vif des thèmes qui lui sont chers. L’occasion de revenir sur les grandes nationalisations de 1981 et le concept de propriété publique. Mais aussi de comprendre en profondeur ce qu’est la fonction publique, de se remémorer son histoire récente pour mieux réfléchir ensemble à son actualité au XXIe siècle.
LTR : Le concept de propriété publique fait partie des concepts que vous évoquez régulièrement en affirmant que le pouvoir se trouve là où se trouve la propriété publique ? Pouvez-vous nous en dire plus ?
Anicet le pors : 

La notion de propriété a une histoire. En droit romain, la propriété se définit par l’usus, l’abusus et le fructus (utiliser un bien, en retirer les fruits, pouvoir en disposer). Cette notion a joué un rôle positif durant la Révolution française en permettant à des citoyens nouveaux d’accéder à la propriété. La notion de droit de propriété est une dimension de la citoyenneté qu’on retrouve en deux endroits de la Déclaration des droits de l’homme et du citoyen (DDHC). A l’article 1 tout d’abord, « Les hommes naissent et demeurent libres et égaux en droits. Les distinctions sociales ne peuvent être fondées que sur l’utilité commune. », et surtout dans l’article 17 qui tisse un lien très clair entre propriété privée et propriété publique : « La propriété étant un droit inviolable et sacré, nul ne peut en être privé, si ce n’est lorsque la nécessité publique, légalement constatée, l’exige évidemment, et sous la condition d’une juste et préalable indemnité. » Ainsi la propriété publique apparaît comme une contrainte de la propriété privée et ce au nom de la nécessité publique. La propriété est donc un facteur d’émancipation mais dès 1789 elle rencontre une limitation : celle de la nécessité publique.

Toute la jurisprudence qui va se développer par la suite, notamment à partir du Conseil d’État, va faire ressurgir périodiquement cette question avec des positions qui vont varier chez les uns et chez les autres. Longtemps la CGT a été opposée aux nationalisations et ce pour deux raisons : d’une part parce que les nationalisations étaient perçues comme des béquilles pour le capital et ensuite parce que ces dernières auraient été une réponse à la loi du marxisme sur la baisse tendancielle du taux de profit qu’il fallait laisser s’écrouler plutôt que secourir.

On retrouve également cette affirmation de la prégnance de la propriété publique au 9e alinéa du préambule de la Constitution de 1946 : « Tout bien, toute entreprise, dont l’exploitation a ou acquiert les caractères d’un service public national ou d’un monopole de fait, doit devenir la propriété de la collectivité. » C’est sur le fondement de cette disposition que les nationalisations d’après-guerre, dont la portée politique a pu être brouillée du fait de la collaboration de certaines entreprises, ont permis de développer un secteur public dont l’influence positive dans le processus de reconstruction de la France et des capacités d’action de l’État est indéniable.

Durant les années 1960-1965, le PCF théorise la notion de capitalisme monopoliste d’État, ce qui signifie que l’on est arrivé à un stade où se constitue un mécanisme qui allie la puissance de l’État et celle des monopoles. Nous avons déduit, en ce qui nous concerne, qu’il fallait accorder une attention particulière à la notion de propriété publique, qu’il fallait enrichir pour ne pas se contenter de considérer le service public comme simple monopole de fait. Il fallait lui redonner une « épaisseur » sociale, plus importante. C’est pour cela que, dans le programme commun, et je pense y avoir contribué pour l’essentiel, nous avons retenu 4 critères :

  • Les monopoles de fait ;
  • Le caractère de service public ;
  • Les entreprises bénéficiant de fonds publics ;
  • Les entreprises dominant des secteurs clés de l’économie.

 Nous avons réussi à convaincre le Parti Socialiste qu’il ne fallait pas se contenter d’une vision mécanique de la domination (comme la théorie du capitalisme monopoliste d’État le laissait sous-entendre) mais qu’il fallait en avoir une vision stratégique. Dans mon ouvrage les béquilles du capital, dans lequel j’entreprends de critiquer justement la vision réductrice de la théorie du capitalisme monopoliste d’État, c’est justement ce que j’essaye de montrer.

Nous avons réussi donc, à nous convaincre d’abord du bienfondé des nationalisations et également d’en convaincre le Parti Socialiste. Les discussions, néanmoins, ont été âpres et longues puisqu’ils avaient une approche des nationalisations essentiellement financière là où notre approche était une approche « réelle » pour ainsi dire. Nous pensions qu’un bien exproprié par la puissance publique n’était pas divisible, et qu’une nationalisation partielle aurait immanquablement créé une situation hybride, puisque l’entreprise aurait ainsi conserve le caractère marchand que son entrée dans la sphère du service public devait justement annihiler.

Cette question financière donne lieu à un Conseil des ministres épique, en 1981 à Rambouillet, et nous pensons à l’époque, nous les quatre ministres communistes du Gouvernement, que la partie est jouée puisque Mitterrand n’avait jamais été un fervent défenseur des nationalisations. A notre grande surprise le projet de loi présenté en conseil des ministres nous donne satisfaction. Mitterrand ouvre la discussion et interviennent alors des poids lourds du Gouvernement : Pierre Dreyfus qui était ministre de l’Industrie, Robert Badinter, Garde des sceaux, Jacques Delors, ministre de l’Économie et des Finances, Michel Rocard ministre du Plan et de l’Aménagement du territoire, qui tous témoignent leurs réserves – et c’est un euphémisme – sur le sujet des nationalisations totales. A la suite de cela, Jean-Pierre Chevènement intervient pour dire que le projet est moins ambitieux qu’imaginé mais qu’il s’y range, que ça lui convient. Nous avions décidé au préalable, côté communiste, que ce serait Fitterman [Charles Fitterman, alors ministre des Transports et numéro 2 du PCF, ndlr] qui interviendrait en notre nom. Il intervient pour dire que le projet lui convient. Mitterrand avait donc trouvé un point d’équilibre et nous sommes sortis satisfaits. Et, si vous voulez, c’est pour cela que j’en veux tant à Jospin qui est celui qui a vraiment privatisé.

LTR : Comment analysez-vous l’échec des nationalisations de 1981 ?
Anicet Le Pors : 

Avant de vous répondre, je voudrais juste revenir sur les faits : la loi du 11 juillet 1982 sur les nationalisations n’a pas résisté au tournant libéral de 1983. Les formations politiques qui avaient fait des nationalisations un enjeu central ont été surprises et ont tenté de comprendre pourquoi il n’y avait pas eu de réaction par la suite. A mon sens, la réponse tient en deux points : d’une part, si la partie centrale de l’opération, la partie juridique, a été bien menée, les finalités ont, en revanche, disparu très rapidement, dès le printemps 1983, ce qui a d’ailleurs provoqué le départ de Chevènement. Lorsque vous justifiez une nationalisation par la volonté de changer de cap, par la volonté de changer la logique de développement et de mettre en œuvre de nouveaux critères de gestion, et que finalement, vous supprimez ces finalités, alors vos nationalisations n’ont plus de sens. D’autre part, il fallait un soutien fort des salariés des entreprises, des travailleurs, et nous ne l’avons pas eu. Nous ne l’avons pas eu parce que la mise en application des lois Auroux, qui redonnaient du pouvoir aux salariés, s’est étalée sur la première partie du septennat et donc les travailleurs n’ont jamais été en mesure de se saisir de ces lois. La loi de démocratisation du secteur public date du 26 juillet 1983, après le tournant libéral ! Et donc une loi qui aurait pu être décisive – encore aurait-il fallu que les salariés eux-mêmes aient une conscience forte des enjeux – pour soutenir les nationalisations est arrivée trop tard, après le tournant de la rigueur.

On aurait pu faire un bilan de l’échec des nationalisations de 1981 mais personne ne l’a fait, c’est resté un sujet tabou, une blessure pour le PCF qui n’a plus voulu courir le risque d’être accusé de soviétisme et d’étatisation.

LTR : Vous parlez des « finalités » qui présidaient aux nationalisations, changer de cap, changer de modèle de développement et de critères de gestion, qui ont disparu après le tournant libéral de 1983, par quoi ont-elles été remplacées ?
Anicet Le Pors : 

Il aurait justement fallu les remplacer par quelque chose ! La notion de finalité était déjà présente dans chacun des plans mis en œuvre sous De Gaulle : plan de calcul, plan sidérurgie qui a permis de redresser une filière entière, plan nucléaire. Il y avait là des amorces de finalité. Mais après 1983, il n’y avait plus de finalités.

Par exemple, des économistes du PCF comme Philippe Herzog avaient bien tenté d’évoquer les finalités, en théorisant notamment la notion de « nouveaux critères de gestion » afin de renverser la logique capitaliste qui place le profit financier comme seule finalité, et de montrer que ces nouveaux critères de gestion permettent justement d’être plus performant que des entreprises appliquant les critères de gestion propres à la logique libérale. Mais c’est arrivé trop tard et n’a jamais pris parmi les travailleurs, c’était trop théorique.

Tout cela reste à inventer aujourd’hui encore, mais c’est devenu plus difficile qu’à l’époque du Programme commun et ce pour une raison très simple : la mondialisation elle-même. Il faudrait aussi une politique ambitieuse d’internationalisation dans le domaine public, c’est-à-dire de coopération entre des secteurs publics étrangers pour promouvoir ce modèle. Cela existe aujourd’hui, par exemple dans le secteur des transports, mais ce devrait faire l’objet d’une véritable politique volontariste. Ce fut aussi une des limites que nous avons rencontrées : nous avions gardé une vision trop hexagonale sans prendre la mesure du poids, déjà à l’époque, de la mondialisation. Je me souviens d’une réunion durant laquelle le PS défendait l’idée que les exportations ne devaient pas représenter plus de 25% du PIB ! Et je défendais justement, contrairement aux idées reçues, l’idée qu’il ne fallait pas mettre de limitations aux exportations… Vous voyez bien qu’il n’y avait pas de réelle prise en compte ni de réflexion sérieuse sur ces enjeux.

LTR : Après la propriété publique, nous voudrions évoquer la question de la fonction publique. Dans votre réflexion sur cette notion essentielle vous opposez le fonctionnaire sujet au fonctionnaire citoyen, quelle est ici la différence ?
Anicet Le Pors : 

Il y a une phrase que j’emprunte à Michel Debré : « le fonctionnaire est un homme du silence, il sert, il travaille et il se tait. » C’est là la définition même du fonctionnaire sujet et lorsqu’on m’a demandé ce que j’entendais faire, comme ministre de la Fonction publique, lorsque je préparais la loi sur la fonction publique, [loi portant droits et obligations des fonctionnaires du 13 juillet 1983, dite « loi Le Pors », ndlr] je disais justement que je voulais faire l’inverse, le fonctionnaire citoyen !

J’ai veillé, dans la préparation du statut des fonctionnaires, à ce qu’il n’y ait pas d’expression comme « pouvoir hiérarchique » ou « devoir d’obéissance » ou « devoir de réserve ». Ces choses-là existent bien entendu, mais j’ai refusé qu’on les écrive car cela aurait servi de point d’appui pour une conception autoritaire.

Le fonctionnaire citoyen c’est au contraire celui qui est responsable ! Il y a quatre piliers, qui se traduisent par les quatre propositions de l’article 28 de la loi, pour définir ce qu’est le fonctionnaire citoyen :

  • « Le fonctionnaire est responsable de l’exécution des tâches qui lui sont confiées ».
  • « Il doit se conformer aux instructions de ses supérieurs hiérarchiques »
  • « Sauf ordre manifestement illégal ou de nature à compromettre gravement un intérêt public ».
  • « Il n’est dégagé d’aucune des responsabilités qui lui incombent par la responsabilité propre de ses subordonnés ».

Donc les fonctionnaires ont toujours une marge de manœuvre pour accomplir leurs missions, ils se conforment mais ils ne doivent pas obéissance aveugle ! Ils peuvent même désobéir mais, en ce cas, ils prennent leur responsabilité si jamais ils désobéissent à mauvais escient. La dernière proposition signifie que le fonctionnaire est responsable de ses actes mais également des actes commis par ceux dont il est le supérieur : le préfet est responsable de son action mais aussi de celle des sous-préfets, l’ambassadeur est responsable des consuls etc.

LTR : Sur la fonction publique il y a trois thèmes qu’on retrouve dans le débat public, fortement influencé par la pensée libérale, et que nous souhaiterions aborder : la place de la contractualisation, la mobilité entre public et privé et la notion de performance. Sur la notion de contractualisation, est-ce qu’il n’y a pas une place pour la contractualisation au sein de l’Etat, comme cela se fait aujourd’hui dans l’armée où la majorité des militaires du rang sont des contractuels et les cadres des fonctionnaires ?
Anicet le pors : 

Vous savez il y a toujours eu dans le statut des dispositions prévoyant l’embauche de contractuels pour les raisons que vous évoquez : il y a des travaux saisonniers, la compensation de l’imprévision administrative qui doit parfois répondre à un besoin qui surgit soudainement.

L’enjeu est justement de ne pas laisser échapper les emplois permanents au sein de l’administration, qui doivent être occupés par des fonctionnaires et cela pour plusieurs raisons : d’abord parce que cela permet d’avoir une meilleure assurance de leur intégrité, ensuite parce que le principe méritocratique de recrutement sur concours permet d’avoir de solides garanties sur leur intégrité, enfin parce que cela permet de mener des politiques de long terme et non uniquement des missions et des projets ponctuels et temporaires.

Finalement la présence de fonctionnaire, qui s’inscrivent dans le temps long, permet de développer une vision plus conforme à ce qu’est la fonction publique et que je définis d’ordinaire par la reconnaissance de trois réalités : 1 : la fonction publique est une réalité collective ce qui rejoint la question de la responsabilité que nous avons évoquée, de la mutualisation et du travail en équipe ; 2 : la fonction publique est une réalité structurée, ce qui signifie que sa nécessité est consacrée par le temps, qu’il y a donc besoin de construire un ordre pour préserver des structures qui s’inscrivent dans une certaine permanence ; 3 : la fonction publique est une réalité de long terme, ce qui justifie en retour l’existence de structures, et la gestion du long terme implique une certaine prévisibilité pour pouvoir gérer et anticiper les besoin futurs pour s’y adapter, c’est à cela que sert aussi l’INSEE et la statistique publique.

Donc vous voyez bien qu’en application de cette triple réalité, collective, structurée et de long terme, il y a une place justifiée pour les contractuels mais une place restreinte au vu des buts poursuivis. C’est d’ailleurs symptomatique de voir la ministre de la Fonction publique, Amélie de Montchalin, justifier le recrutement de contractuels parce qu’il faut remplir des missions ponctuelles, des projets. A mes yeux,  c’est justement le problème, il manque une vision du temps long au-delà des projets. Et puis il y a une question éthique qui se pose : certes nous n’avons pas à les former, mais nous ne connaissons pas leur carnet d’adresse, ce qu’ils ont fait avant et où ils iront après…

LTR : Cela nous amène au deuxième thème : la mobilité publique / privée, je voudrais recueillir votre avis sur le sujet. Au-delà des impératifs déontologiques, de la prévention du conflit d’intérêts, il peut y avoir un intérêt, pour la fonction publique, à permettre la mobilité publique-privée, ne pensez-vous pas ?
Anicet le pors : 

Vous savez, je vais vous répondre en deux mots, en prenant l’exemple de la mobilité, dans son ensemble. Je pense avoir, à ce titre, donné l’exemple en passant 62 ans dans la fonction publique au sens large : j’ai été successivement ingénieur à la météo nationale, économiste au ministère des Finances, j’ai exercé des mandats politiques au niveau national, des fonctions exécutives au Gouvernement puis j’ai été juriste au Conseil d’Etat et Président de chambre à la cour nationale du droit d’asile, donc j’ai fait la démonstration de la mobilité.

J’ai fait écrire dans le statut des fonctionnaires, à l’article 14, que la mobilité était une garantie fondamentale. Si l’on est fonctionnaire et que l’on aspire à la mobilité, commençons donc par le faire là où on se trouve, si on est en administration centrale, on peut vouloir aller dans les services extérieurs. On doit permettre à des fonctionnaires de l’État de faire un passage dans la fonction publique territoriale ou hospitalière ou bien en entreprise ou organisme public par voie de détachement sans limite de durée. Si on réalise déjà la mobilité dans cet ensemble-là, dans la sphère publique, on répond en partie à la demande de mobilité qui peut légitimement s’exprimer.

Quant à la question de la mobilité publique-privée, celle-ci n’est pas exclue, les gens peuvent se faire mettre en disponibilité pour six années et au bout de cette période ils peuvent démissionner s’ils le souhaitent.

Il y a un livre intéressant de Laurent Mauduit, La caste, dans lequel il analyse le phénomène classique du pantouflage(1) au sein de l’Inspection générale des finances (IGF). Il montre que ce qu’il y a de nouveau c’est le phénomène de rétro-pantouflage, c’est-à-dire des inspecteurs des finances qui vont dans le secteur privé, se font un carnet d’adresses, et reviennent ensuite au sein de leur administration publique. Il y a donc un phénomène de captation de l’action publique. Il y a donc là un jeu de va et vient dont on ne pas dire qu’il soit très sain tout de même. Alors on peut réfléchir à élargir la durée de la mobilité au-delà de six années. Vous savez qu’il y avait même eu, à l’époque, un article de Bernard Tricot – ancien conseiller d’État – qui voulait interdire à des fonctionnaires ayant effectué plus de deux mandats parlementaires de réintégrer leur administration centrale !

On peut poser ces questions sur la mobilité publique-privée, mais il faut des garanties sur l’intégrité du fonctionnaire ainsi que sur l’intégrité des entreprises en question.

Références

(1)Le pantouflage est une pratique qui consiste, pour des hauts fonctionnaires dont les études ont été financées par l’État (dans des écoles tel que Polytechnique ou l’ENA), à quitter le secteur public pour rejoindre des entreprises privées, les entreprises privées rachetant à l’État, par une compensation financière, les années de service dues par le fonctionnaire à l’État, c’est ce que l’on appelle racheter « la pantoufle », d’où l’expression.

Lire aussi...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)

Anicet Le Pors, une vie au service de l’intérêt général (1/3) : de militant à ministre

Luttes d'hier & Luttes d'ailleurs

Anicet Le Pors, une vie au service de l’intérêt général (1/3) : de militant à ministre

Anicet Le Pors, météorologiste de formation devenu économiste, militant syndical, engagé au Parti communiste (PC), ancien ministre de François Mitterrand qui a donné son nom à la loi sur les droits et obligations des fonctionnaires, puis conseiller d’Etat et enfin sénateur, est à la fois un militant et un intellectuel, un homme politique et un serviteur de l’Etat. Il a consacré sa vie au service de l’intérêt général, de la théorie à la pratique. Il a accordé au Temps des Ruptures un long entretien que nous avons divisé en trois parties. L’occasion pour Le Temps des Ruptures de faire connaître aux jeunes générations cette grande figure de la gauche, son histoire mais aussi sa pensée exigeante et d’une actualité brûlante. Première partie consacrée à son parcours.
LTR : Comment, encore jeune homme, entrez-vous en politique ? 
Anicet Le Pors : 

Ma famille est originaire du Léon, qu’on appelle aussi « la terre des prêtres ». C’est en Bretagne, dans le Finistère plus précisément, la partie nord de la mâchoire. L’Eglise a régné sur ce lieu depuis des temps immémoriaux et, à travers mes parents et mes grands-parents, j’ai également reçu cet héritage chrétien. En 1929 ils montent à Paris, d’abord à Versailles puis en différents lieux de la ceinture rouge, pour s’installer enfin au Pré-Saint-Gervais. Pour ma part, j’y suis né en 1931, donc la suite je l’ai vécue ici. Mes premiers engagements politiques se sont faits en direction du christianisme social, du côté du Sillon(1), dont le fondateur est Marc Sangnier. J’étais abonné à la revue Esprit et à Témoignage Chrétien, et j’ai au demeurant décidé d’adhérer à Jeune République, issu du Sillon de Marc Sangnier, en lien avec le personnalisme(2) d’Emmanuel Mounier. Ce sont des noms qui ont été très connus à mon époque.

Mon premier métier, au départ, est d’être météorologiste, et ma première affectation fut à Marrakech. J’ai vu de mes propres yeux l’expérience de la colonisation. Je faisais le catéchisme aux Marocains et ai donc également découvert le clergé colonial, et tout ça m’a désenchanté de la religion. Et pourtant, j’avais failli devenir prêtre quand même ! J’ai adhéré à la CFTC (Confédération Française des Travailleurs Chrétiens) en 1953, et déçu, j’ai transité vers la CGT, plus à gauche, en 1955. Je rentre en France vers 1957, et je me replonge dans le bain des météorologistes d’ici. Autour de moi, au travail, quasiment tous mes collègues étaient membres de la CGT et adhérents du Parti communiste (PC). J’étais soumis à un pilonnage politique mais, en réalité, je n’attendais que ça ! Ce qui finit par me faire adhérer au PC, c’est le vote sur la Constitution gaulliste en 1958(3). Le Parti communiste était le seul parti qui, dans son entièreté, appelait à voter contre ce qui deviendra la Ve République. Le référendum a lieu le dimanche, avec malheureusement une victoire du « oui », et j’adhère le lundi matin à 8h au PC. J’ai rempli mon bulletin d’adhésion, en expliquant à la personne en face de moi que j’adhérais sans joie, mais qu’il le fallait parce que le PC était le seul à avoir eu le courage de s’opposer au général De Gaulle. J’étais farouchement opposé aux institutions de la Vème République, et je le suis resté. Voilà comment je suis devenu communiste, d’une manière très administrative. Mais ça correspond quand même à des options de fond.

LTR : C’est intéressant parce que vous adhérez au PC dans les années 50, à l’époque où il est un parti de masse avec une teneur idéologique puissante. A l’époque Althusser règne en maître sur la pensée communiste en France, c’est l’intellectuel organique par excellence. Mais vous, vous n’avez pas ce fond marxiste quand vous adhérez ?
Anicet le pors :

C’est un peu plus compliqué que ça. Quand j’étais à Marrakech, je lisais en lecture croisée la Bible et le Capital. Celui qui a provoqué un déclic chez moi, c’est un jésuite, Pierre Teilhard de Chardin. Il a théorisé la loi de convergence complexité-conscience, c’est-à-dire que plus la société devient complexe, plus elle a conscience d’elle-même et de sa complexité. C’est donc un jésuite qui, indirectement, m’a fait adhérer au Parti communiste. Il répondait à une double préoccupation chez moi : sociale-chrétienne d’une part, et scientifique de l’autre – en raison de mon métier- qui me faisait penser que la raison devait conduire vers le progrès. Tout au bout du graphique théorique de Pierre Teilhard de Chardin il y avait un oméga, et chacun était libre d’y mettre ce qu’il voulait : Dieu ou la société sans classe.

LTR : Même si à l’origine votre adhésion est administrative, le travail institutionnel du PC a-t-il progressivement fait de vous un véritable communiste ?
Anicet le pors :

C’était déjà à l’œuvre avant en réalité. Si vous voulez, en raison de mes racines chrétiennes, j’étais a priori réticent lorsqu’on évoquait le communisme. Une fois que vous avez franchi le pas de l’adhésion au Parti, toutes les barrières mentales que vous aviez construites s’effondrent. Elles s’effondrent parce qu’elles avaient avant tout un intérêt rhétorique, pas toujours fondé. Et, à partir de là, je suis devenu un militant de base très actif, discipliné, libre de mes choix.

LTR : Jusqu’à votre entrée au Comité central du Parti en 1979, quelles étaient vos fonctions au sein de l’appareil partisan ?
Anicet Le Pors :

Dans les années 60 et 70 j’ai essentiellement été un militant de base. Vous savez, ça peut étonner aujourd’hui, mais au Parti communiste ceux qu’on faisait monter c’étaient les militants ouvriers avant tout ! On ne regardait pas les intellectuels comme des acteurs du pouvoir, des cadres du Parti. Ils sont des références idéologiques, ils font de la pratique théorique, mais ils ne forment pas l’équipe dirigeante.

LTR : Et quelles étaient vos thématiques privilégiées en tant qu’intellectuel du Parti ?
Anicet Le Pors : 

Progressivement, on m’a regardé comme un expert au sein de l’appareil partisan. J’étais l’un des économistes majeurs du Parti. J’étais responsable des nationalisations et de la politique industrielle, ce qui m’a amené à rédiger cette partie-là du Programme commun(4) avec Didier Motchane et Jean-Pierre Chevènement.

En réalité la majorité de mon activité militante se déroulait à la CGT, et je pense avoir été globalement un bon militant syndical. Quand j’étais au Maroc je m’ennuyais un peu, donc je me suis inscrit en L1 de droit à Marrakech en parallèle de mon travail. Juste pour passer le temps. Et puis après ma première année validée, j’ai arrêté. Et en rentrant en France, j’apprends par hasard que l’économie – qui n’était à l’époque qu’une option de la licence de droit – devient un cursus à part entière. Et j’apprends que, si l’on a déjà une année en droit, on peut la faire valoir en licence économique. Donc évidemment je m’inscris ! C’est au moment du quatrième plan, le plus scientifique, donc à la CGT on critiquait farouchement De Gaulle. Mais c’était médiocre. Je me souviens d’un congrès général de la CGT où Benoit Frachon, secrétaire général de la CGT, disait en ouverture de son discours, « le quatrième plan plan plan rantanplan ». Ça m’a choqué. Si on traite des affaires générales avec une telle désinvolture on a forcément tort.

Cette affaire a eu lieu en même temps que l’ouverture de la licence de sciences économiques, donc j’ai décidé de m’y inscrire pour, ensuite, développer la culture économique de mon syndicat. J’ai fait ma licence, puis un DES (diplôme d’études supérieures). J’ai eu des professeurs remarquables, qui venaient presque tous de la Résistance. Je me suis inscrit pour une thèse que je ne soutiendrai qu’en 1975, avec Henri Bartoli, intellectuel catholique et résistant que j’aimais beaucoup. Le thème de la thèse était « les transferts entre l’Etat et l’industrie ». Ça a donné lieu à un livre, édité au Seuil, paru en 1977, dont le titre est les béquilles du Capital. Sous-entendu, le Capital ne peut tenir que par le financement public de l’Etat, pour lutter contre ce que les marxistes appelaient la baisse tendancielle du taux de profit(5). Tout ça se tient, politiquement, professionnellement, etc. J’en tiens un enseignement philosophique : on ne sait pas où on va, mais on y va. Il faut accumuler des potentiels, il faut penser qu’à tel moment, telle action est essentielle. A un moment, l’opportunité se présente.

LTR : En parallèle de votre parcours militant, comment se poursuit votre métier de météorologiste ? 
Anicet Le Pors :

En 1965, alors que j’étais météorologiste, Valérie Giscard d’Estaing, alors ministre de l’Economie, crée la direction de la prévision. Giscard, homme de droite, avait rempli cette direction de communistes et de gauchistes, c’est étonnant quand même ! On devait s’occuper des prévisions macroéconomiques, et pointait déjà ce qu’on appelle la RCB, la rationalisation des choix budgétaires. Moi j’étais un canard noir là-dedans, il n’y avait quasiment que des normaliens ou des polytechniciens, de grands intellectuels. C’est assez drôle parce qu’on alimentait aussi bien le cabinet du ministre, que les journalistes de gauche, tout aussi bien que les partis socialiste et communiste ! Puisqu’il s’agissait de faire des prévisions, pourquoi pas les mettre au service du Programme commun. On a mis le Programme commun en musique comme les budgets de la Nation. Pendant trois ans, j’ai travaillé comme jamais, même le samedi et le dimanche. Les gens un peu snobs disaient de moi que je n’étais pas très intelligent, mais que je bossais bien, ça me suffisait amplement. Mais alors arrive mai 68. Tout bouillonne, on se retrouve à la cantine en assemblée générale, et là je suis obligé de me démasquer. Mes collègues découvrent que je suis un marxiste ! Ils tombent des nues, ils voient qu’en plus d’être bosseur, je suis bon orateur. J’ai, à cause de cela, toujours eu beaucoup d’admiration pour VGE. Il a pris le risque de prendre un paquet de marxistes dans son ministère, pour lui fournir des idées économiques nouvelles et qui le surprennent.

LTR : Vous avez adhéré au Parti communiste, vous avez participé à la rédaction du Programme commun, vous avez été dans l’appareil d’Etat, mais vous n’avez jamais fini par adhérer au Parti socialiste, contrairement à beaucoup d’autres. Pourquoi ?
Anicet Le Pors : 

C’est culturel, presque viscéral. Je dirais que je n’ai pas confiance en eux. J’ai vu trop de retournements de veste chez les socialistes. A l’époque, pour citer quelques noms, Jean-Pierre Chevènement, Didier Motchane ou Jacques Fournier étaient d’ardents défenseurs de la propriété publique. Mais Jacques Fournier – qui est toutefois resté un ami jusqu’au bout – n’a jamais pu, par exemple, se départir de son appartenance de caste, il a bifurqué sur une théorie vaseuse de l’Etat stratège. Les socialistes ont évacué la question de la propriété. Au moment des gilets jaunes, j’ai publié une tribune dans L’Humanité, pour répondre à Philippe Martinez qui disait que les gilets jaunes, c’était le Front National. Et Fournier n’avait pas cru bon de s’intéresser plus que ça aux gilets jaunes. Son analyse sur eux tenait en une ligne : « le pauvre discours des gilets jaunes ». C’est montrer qu’on appartient à un monde qui ne connait pas le peuple. Quand son père était médecin, le mien était agent de manœuvre à la SNCF rue d’Hautpoul. On n’est pas du même monde. Ça ne me confère pas la moindre aristocratie populaire pour autant, mais ces gens-là ne connaissent pas le peuple.

LTR : Faisons un saut dans le temps. En mai 1981, François Mitterrand est élu Président de la République. En juin de la même année, les élections législatives portent à l’Assemblée une vague rose – 285 députés socialistes – à laquelle s’ajoutent 44 députés communistes. Comment se déroulent alors les tractations entre le Président de la République et le Parti communiste pour la nomination des ministres communistes ?
Anicet Le Pors : 

A aucun moment il n’y a eu de discussion avant le 22 juin 1981. Les seules négociations qui ont eu lieu se sont déroulées dans la nuit du 22 au 23 juin. On avait perdu au sein de la gauche contre les socialistes. Se posait alors la question de la participation au gouvernement. Est-ce qu’on va avec les socialistes ? Si on y va, sur quelles bases ? Pour quels ministères ? Avec combien de ministres ? J’étais alors élu au comité central depuis 1979, donc j’étais dans les proches de Georges Marchais. Je suis donc dans la boucle de négociation. Il y avait d’un côté Mitterrand, Mauroy, Bérégovoy, Fournier. Et côté communiste, Braibant, Le Pors, Fiterman, Marchais. La communication s’est faite à travers cette chaîne, dans cet ordre précis.

On était donc, le 22 au soir, sur le canapé de Georges Marchais et on réfléchissait à ce qu’on devait faire. On était pour qu’il y ait une proportion de ministres correspondant aux voix obtenues aux législatives au sein de la majorité présidentielle. Mais Mitterrand, dans son livre Ici et maintenant, voulait que ce soit sur la base du nombre de députés à l’Assemblée. Ce qui, compte tenu du scrutin majoritaire aux législatives, a favorisé le Parti socialiste plutôt que nous. Avec leur calcul, ça devait faire 5,6 ministres communistes. Comment on pouvait compter ça ? Un ministre d’Etat ça fait 1,5 ministre ; et quatre ministres.

On mandate donc la délégation communiste pour transmettre cette demande aux socialistes, et on décide d’aller se coucher. Le lendemain matin je me retrouve dans le bureau de Georges Marchais avec Charles Fiterman. Marchais ne voulait pas aller au gouvernement. En fin politique, il savait qu’il y avait un risque à s’écarter de la direction du Parti. Georges Marchais s’adresse à Charles Fiterman et lui dit qu’il doit être le chef de file des ministres communistes. Il lui demande ce qu’il aimerait avoir comme ministère. Fiterman répond qu’il aimerait beaucoup les transports. Puis il se tourne vers moi et me demande quel ministère je souhaiterais obtenir. Je fais une synthèse entre mon passé syndical, ma connaissance de l’administration et ma qualification en politique industrielle et nationalisations : le croisement va vers les PTT(6). On fait donc savoir aux socialistes que Fiterman voudrait les transports et moi les PTT. Ils reviennent assez vite en disant « d’accord pour les personnes, d’accord pour les ministères ».

On attendait la suite, on avait amorcé la pompe. Mais rien ne vient. Bon, on va manger. On contacte Pierre Mauroy après déjeuner pour lui dire « et la suite ? » Mauroy nous dit que le Président Mitterrand dit que c’est terminé. Pas d’autres ministères. Georges Marchais devient furieux et fait savoir à Pierre Mauroy qu’on ne participera pas au gouvernement. Deux ministères c’était ridicule. Mais finalement, après un long travail de Fournier et Braibant dans un café place de la République, on apprend qu’on nous accorde quatre ministres dont un ministre d’Etat. On apprend tout de même que Louis Mexandeau refuse de me laisser les PTT : étrange. Bon, finalement, Charles Fiterman aux Transports ; Jack Ralite à la Santé ; Marcel Rigout à la Formation professionnelle ; et moi-même à la Fonction publique et aux Réformes administratives, délégué auprès du Premier ministre Pierre Mauroy. J’ai accepté parce que je m’entendais bien avec lui, et surtout ministre délégué au Premier ministre c’est, dans la hiérarchie, plus haut qu’un ministre ordinaire ! Ça fait 1,25 ministre. Donc on finit à 4,75 ministres.

LTR : Comment, après seulement quelques années au gouvernement, vivez-vous le fameux « tournant de la rigueur »(7)?
Anicet Le Pors : 

En mars 1983, Mitterrand laisse tomber les orientations du Programme commun pour s’aligner sur Thatcher, Reagan et Kohl, qui avaient été élus respectivement en 1979, 1980 et 1982. C’est le début du néolibéralisme dans le monde. La France n’est pas « en phase » avec ce nouvel ordre mondial. C’est pour cette raison que les communistes décident, en 1984, de quitter le gouvernement.

LTR : Comment se passe, au sein du PC, et à travers les échanges entre le PC et le PS, les discussions autour de la sortie ou non du système monétaire européen (SME) (8) ? Quelle est alors la position du PC ?
Anicet Le Pors : 

En conseil des ministres, Chevènement fait un beau discours pour essayer de conserver la politique socialiste, et donc sortir du SME. Il ne souhaite pas du tournant de la rigueur. J’interviens également à ce fameux conseil des ministres. Je ne dis rien d’extraordinaire, mais j’apporte ouvertement mon soutien à Chevènement, qui était la bête noire des libéraux du PS. Jacques Delors dit alors, en me regardant : « il ne peut pas y avoir deux lignes au gouvernement ». La position du PC était la même, on voulait sortir du SME et poursuivre une véritable politique sociale au service du peuple. Mais le Parti n’est pas beaucoup intervenu malheureusement.

LTR : Comment se déroule alors, en 1984, le départ du gouvernement des quatre ministres communistes ?
Anicet Le Pors : 

Le matin du 18 juillet 1984, on avait voté au Parti, au bureau politique, le maintien des ministres dans le gouvernement. Et Georges Marchais, alors en vacances, est prévenu. Il rentre immédiatement à Paris. Il arrive l’après-midi de ce vote, et impose finalement que l’on vote le départ des ministres.

LTR : Faisons une nouvelle fois un bond en avant. En 1993, vous quittez le comité central du Parti, et en 1994 le Parti communiste lui-même. Comment, personnellement, vivez-vous progressivement cette rupture ?
Anicet Le Pors : 

Je décortique, dans un livre intitulé Pendant la mue le serpent est aveugle, cette mécanique de ma séparation progressive avec le PC. Avec l’arrivée de Gorbatchev au pouvoir en URSS, on voit en France se développer des nouveaux courants dans le Parti communiste, qui veulent le refonder ou le renouveler. J’en faisais partie. On voulait en France la même libéralisation de l’appareil partisan que ce que faisait Gorbatchev avec sa perestroïka (9). J’étais très libre contrairement à d’autres camarades. J’ai toujours travaillé en dehors du Parti, à la météorologie ou à la direction de la prévision, je n’ai jamais été entièrement inféodé au Parti. Depuis 1985 j’étais de plus au Conseil d’Etat, je n’étais pas dépendant financièrement du Parti communiste, alors que mes camarades l’étaient.

Ils avaient, et ça peut se comprendre, peur de perdre leur poste en critiquant l’appareil politique. J’avais plusieurs revendications en 1990 : 1° supprimer le discours fleuve au début de congrès qui ne servait à rien ; 2° pas de vote sur le rapport introductif au bureau central – parce qu’on discutait puis votait sur un texte sans le modifier, ça ne servait à rien ; 3° la fin du centralisme démocratique (10). Finalement, tous ces points m’ont été accordés quelques années plus tard. J’avais satisfaction sur tout. Je me suis alors dit que j’étais en train de me faire avoir, « il faut tout changer pour que rien ne change » comme dit l’adage. C’est pour ça que je démissionne du comité central en juin 1993, parce que je considérais qu’on se foutait de ma gueule, je ne croyais pas à leurs faux changements. En 1994, je quitte définitivement le Parti communiste, que j’avais rejoint près de quarante ans plus tôt. La même année, je rejoins Chevènement – qui avait quitté le PS – sur une liste aux européennes. La liste a quand même de la gueule. Numéro un, Chevènement, numéro deux, Gisèle Halimi, numéro trois Le Pors. J’ai également suivi Chevènement aux présidentielles de 2002, et ça n’a pas été plus chanceux. Avec le recul, je pense qu’il lui a manqué un 18 juin…

LTR : Pour avoir la stature d’un De Gaulle ?
Anicet Le Pors :

Non, pour avoir une opportunité, une brèche historique où se glisser. Il lui a manqué le coup du destin. J’ai longtemps conservé des rapports amicaux avec Chevènement, un peu moins maintenant parce que je trouve qu’il vieillit mal [rires]. De la même manière, j’ai toujours de très bonnes relations avec les communistes. Tous les deux ou trois mois, l’Humanité me demande d’écrire un article pour eux. Mes amis communistes me disent souvent « toi au moins, tu n’as pas adhéré au Parti socialiste ! »

Références

(1) Mouvement politique fondé en 1894 qui vise à rapprocher République, ouvriers et catholicisme.

(2) Mouvement spirituel et philosophique, fondé sur le respect de la personne humaine, qui se voulait une troisième voie entre le capitalisme débridé et le fascisme.

(3) Le référendum constitutionnel du 28 septembre, qui fonde notre Ve République, est approuvée par 82,6% des Français. Il instaure un régime, quoique toujours parlementaire, qui donne un certain pouvoir au Président de la République.

(4) Le Programme commun est le programme de gouvernement adopté en juin 1972 entre le Parti communiste et le Parti socialiste. En 1977, cette alliance programmatique est rompue, mais le programme du PS en restera profondément imprégné lors de la rédaction de son programme présidentiel de 1981.

(5) En résumé, cette théorie marxiste indique que les capitalistes, pour augmenter leur productivité, sont obligés d’avoir de plus en plus recours à du Capital (machines par exemple) plutôt qu’à du Travail. Or, en théorie marxiste, le profit vient de la valeur ajoutée du Travail. En conséquence, si on diminue la part du Travail dans le mode de production, la valeur ajoutée – donc le taux de profit – diminue.

(6)Postes, télégraphes et téléphones. Administration disparue en 1990.

(7) Bifurcation libérale du gouvernement socialiste en mars 1983 qui décide, pour s’aligner sur l’idéologie libérale de la mondialisation, de tourner le dos aux réformes sociales majeures du début du septennat de Mitterrand.

(8) Système monétaire européen, système instauré en 1979 qui avait pour dessein de resserrer les convergences entre monnaies européennes.

(9) La perestroïka était la grande réforme de la bureaucratie soviétique lancée par Gorbatchev pour impulser un nouveau dynamisme à l’URSS alors calcifiée. Avec la glasnost (politique de transparence et d’ouverture), la perestroïka furent les deux piliers de l’ère Gorbatchev rompant avec l’immobilisme de l’ère Brejnévienne.

(10) Le centralisme démocratique est un concept marxiste-léniniste qui renvoie à l’organisation du parti communiste. En principe, la liberté de parole doit y être consacrée, les débats encouragés, mais une fois le vote effectué c’est l’unité d’action qui prime. 

LIRE AUSSI...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)

Anicet Le Pors, une vie au service de l’intérêt général (3/3) : utilité commune et intérêt général

Stratégie & Bifurcation

Anicet Le Pors, une vie au service de l’intérêt général (3/3) : utilité commune et intérêt général

Dernière partie de notre série d’articles retranscrivant le grand entretien que nous a accordé Anicet Le Pors. Après une première partie consacrée au parcours de l’ancien ministre et une seconde dédiée aux thèmes essentiels de la propriété et de la fonction publique, nous abordons désormais la question de l’intérêt général et de la participation des travailleurs du secteur privé à l’utilité commune. L’occasion de revenir ici sur la figure envahissante du « manager » qui s’impose de plus en plus au sein de l’Etat et aussi de tracer quelques perspectives de changement pour l’avenir.
 

LTR : Je voudrais que nous abordions la notion d’intérêt général qui revient souvent dans vos écrits, comment définiriez-vous cette notion essentielle ?

ALP : Grande question que l’intérêt général ! La théorie néoclassique a essayé d’en proposer une définition minimale dont le principe de base est le suivant : l’individu est un agent économique et un être rationnel, qu’il soit producteur ou consommateur. Il faut donc lutter contre les causes qui peuvent entraver la rationalité du choix. Or la cause principale est l’asymétrie d’information qui existe dans les relations économiques (entre consommateurs et producteurs, entre producteurs, etc…). Le meilleur moyen pour garantir la rationalité du choix de l’agent sans que celui-ci ne soit trompé et remédier à l’asymétrie d’information est de mettre en œuvre les conditions de la libre concurrence[1]. Si ces deux conditions, dont l’une entraîne l’autre, sont réunies (libre concurrence et symétrie d’information) on parvient alors à un optimum social qui est ce que la théorie néoclassique entend par intérêt général.

Le manquement fondamental de la théorie néoclassique est justement, et c’est un lieu commun, qu’elle réduit le citoyen à un agent économique, à un consommateur. Cela limite tout de même drastiquement la portée de la notion d’intérêt général.

Il y a une réflexion féconde, dès la seconde moitié du XIXe siècle, sur la notion de service public justement, c’est ce qu’on a appelé l’école de Bordeaux menée par Léon Duguit, qui a donc très vite rencontré la question de l’intérêt général et a considéré, c’est aujourd’hui une ligne directrice du Conseil d’Etat, qu’il n’appartient ni au juge ni au Conseil d’Etat de définir l’intérêt général et que cela relève du pouvoir politique. Mais, et c’est là le paradoxe, le Conseil d’Etat considère qu’il relève de sa compétence en un sens, de reconnaître là où se trouve l’intérêt général. Par exemple, le Conseil d’Etat dit que l’égalité entre femmes et hommes ou bien la continuité du service public sont des principes d’intérêt général.

LTR : Cette fiction juridique est intéressante puisqu’elle fait de l’intérêt général un signifiant vide, une notion évolutive. Mais comment faire la distinction entre intérêt général et intérêt de l’Etat, ou bien, parce que la notion existe en matière pénale, entre intérêt général et intérêts fondamentaux de la Nation ?

ALP : L’Etat est le fondement, le lieu de sécrétion de l’intérêt général puisqu’il est l’instrument politique suprême. Donc c’est l’Etat qui dit l’intérêt général, nécessairement. Un cas où intérêt général et intérêt de l’Etat deviennent antagonistes, c’est la Révolution de 1789. Quand la Révolution est advenue, la nouvelle contradiction a été, à ce moment, entre les citoyens et l’Etat, avec d’ailleurs pour les citoyens une déclaration des droits de l’homme et du citoyen, et pour l’Etat, une constitution.

L’intérêt général est, dans l’absolu, une notion contradictoire : il n’y a pas d’intérêt général qui puisse être défini, fixé une fois pour toute, et on peut s’en féliciter.

L’intérêt général se manifeste par le peuple, dans la forme des différentes structures (partis, mouvements, syndicats, associations, fondations, etc…) qui émergent et sont la traduction, dans le champ politique, de la pluralité de la notion. Et c’est le vote qui tranche.

Par exemple, il faut bien admettre que les Gilets jaunes ont été des acteurs de l’intérêt général, en même temps que de leur intérêt tel qu’ils le concevaient.

L’intérêt général, comme la laïcité, sont des processus de création continue, ils existent sans jamais être parfaitement identifiables et ils évoluent. Il faut admettre la contradiction. Si on ne l’admet pas on érige un dogme et à ce moment-là, c’est fini ! Le Conseil d’Etat joue un rôle très important pour assurer la plasticité de la notion, un rôle ambigu mais tout à fait essentiel.

LTR : Vous faites une histoire des grandes tendances qui ont structuré l’Etat, la première est un mouvement croisé de sécularisation / affirmation dont vous faites remonter l’origine à Philippe le Bel, la seconde sur la socialisation croissante du financement des dépenses essentielles pour maintenir la cohésion de la société…

ALP : Je commence effectivement toujours mes conférences par une référence à Philippe Le Bel, mais je pourrais remonter plus loin encore je pense.

Pour vous répondre brièvement, j’ai toujours dit et répété qu’aucun président de la République ne parviendrait à faire baisser les prélèvements obligatoires. Lorsqu’un candidat à la présidence explique dans son programme qu’il va supprimer plusieurs centaines de milliers d’emplois publics et baisser de X% les dépenses publiques, c’est toujours en vain, et pour une raison simple : parce que la pression des besoins dans une société comme la nôtre est au mieux constante, si ce n’est croissante.

LTR : C’est toute la question, sur la socialisation croissante de ces dépenses, comment peut-on l’expliquer ? Est-ce une expression des besoins ? Un développement intrinsèque de l’Etat ?

ALP : Je pense que la réponse apportée par Emmanuel Macron à la crise économique liée à l’épidémie de covid-19 est un bon exemple : alors même qu’Emmanuel Macron est un pur produit du néolibéralisme, il a été le président du « quoiqu’il en coûte ». Ce n’est pas pour ça que c’est un grand réformateur ou un révolutionnaire mais il y a, si vous voulez, une pression des besoins qui est évidente. Mais, pour être parfaitement honnête, ce que je dis là, sur la socialisation croissante des dépenses, c’est une observation, un constat empirique indéniable, mais je ne suis pas en mesure de l’expliquer. Je pense que c’est un champ justement qu’il faut davantage investiguer !

LTR : Vous évoquez régulièrement la possibilité de créer un véritable statut des salariés du secteur privé, c’est une idée très intéressante. Pouvez-vous nous l’expliquer ?

ALP : C’est une histoire qui vient d’un peu loin… Dans la décomposition ambiante, il y a aussi la pensée syndicale qui est un peu décomposée aujourd’hui. Sous la direction de Bernard Thibault, il y a eu, aux alentours des années 2004-2005, un congrès durant lequel a été mis en avant l’idée d’un nouveau statut du travail salarié. C’était l’une des conclusions du congrès et l’on avait chargé Mireille Dumas, longtemps membre du CESE et ancienne fonctionnaire des postes, de réfléchir à ce sujet. Elle n’avait rien trouvé de mieux à faire que de proposer d’en finir avec le statut pour le remplacer par une convention collective pour l’ensemble des salariés du secteur public !

En 2009 la CGT a repris cette proposition dans un numéro du Peuple : puisqu’il y avait à l’époque 15% de contractuels au sein de la fonction publique, ils se sont demandé s’il était finalement  opportun de différencier le droit du travail entre fonctionnaires et salariés du privé. Certains sont allés jusqu’à dire qu’au fond, le statut était assimilable à une convention collective pour salariés de la fonction publique. Je me suis élevé contre cette idée complètement aberrante en bureau confédéral. Je leur ai dit qu’ils faisaient tout à fait fausse route, qu’un tel projet entérinait la dissolution de l’intérêt général, de l’idée même de service public et consacrait le manager comme figure de proue de la société, y compris au sein de la sphère publique. Ils se sont amendés en 2011 mais enfin ils avaient failli tomber dans le panneau !

Partant de cette mésaventure, j’ai voulu apporter une réponse à cette question de l’avenir du salariat, notamment dans le secteur privé. Il m’a semblé qu’il fallait défendre l’idée ancienne que la référence en matière de droit social devait demeurer le statut des fonctionnaires, et surtout pas le droit du travail privé.

L’idéal défendu dans le statut me semble être une bonne boussole. Donc j’ai considéré qu’à partir du code du travail on pourrait et on devrait créer quelque chose comme une « sécurité sociale du travail » par exemple ou bien une sécurisation des parcours professionnels. C’est-à-dire inscrire dans le code du travail un socle minimum de grands principes, droits et devoirs qui consacrent la participation des salariés du privé à l’utilité commune. Je plaide donc pour que ces derniers bénéficient de certaines garanties qui ne sont pas celles accordées aux salariés chargés de la défense de l’intérêt général, les fonctionnaires, mais suffisantes pour leur conférer une dignité au travail consacrant leur utilité dans la société. J’ai fait un article à ce sujet dans la revue de droit du travail de mars 2010, donc avant la remise au point de la CGT de 2011 mais après l’article de 2009.

L’idée était de consolider par la loi, et non par décret comme pour une convention collective, le statut des salariés du privé, d’où le titre : « statut législatif du travailleur salarié du secteur privé ».

Parallèlement, j’ai toujours défendu une approche en cercles concentriques afin de défendre les droits des salariés. Premièrement, je pense qu’il faut favoriser les échanges entre représentants des trois fonctions publiques (fonction publique d’Etat, fonction publique territoriale et fonction publique hospitalière). Aujourd’hui les représentants de ces trois sous-ensembles du fonctionnariat ne se rencontrent pas suffisamment.

Le second cercle est élargi aux salariés du secteur public qui jouissent d’un statut, donc les salariés de la SNCF, de la RATP, d’EDF, etc… Ce second cercle englobe tous ceux qui sont aujourd’hui des salariés « à statut » pour ainsi dire et qui ont intérêt à travailler ensemble.

Le troisième cercle est, bien entendu, celui des salariés dans leur ensemble, donc des salariés du secteur public et du secteur privé, afin déjà de faire taire cette rivalité ridicule et encouragée par certains cyniques et qui dépeint les fonctionnaires comme des nantis qu’il faudrait aligner sur le régime privé. D’où l’idée d’un statut du salariat privé qui tendrait davantage vers l’idéal qui transparait dans le statut général des fonctionnaires de participation à l’utilité commune.

LTR : Comment définir la figure contemporaine du manager, consacrée au sein de l’Etat depuis maintenant une vingtaine d’années avec la mode du New public management, et pourquoi est-elle insoluble dans l’idée même de service public ?

ALP : Ça se comprend tout à fait si vous analysez la loi organique relative aux lois de finances (LOLF, qui fixe la structure des lois de finances de l’Etat ainsi que ses modalités d’examen par le Parlement, ndlr) et la réforme générale des politiques publiques (RGPP, politique publique mise en œuvre sous Nicolas Sarkozy visant à réformer en profondeur le fonctionnement de l’Etat, ndlr). Pour la RGPP, Nicolas Sarkozy avait fait appel à des cabinets privés pour déterminer ce qu’il fallait supprimer au sein de l’Etat comme services et comme politiques publiques, et le cabinet avait inventorié environ trois-cents mesures. Idem pour la LOLF, qui consacre l’asymétrie entre les différents types de crédits (dépenses d’investissements, dépenses de fonctionnement, dépenses de personnels, dépenses d’intervention, dépenses d’opérations financières) et segmente les budgets en créant des catégories pour lesquelles les dépenses sont non-fongibles (par exemple vous pouvez utiliser les crédits de personnels pour toute autre dépense, mais l’inverse est impossible). Si vous ajoutez à cela le principe d’annualité budgétaire, et le principe de performance, omniprésent, vous comprenez qu’il devient difficile de mener une politique publique de long terme.

Mais, si vous voulez, l’irruption de cet esprit managérial dans la gestion de l’Etat, c’est quelque chose qui fleurit d’anecdotes que j’hésiterais même à raconter. Par exemple, la loi du 6 août 2019 sur la transformation de la fonction publique consacre le principe selon lequel le rôle du chef d’équipe est de lever toutes les contraintes qui peuvent gêner le travail de son équipe et, en particulier, c’est à lui que revient de mettre en place les lignes directrices de gestion qui sont décidées « en haut » et qui descendent. Et la seconde chose gênante, c’est bien entendu les batteries d’indicateurs toujours plus importantes pour mesurer la performance. On ne juge donc plus du tout les fonctionnaires par rapport à leur responsabilité ou à l’idée qu’ils se font de l’intérêt général, on leur demande simplement de rendre des comptes. C’est une régression par rapport à la conception du fonctionnaire citoyen.

 Le rapport Silicani (livre blanc sur l’avenir de la fonction publique, rendu en 2007 au Gouvernement par le conseiller d’Etat Jean-Ludovic Silicani, ndlr) , diligenté par Nicolas Sarkozy, et qui a été mis en échec fort heureusement, avait trois objectifs : faire échec à la loi par le contrat (recours massif aux contractuels) ; faire échec à la fonction par le métier (favoriser l’organisation de la fonction publique en métiers, c’est-à-dire en compétences) ; faire échec à l’efficacité sociale de la structure et du collectif par la mesure de la performance individuelle. Et qu’est-ce que l’efficacité sociale ? C’est nécessairement plus vaste que la performance économique. Lorsque je travaillais à la direction de la prévision, nous avions commencé à travailler sur ce sujet, à essayer d’établir des grilles multicritères pour traduire la pluridimensionnalité de la notion, mais cela était difficile.

Je vais vous donner un exemple amusant : on nous avait à l’époque demandé de déterminer l’utilité sociale d’un barreau d’autoroute et dans le rapport coût / avantage du barreau d’autoroute, on avait marqué : dédommagement du pretium doloris (compensation financière, ndlr) du chagrin de la veuve des futurs accidentés de la route. Autrement dit nous ne savions pas faire autrement que de tout monétiser ! On ne savait pas prendre en compte ce que Marx appelait la valeur d’usage, on ne savait, en bons économistes, qu’évaluer la valeur marchande. C’est un problème théorique majeur parce que les valeurs d’usage ne sont foncièrement pas commensurables. D’où la nécessité de compenser le handicap théorique et économique par la démocratie : si ce n’est pas mesuré ni mesurable, on discute, et chacun fait valoir la valeur d’usage qu’il accorde au fait considéré.

Il y avait une méthode qu’on appelait la méthode ELECTRE (élicitation et choix traduisant la réalité, ndlr) : face à un problème pour lequel on ne sait pas évaluer correctement, on réunit des gens qui sont parties-prenantes et on leur soumet un QCM, puis on produit des statistiques à partir de l’agrégation des réponses. Puis on leur présente cette statistique moyenne et on les invite à se positionner par rapport à celle-ci, c’est-à-dire qu’ils peuvent reconsidérer leur choix initial après avoir pris connaissance de la moyenne ou de la médiane. L’idée sous-jacente était que chacun prendrait en compte le choix moyen ou médian, c’est-à-dire l’opinion de l’autre et donc que les résultats finiraient par converger. Evidemment, avec ce type de méthode on court un risque, car on peut converger sur un argument démagogique par exemple, mais la méthode était intéressante.

Tout ça pour vous dire que lorsqu’on arrive au bout des capacités de calcul, la démocratie, la délibération doit prendre le relais. Ce qui n’empêche pas ensuite de retrouver une approche statistique pour objectiver le résultat de la délibération.

LTR : Une dernière question, très générale, sur le siècle que nous vivons et que vous qualifiez, dans le sillage d’Edgar Morin, de siècle des métamorphoses. Voyez-vous aujourd’hui se dessiner le point d’arrivée de cette métamorphose ?

ALP : Je ne sais pas répondre à cette question, malheureusement. Je sais simplement qu’il y aura un point d’arrivée mais je ne sais pas ce qu’il sera. Si vous voulez, les contradictions sont aujourd’hui tellement exacerbées, on parle beaucoup du climat mais il n’y a pas que ça, il y a bien-sûr les inégalités ! Ça m’ennuie de ne pas savoir quelle sera la réponse, parce qu’il y aura bien-sûr une réponse. Je crois fondamentalement que le XXIe siècle sera l’âge d’or du service public, mais je ne pense pas que cela pourra advenir sans une catastrophe. Les nouvelles donnes n’arrivent jamais sans un état de crise particulièrement grave, et potentiellement violent. C’est pour cela qu’en l’état actuel je ne suis pas pour une constituante ou une nouvelle République. Pour qu’il y ait une nouvelle constitution, il faut trois choses : que la constitution présente soit récusée avec un quasi-consensus ; qu’il y ait une idée consensuelle sur ce que doit être la nouvelle constitution ; qu’un évènement de rupture se produise. Aucune de ces trois conditions ne sont réunies aujourd’hui. Une présidentielle n’est pas un évènement d’une ampleur suffisante, pour un changement profond, il faut un choc, un traumatisme, même si je ne peux pas le souhaiter.

Mais je pense malheureusement qu’il n’y aura pas non plus de gauche, de gauche nouvelle par simple évolution des modes de scrutin. Pour les jeunes comme vous, j’ai conscience qu’une telle réponse est pathétique et décevante, mais c’est aussi l’aventure de la vie ! J’ai connu l’occupation et la libération, j’ai vu des femmes tondues en 1945 ! J’ai connu tout cela, et je sais à quel niveau doit se situer l’ampleur du traumatisme pour qu’il y ait une vraie métamorphose, même si on ne peut pas préconiser ni souhaiter cela. C’est à vos générations de tracer une voie, de faire ses choix pour l’avenir !

Références

(1)Dans la théorie néoclassique, la libre concurrence est vue comme le moyen de lutter contre une tendance inhérente des agents économiques à vouloir organiser les conditions de l’asymétrie d’information à leur profit. La concurrence parce qu’elle donne le pouvoir de choisir entre différentes possibilités au consommateur, ou au producteur dans les relations entre producteurs, lui rend ainsi le pouvoir en incitant les producteurs à se conformer à la demande du consommateur pour gagner des parts de marché. C’est notamment pour cela que les lois sur la concurrence punissent particulièrement sévèrement la notion de cartel qui est une entente entre producteurs pour maintenir, dans un marché concurrentiel, une asymétrie d’information. Pour cela aussi que la question de la transparence est particulièrement prégnante dans les systèmes concurrentiels où les associations de consommateurs sont structurées et influentes.

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

nos autres entretiens...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)

Le Grand récit, introduction à l’histoire de notre temps, de Johann Chapoutot

On Recommande

Le Grand récit, introduction à l’histoire de notre temps, de Johann Chapoutot

Histoire / philosophie
Un ouvrage érudit sans être jamais pesant, qui creuse son sujet en profondeur tout en restant accessible. Un essai d’une grande actualité sur la désagrégation des grands récits qui caractérise la « condition postmoderne ». Une réflexion qui porte enfin sur la question du sens dans l’histoire de l’humanité, mais aussi sur l’essence même du travail de l’historien : raconter le temps.

L’historien, chercheur en histoire contemporaine et professeur à la Sorbonne université, Johann Chapoutot, spécialiste du IIIe Reich et auteur notamment de La révolution culturelle nazie (Gallimard, NRF, 2017) et de La loi du sang, penser et agir en nazi (Gallimard, NRF, 2014), publie aux PUF son dernier ouvrage : Le Grand récit, introduction à l’histoire de notre temps (PUF, 2021). Ouvrage lumineux, foisonnant de références littéraires et philosophiques, il est aussi singulier par son objet : les grands récits qui ont structuré les représentations du temps et du monde en Occident. Véritable histoire des philosophies de l’histoire, de Saint Augustin à Lyotard en passant par Hegel et son avatar marxiste, c’est aussi un ouvrage à plusieurs niveaux de lecture, ce qui fait là sa richesse.

Un premier niveau tout d’abord, celui de l’historien universitaire, du professeur, qui se livre à un exercice difficile mais bien mené en donnant un cours d’histoire des idées et prend le temps d’expliquer, sans dénaturer, ce qui est complexe.

Un second niveau, qui tisse un lien entre destin personnel et destinée collective, et culmine dans cette phrase empruntée par l’auteur à Marc Bloch dans Apologie pour l’histoire : « l’histoire est la science des hommes dans le temps ». Elle n’est donc pas cette discipline que l’on chargerait de traquer la raison dans l’histoire de l’humanité ou bien une quelconque loi de nécessité régissant les sociétés humaines comme la physique et la biologie ont la charge d’identifier les lois de la nature. Elle est au contraire la discipline qui étudie cet être condamné au sens qu’est l’homme, condamné à donner du sens au temps vécu, à son histoire. Telle est la finalité même du récit : donner du sens à l’existence d’hommes voués à la mort. Cette histoire du sens, ou plutôt des sens, n’est finalement rien d’autre qu’une histoire de la liberté humaine dans le monde.

Enfin, le troisième niveau de lecture, celui du chercheur en histoire, est une tentative de réponse à cette question posée en filigrane de l’ouvrage : qu’est-ce finalement qu’écrire l’histoire ? La réflexion sur ce qu’est une narration, sur le pouvoir de la langue, traverse et finalement structure l’essai jusqu’à en constituer le fondement. Les quelques références au maître ouvrage de Paul Ricoeur (Temps et récit, tomes 1, 2 et 3) sont autant d’indices de la prégnance de la pensée du philosophe sur celle de l’auteur. Ce dernier ne cesse de creuser pour comprendre – comprendre toujours, plutôt qu’expliquer – le pouvoir créatif du récit, ce pouvoir immense qu’a la langue de façonner le réel.

Un essai qui nous éloigne des controverses stériles entre philosophie et histoire et qui, tout en restant fidèle à l’objet d’étude qu’il se donne, nous emmène respirer plus haut. Un essai dont on sort non seulement plus instruit, mais qui donne aussi matière à ruminer bien au-delà de la dernière page.

Le Grand récit, introduction à l’histoire de notre temps, de Johann Chapoutot (PUF, 2021, 15€)

Lire aussi...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)

Les nouveaux oracles : comment les algorithmes prédisent le crime ?

État & transition

Les nouveaux oracles : comment les algorithmes prédisent le crime ?

Entretien avec Vincent Berthet et Léo Amsellem
Comment établit-on des modèles prédictifs ? Comment les algorithmes sont-ils utilisés dans les domaines de la justice, de la police et du renseignement ? Quels sont les biais et les risques inhérents à une telle utilisation ? Enfin, quel impact les algorithmes prédictifs ont-ils sur notre système démocratique ? C’est à toutes ces questions que tente de répondre l’excellent ouvrage de Vincent Berthet et Léo Amsellem “Les nouveaux oracles, comment les algorithmes prédisent le crime ?”. Pour Le Temps des Ruptures, ils reviennent sur tous ces enjeux et tracent un nouveau compromis entre utilisation efficace et protection des libertés publiques.
LTR : A la lecture de votre ouvrage, la prégnance du champ lexical de la mythologie saute rapidement aux yeux. Vous parlez effectivement de nouveaux oracles, de différenciation entre mythe et réalité, de devins, etc… Considérez-vous que votre première tâche en tant que chercheurs et auteurs consistent à déconstruire le sensationnalisme qui peut entourer l’intelligence artificielle ?
L.Amsellem :

Absolument. On a joué autour de cet aspect littéraire. La volonté qui nous anime lors de l’écriture de cet ouvrage c’est de déconstruire l’ensemble des mythes qui existent autour des algorithmes. Il s’agissait de démystifier. C’est le rôle d’un chercheur, de celui qui veut s’inscrire dans un cadre de débat sérieux et sain. Et finalement on s’est rendu compte que les nouveaux oracles représentaient en réalité la crainte de ceux qui les rejettent de voir se former des “boules de cristal” prédictives. On a cherché à descendre d’un cran, à dégonfler cette bulle qui entoure l’IA pour regarder la réalité des systèmes qui y sont liés et leurs effets concrets.

LTR : L’axiome principal de la justice prédictive est de considérer que les comportements humains sont essentiellement prévisibles. N’y-a-t-il pas une forme de réductionnisme là-dedans ? Par ailleurs, cela s’oppose fondamentalement à l’idée démocratique selon laquelle les individus sont souverains et responsables de leurs actions.
V.Berthet :

Tout à fait. Les algorithmes prédictifs réveillent un vieux projet qui relève à la fois des sciences sociales et des sciences physiques qui est celui de la prédiction. Dans le livre nous parlons notamment de l’école de sociologie de Chicago et qui est l’exemple même de ce rêve. Leur approche des comportements humains passe par une quantification de ces derniers afin de mieux les prévoir. Les algorithmes prédictifs réactivent cette idée en exploitant la formidable opportunité que constitue le big data et la disponibilité des données massives. Or la question aujourd’hui est de savoir si le big data introduit un changement de degré ou un changement de rupture par rapport à ce projet de prédiction. A l’heure actuelle, étant donné les limites mentionnées plus haut, on peut dire qu’il y a uniquement un changement de degré dans le sens où les imperfections sont encore trop grandes pour parler de véritable rupture. On est très loin d’une prédiction parfaite et heureusement. Cela permet de préserver le libre arbitre du citoyen. Adolphe Quetelet au XIXe siècle avait déjà ce projet de quantifier les comportements humains.

LTR : Cette déconstruction du mythe vous la menez également sur le terrain de la critique technique. L’idée selon laquelle l’ère de l’IA et du big data se manifeste par la toute puissance des algorithmes en matière de prédiction vous semble fausse. Pouvez-vous revenir sur ce point ? Quelles sont les critiques régulièrement admises à ce sujet ?
V.Berthet :

Exactement. Aujourd’hui, on survend les capacités des algorithmes prédictifs. Les études publiées dans la revue Science notamment montrent qu’en réalité des modèles statistiques simples font aussi bien que les modèles prédictifs considérés comme complexes. L’exemple le plus patent de cela c’est une étude publiée en 2018 dans Science advances a décortiqué le fameux logiciel Compas utilisé dans de nombreuses juridictions américaines afin de prédire le risque de récidive de détenus et de non-comparution. En réalité, la société privée qui commercialise ce logiciel met en avant les capacités de ce dernier à analyser 137 facteurs. Mais dans les faits, l’étude de Science montre qu’un simple modèle d’analyse de 2 facteurs atteint le même niveau de précision que Compas. Ces algorithmes n’échappent donc pas à la règle de Pareto : l’essentiel de la performance prédictive relève en réalité de modèles statistiques très simples, notamment de régression, qui existaient bien avant l’avènement de l’IA. Voilà la première limite technique.

La deuxième limite est celle des potentiels biais qui peuvent affecter ces algorithmes. C’est en effet la base de données renseignée qui va alimenter les prédictions. C’est ce que résume la formule “Garbage in garbage out”. Aujourd’hui, quand ces logiciels sont vendus par des sociétés privées, rien ne garantit les conditions éthiques des bases de données qui sont exploitées.

LTR : C’est ce que vous dites également au sujet de Cambridge Analytica. Par ailleurs, aux Etats-Unis, la police utilisait l’IA (notamment le logiciel Predictive Police) afin de prévenir les crimes et délits. L’utilisation de ce logiciel a été interdite en raison des nombreux biais qu’il introduisait. Loin de prévenir les crimes et délits comme il était censé le faire, Predictive Police a participé à discriminer certains quartiers et certaines populations et à les prédisposer à commettre des délits et des crimes, permettant la réalisation d’une “prophétie autoréalisatrice”. Comment peut-on expliquer l’apparition de tels biais et comment les éviter ?
L.Amsellem :

Le logiciel dont il est question est celui qu’on appelle généralement PredPol. On ne peut pas dire que PredPol introduit des biais, en revanche il s’en nourrit à travers la base de données qui l’alimente. Ce qui signifie qu’à l’origine des données enregistrées il y a une action de police qui est biaisée ou bien une façon de récolter les statistiques de la délinquance qui l’est. En construisant un algorithme basé sur ces éléments de données on aboutit à une situation qui est discriminatoire. C’est une critique émise notamment par la chercheuse Cathy O’Neil dans son ouvrage Weapons of math destruction. Elle montre qu’avec la construction d’un algorithme sur des données biaisées, le risque n’est pas seulement de reproduire le biais mais bien de le répliquer à grande échelle. C’est ce qu’on constate aux Etats-Unis, notamment du fait de la ségrégation socio-spatiale qui existe dans ce pays.

PredPol n’a en revanche pas été interdit. Ce sont certaines villes qui ont décidé (notamment Los Angeles) de rompre leur contrat avec la société privée qui le commercialise. La question de savoir comment on évite l’apparition de tels biais est très compliquée. Cela nécessite de mettre en place un filet de sécurité tout au long du développement de l’algorithme : dès l’enregistrement des données. C’est ce que montre Aurélie Jean
(1)
, qui rappelle deux moyens de répondre à cette situation : toujours accompagner l’algorithme d’une expertise humaine (“human in the loop”), promue par Sara Hooker ; mettre en place un système d’autoévaluation tout au long de l’utilisation et du développement, voire dès le codage de l’algorithme, permettant d’identifier le plus tôt possible les biais.

LTR : Vous évoquez également dans votre ouvrage l’idée selon laquelle l’usage d’algorithmes prédictifs au sein de l’appareil judiciaire peut venir remettre en cause le principe d’individualisation de la peine. A l’inverse, il accentue la subsomption de cas particuliers sous une règle générale.
V.Berthet :

C’est effectivement une des questions de fond que pose l’utilisation de statistiques dans le cadre de la justice. Il y a un paradoxe : au début du XXe siècle, l’approche quantitative a été mise en oeuvre afin d’éclairer les décisions de justice et l’un des motifs donnés était justement de mieux connaître le criminel. Les statistiques pouvaient venir éclairer le cas individuel. D’ailleurs c’est ce que font les assurances dans la logique actuarielle. Paradoxalement, une fois qu’on utilise ces statistiques afin d’éclairer un cas d’espèce, on a l’impression que cette pratique contrevient au principe fondamental d’individualisation de la peine. Ce qui est vrai dans une certaine mesure. On a l’écueil possible de faire tomber chaque cas individuel dans la règle statistique. D’un autre côté, cette dernière peut éclairer des cas individuels.

Il y a néanmoins une limite de fond que présenteront toujours les outils statistiques : c’est ce qu’on appelle la critique de la jambe cassée. Dans les années 1960, un chercheur américain qui s’appelle Paul Meehl nous dit que si on utilise une règle mécanique (par exemple : tous les mardis tel individu se rend au cinéma), celle-ci peut se révéler vraie la plupart du temps ; mais si un jour l’individu en question se casse une jambe et ne peut pas aller au cinéma, la règle devient fausse. En d’autres termes, la règle statistique est statique, elle ne peut pas s’adapter au cas d’espèce. L’humain à l’inverse sera moins régulier que la règle statistique mais il peut s’adapter aux particularités lorsqu’elles se produisent. L’enjeu est donc de trouver le bon équilibre: avoir d’un côté la consistance de la règle statistique et de l’autre la capacité d’adaptation de l’être humain. Et donc dans le cas de la justice d’arriver à individualiser le cas que l’on traite.

LTR : Est-ce qu’il n’y a pas néanmoins une limite à la complémentarité entre algorithmes et raisonnements humains ? Les magistrats en France doivent remplir des tableaux statistiques, notamment le juge pénal, permettant d’évaluer leur activité. Quid d’une situation où des magistrats jugeraient dans un sens opposé à celui de l’algorithme et commettraient une erreur ?
V.Berthet :

Je cite cette collègue de droit privé à l’université de Lorraine qui nous dit “de la recommandation algorithmique à la justice algorithmique il n’y a qu’un pas qu’il est difficile de ne pas franchir dès lors que l’autorité de l’algorithme est difficilement contestable” (Florence G’Shell). La précision et la performance de ces algorithmes vont aller de manière croissante au cours de l’histoire et cela pose la question de la place de l’expertise humaine. Dans l’exemple que l’on prend il y a une complémentarité dans la mesure où l’algorithme est utilisé comme un outil d’aide à la décision. Mais la décision in fine est humaine. Si la plus value de l’appréciation humaine n’est plus significative cela veut dire qu’on se dirige vers une justice actuarielle. C’est-à-dire une justice dans laquelle, pour certains litiges, il n’y a plus d’intervention humaine. C’est l’ombre qui plane sur le futur de la justice.

LTR : Dans le cas de la justice civile ce n’est pas tant l’imperium du juge qui est remis en cause que la décision d’aller au contentieux. On voit les premières legaltechs, comme Case law analytics, qui fournissent au justiciable un service lui permettant de déterminer les chances qu’il a, en fonction des caractéristiques de son dossier, d’obtenir gain de cause devant le juge. Le risque est donc celui d’une déjudiciarisation. Cela entraîne également un recours accru à la médiation, or dans ce champ aussi des starts-up fournissent des solutions algorithmiques permettant de déterminer les chances qu’une médiation aboutisse. on met le doigt dans un engrenage dangereux pour l’accès a la justice.
V.Berthet :

Oui cela va dans le sens d’une déjudiciarisation. C’est précisément la consécration du principe “Minority Report”. C’est-à-dire le principe qui consiste à agir le plus en amont possible à partir d’une prédiction. Si je suis justiciable et que je veux intenter une action en justice, je sais, avec un intervalle de confiance précis, quelles sont mes chances d’échouer dans cette tentative. Je suis donc totalement désinciter à aller devant un tribunal.

Néanmoins on est encore au début de cette tendance. Les services proposés par les Legaltechs concernant la justice prédictive ont les mêmes défauts que ceux mentionnés plus haut pour les algorithmes. Ils sont aussi soumis à l’effet de Pareto.

LTR : Le salon Milipol s’est récemment tenu aux Etats-Unis. C’est un salon consacré aux innovations dans le domaine de l’intelligence artificielle. L’idée de ce salon est de pouvoir prévenir les délinquances du quotidien jusqu’aux attentats terroristes. Est-ce qu’il n’y pas finalement une course à l’IA autour du thème de la sécurité ?
L.Amsellem :

Le salon Milipol est un bon exemple de ce qui se fait en termes d’Intelligence Artificielle mais également de marketing autour de l’IA. Ce sont des entreprises privées qui présentent leurs solutions de la façon la plus avantageuse possible. Dans notre ouvrage, nous avons analysé système par système et logiciel par logiciel le niveau d’efficacité. Ce qu’on nous présente à Milipol doit encore faire l’objet de nombreux tests.

Il y a effectivement une demande de sécurité forte et un sentiment d’insécurité prégnant. On voit l’influence du continuum de sécurité : c’est-à-dire de l’imbrication entre les différentes mesures de prévention et de correction des délits et des crimes. Cela pose la question de la proportionnalité des outils que l’on doit utiliser en fonction du spectre où on se situe (petite délinquance ou attaque terroriste).

Il n’y a en revanche pas de toute puissance du renseignement technique dans la mesure où le renseignement humain continue d’être une source d’informations de grande qualité et qui présente une complémentarité. On observe une tendance à l’augmentation des budgets des agences de renseignement qui permet de ne pas démunir les services de leurs compétences traditionnelles.

LTR : Pouvez-vous revenir sur ce que vous appelez le compromis efficacité-liberté et la façon dont vous voulez en sortir ?
V.Berthet :

Le compromis efficacité-liberté c’est l’enjeu essentiel quand on essaye de mettre en perspective la question technologique dans le champ des libertés. Cet équilibre, c’est ce qu’on essaye d’expliquer dans le livre, il est difficile à trouver pour l’exécutif et le législateur, car ce n’est pas une question technique mais éminemment politique, un choix de société. L’épisode Covid a montré à quel point ces choix sont politiques : les pays du monde entier ont fait des choix différents, ceux de la France sont d’ailleurs révélateurs de son histoire. En matière de sécurité, il y a deux erreurs qu’on souhaite minimiser, que ce soit dans le cadre de la sécurité intérieure ou les attentats :

  • les faux positifs : quand on pense qu’une personne va commettre un acte criminel alors qu’elle ne l’aurait pas fait ;
  • les faux négatifs : une personne qui a priori ne passerait pas à l’acte mais qui le fait.

Ces deux erreurs ont des conséquences différentes. Des faux positifs, c’est un danger pour les libertés individuelles, les faux négatifs, c’est un danger pour la sécurité publique. La question c’est où on met le curseur, quelles erreurs on souhaite minimiser. Voltaire disait “mieux vaut se hasarder à libérer un coupable que condamner un innocent”. La technologie peut potentiellement nous permettre d’échapper à ce compromis et à cette idée que si on améliore l’efficacité c’est au détriment des libertés. L’exemple qu’on donne, même si il n’est pas parfait, est celui de la 1ère version de stop covid (devenue tous anti-covid). Le projet était d’avoir ce système bluetooth permettant de détecter les chaînes de contamination pour enrayer la vague épidémique. Cet outil respectait les législations RGPD et il pouvait apporter toutes les garanties en termes de respect des données individuelles. L’efficacité de stop covid a été limitée par le faible nombre de Français qui l’ont téléchargé et mis en œuvre. Si les citoyens français avaient fortement utilisé cet outil, il n’aurait pas présenté de risques pour les libertés et aurait contribué à enrayer l’épidémie. C’est le message de Peter Thiel, bien que figure controversée aux Etats-Unis : il est possible de concilier avec la technologie respect des libertés et efficacité. Pour converger vers des solutions qui satisfont ces deux conditions il faut expérimenter.

L.Amsellem :

La distinction qu’il importe de mettre en œuvre c’est de considérer que ce ne sont ni les algorithmes ni les nouvelles technologies qui permettront de sortir du compromis de  l’efficacité, mais ce qu’Aurélie Jean appelle la “pratique algorithmique”. Il ne faut pas penser que la technologie va nous sauver, mais sélectionner les bons algorithmes, au service d’un objectif fixé de manière commune avec un accord politique fort, assorti de l’encadrement juridique nécessaire et des contrôles a posteriori nécessaires. D’où l’importance d’associer la population civile pour trouver cet équilibre : ce n’est pas un sujet de chercheurs ni de technocrates, cela ne se décide pas dans un cabinet ministériel, c’est un contrat social 2.0 pour atteindre les buts politiquement visés, pour le faire de la manière la plus sécurisée possible et limiter les risques.

LTR :
Au-delà du compromis liberté-sécurité, cela pose la question de notre capacité, en tant que Français et Européens, à développer des outils souverains. Nous sommes dans cette espèce de course qui a une tendance à s‘accélérer, deux blocs, avec d’un côté les Etats-Unis et la Chine qui connaissent des avancées technologiques gigantesques et de l’autre le continent européen qui a du mal à se faire entendre sur ces enjeux, tant sur l’arbitrage entre libertés et sécurité que sur les libertés publiques. Une IA souveraine est-elle encore possible ou doit-on la considérer comme chimérique ?
L.Amsellem :

Des blocs se constituent et effectivement l’Europe pèse peu géopolitiquement sur ces sujets. C’est un problème, qui fait qu’on ne protège pas nos libertés. On s’interdit l’utilisation de certaines technologies, ce qui mène à ne pas développer d’outils souverains et une fois que l’urgence apparaît on finit par utiliser les outils des autres, qui sont déjà efficaces. Comme lors des attentats de 2015 et l’utilisation de Palantir pour l’analyse des métadonnées du renseignement intérieur ; ce qui est regrettable quand on sait que cela a été financé par le fonds capital risque de la CIA. A noter que l’Union européenne ou la France d’ailleurs ont une capacité, on a un gigantesque marché, des capacités importantes en termes de formation et capital humain, il n’y a pas de raison pour lesquelles on échouerait pourvu qu’on s’y mette tôt et qu’on ne bride pas l’innovation. Alors comment faire ?

Il y a la question du financement. En France un fonds, Definvest, a été créé en 2017 réunissant la BPI et le Ministère des Armées, similaire à ce que font les Américains, pour investir très tôt dans les pépites de la tech, tout en étant conscient que cela serait plus efficace de le faire au niveau européen, mais quand c’est un sujet souverain, cela reste encore difficile de le traiter à cette échelle. La France pourra peut-être profiter de la présidence de l’Union européenne pour mettre ces sujets sur la table. L’UE doit assumer son ambition d’Europe puissance. Elle a aussi un avantage comparatif fort sur le soft power normatif, sur la régulation : c‘est ce qu’on a vu avec le RGPD. On pensait que cela allait contraindre les entreprises européennes, mais c’est faux. Cela a permis d’encadrer les données, les libertés des citoyens, cela n’a pas bridé l’innovation ni bloqué les entreprises européennes. Cela a même été répliqué en Californie avec le CCPA. Dans ce cadre-là, que peut faire l’Union Européenne pour réguler sans obérer l’innovation ? La Commission européenne a identifié les algorithmes présentant un risque inacceptable, comme l’utilisation de la reconnaissance faciale à des fins de notation sociale. Pour le reste des algorithmes dans le domaine de la sécurité elle estime qu’il existe un risque élevé, dont l’utilisation doit être soumise à des conditions restrictives, afin de trouver un équilibre, comme la présence de systèmes d’évaluation et d’atténuation des risques, la qualité des bases de données utilisées, la traçabilité des résultats, l’information des gens que cela vise, un contrôle humain approprié pour réduire les risques. La Commission souhaite encadrer, contrôler, réguler mais pas brider l’innovation.

Pour un compromis efficacité-liberté il faut connaître l’efficacité. Pour cela il faut expérimenter et encadrer en proportionnant cela aux fins poursuivies afin de ne pas nous trouver vassalisés par des puissances étrangères plus avancées.

LTR : Finalement, l’Artificial Intelligence Act du 21 avril 2021 proposé par la Commission, rejoint beaucoup de points évoqués dans le livre.
L.Amsellem :

Absolument, on trouve qu’il y a une continuité entre la position que l’on développe dans le livre qui appelle à une vision pragmatique sur ces sujets-là, rigoureuse pour autant et celle de la Commission. Cela rejoint aussi un rapport remis en septembre par le député Jean-Michel Mis qui présente aussi cette vision du compromis efficacité-liberté qui est pragmatique tout en sachant que lorsqu’on souhaite légaliser un système il faut toujours créer des contrôles nouveaux, plus sérieux, ambitieux. On retrouve un équilibre déjà ébauché par la loi antiterroriste du 24 juillet 2015 qui encadre les pratiques d’analyse des métadonnées par les services de renseignement. Le fait d’encadrer des pratiques déjà existantes, cela évite de laisser un vide juridique. On crée également un organe permettant de contrôler les techniques de renseignement, la CNCTR donc on arrive à préserver le secret défense, contrôler l’action des services de renseignement et les encadrer par le droit.

LTR : L’exemple de 2015, démontre la logique d’encadrement-régulation : on légalise une situation de fait et on met en place un organe de contrôle s’assurant que le bornage mis en œuvre est respecté. Lorsqu’on arrive dans cette situation, cela pose la question de l’impossibilité de revenir en arrière.
L. Amsellem :

Il est vrai qu’il existe des effets de cliquet, quand on les met en œuvre on a du mal à revenir dessus, quand on abandonne une liberté c’est rare de la retrouver, à quelques exceptions près qui sont celles des systèmes peu efficaces. Par exemple pour PredPol, ce logiciel, bien qu’il continue à être utilisé et rentable pour certaines villes américaines, a été tué par deux facteurs à Los Angeles. D’abord, le facteur des biais raciaux que la recherche a largement couvert et qui a subi une pression politique suffisante pour l’interdire. Le deuxième facteur est un audit de mars 2019 de l’inspecteur général du LAPD qui n’arrive pas à conclure à l’efficacité du logiciel. A partir de ce moment-là, le concept efficacité-liberté est compromis : c’est une décision pragmatique prise par la ville de Los Angeles d’arrêter d’utiliser ce logiciel. On a eu aussi ce retour en arrière dans l’Oise ou la police utilisait aussi PredPol qui a été remplacé par Paved un simple logiciel de gestion, de cartes de chaleur, de représentation du crime plutôt qu’un logiciel d’intelligence artificielle prédictive. Il y a donc eu quelques retours en arrière.

Pour le renseignement, les effets de cliquet sont toutefois encore importants, car il est difficile d’évaluer l’efficacité de ces systèmes. D’où l’utilité d’avoir des inspections qui sont très fortes, soit la CNCTR (Commission nationale de contrôle des techniques de renseignement) soit en France l’ISR (Inspection des services de renseignement) qui sert à cela également. Mais il n’y a pas suffisamment de contrôles parlementaires. Il existe la Délégation parlementaire au renseignement (DPR). Mais elle est limitée. Par rapport aux Etats-Unis, il y a certains pouvoirs qu’elle ne possède pas. Par exemple, elle n’a pas accès aux rapports des inspections. La DPR peut auditionner des responsables des services de renseignement mais uniquement des responsables. Mais entre ce que déclarent le directeur des services informatiques, le directeur d’une administration centrale, le directeur du renseignement, et ce que déclare l’agent dans la réalité de son quotidien il peut y avoir des différences. Le Senate Select Committee on Intelligence au Sénat américain possède ce pouvoir d’enquête et d’audition qui est total. C’est un contrôle parlementaire fort. En comparaison, la DPR demeure modeste. C’est aussi lié à sa naissance, elle a une dizaine d’années, aux Etats-Unis elle existe depuis le Watergate.

LTR : Cela pose la question du rapport entre technique et droit, dans quelle mesure le recours à des algorithmes dans des domaines régaliens est acceptable car ce sont des objets difficilement régulés par le droit. Quand il faut mettre le doigt dans le fonctionnement d’un algorithme, beaucoup de juristes en sont incapables car ce n’est pas leur domaine de spécialité. Comment réguler l’usage d’ un algorithme quand celui qui régule n’est pas celui qui produit ?
L.Amsellem :

On touche ici à l’essence même des algorithmes. Effectivement, le juriste n’a pas de prise sur le fonctionnement concret des algorithmes, ni sur leur évaluation. Il faut différencier techniquement les algorithmes explicites et implicites. Quand l’algorithme est explicite, il suffit de regarder l’arbre de décision, demander à l’ingénieur, c’est assez simple à réguler. Mais les algorithmes fonctionnent de plus en plus avec du deep learning ou du machine learning. C’est plus complexe car on ne sait pas quel raisonnement l’algorithme a utilisé, à partir de la base de données, pour arriver à une solution. Comment encadrer par le droit un raisonnement qui est une boîte noire ? Comment rectifier ce défaut essentiel des algorithmes ? Il existe des façons de le faire, imparfaites et encore à l’étude.

Une réponse est de respecter le principe de proportionnalité dans l’usage des algorithmes. A quelles fins on utilise un algorithme et jusqu’où on le raffine, on ajoute des données ? Ajouter des données rend l’algorithme moins lisible, c’est difficile de faire de la rétro-ingénierie, d’analyser quels ont pu être les raisonnements présidant à la décision. Google a montré lors d’une étude en 2016, qu’en doublant les données d’une base déjà importante, sur un algorithme fonctionnant correctement, cela n’améliore que de 3% l’efficacité. On ajoute donc une grande quantité de données, on complexifie l’algorithme, pour un gain d’efficacité marginal.

L’un des moyens à notre disposition pour encadrer l’algorithme est l’ »explainability by design”, qui revient à ne mettre en place des algorithmes que lorsque on a conçu des moyens de les évaluer pendant leur conception. En d’autres termes, l’algorithme fonctionne en suivant des raisonnements jusqu’à atteindre un point nodal où il doit envoyer un rapport sur la manière dont il est arrivé à une décision intermédiaire. La Commission européenne, par exemple, y est très attentive. Par ailleurs, nous encourageons le dialogue entre les juristes, les décideurs publics, et les scientifiques qui effectuent des recherches en IA ou conçoivent les algorithmes.

nos autres entretiens...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)

L’éthique environnementale ou l’idée d’une valeur intrinsèque de la nature

Stratégie & Bifurcation

L’éthique environnementale ou l’idée d’une valeur intrinsèque de la nature

Dans ce premier article de notre série consacrée aux sources de l’écologie politique, nous étudions l’environnement dans une perspective éthique. Il s’agit là d’un courant mal connu en France – et pour cause ses principaux auteurs sont de filiation anglo-saxonne – pourtant riche de toute une tradition qui infuse dans le débat public. Le projet de l’éthique environnementale consiste à identifier dans l’éthique dominante un anthropocentrisme latent qui explique pourquoi la préservation de l’environnement n’est jamais un objectif en soi. Mais qu’est-ce au juste que l’éthique environnementale ?
Vers Un grand récit écologiste

Qu’est-ce qu’un grand récit ? Un discours, un vocabulaire, une stratégie, une philosophie politique, une vision historique ? Sûrement un peu de tous ces éléments à la fois. La force d’un grand récit est d’abord et avant tout sa capacité d’entrainement par la production de sens. Ce ne peut pas être un discours prêt-à-penser, au contraire un grand récit doit permettre une certaine souplesse intellectuelle pour que des courants, des tendances se dessinent et se développent. C’est enfin une capacité à replacer l’action politique le long d’un arc temporel qui s’étend d’un passé plus ou moins lointain marqué par des évènements fondateurs jusqu’à un avenir esquissé à la manière d’un horizon. La révolution de 1789 a été à ce titre le mythe fondateur d’un grand récit républicain en France, tout comme le marxisme a été le creuset d’un grand récit populaire.

Pour bien des raisons que nous n’analyserons pas ici, l’époque contemporaine – à gros traits la postmodernité – se caractérise notamment par la désuétude de ces grands récits. Or un champ politique sans récits antagonistes pour le structurer est comme un spectacle sans histoire, une scène sur laquelle des acteurs errent sans but pour distraire des spectateurs amorphes. Les visions étriquées et démagogues ou bien la tactique électorale à la petite semaine masquent mal une incapacité à produire du sens par l’action politique, réduisant les élus au rôle de simples gestionnaires d’un Léviathan administratif en pilotage automatique.

La série d’articles que nous inaugurons ici a pour projet d’explorer les grands courants qui structurent ce qui pourrait justement être l’un des grands récits de notre siècle : l’écologie politique. »

Pourtant, ce constat ne saurait occulter l’affirmation , ces dernières années, d’un discours qui convainc de plus en plus de citoyens et d’électeurs : l’écologie politique. Mais qu’est-ce que l’écologie politique ? Son inconsistance lui assure aujourd’hui une certaine prospérité. Derrière ce signifiant (un peu) vide se cachent pourtant des dizaines d’auteurs, de pensées différentes et bien souvent divergentes mais qui ont en commun une qualité essentielle de tous les grands récits : elles proposent une vision du monde totalisante. L’écologie politique désigne en premier lieu un ensemble de thèses et de doctrines hétérogènes qui pointent toutes vers une même finalité : faire de la préservation de notre environnement l’enjeu politique fondamental. La série d’articles que nous inaugurons ici a pour projet d’explorer les grands courants qui structurent ce qui pourrait justement être l’un des grands récits de notre siècle : l’écologie politique.

1. Le champ éthique, l’environnement et la notion de valeur

L’éthique comme champ philosophique correspond à la « science des mœurs ». Le terme est un emprunt au latin ethica, lui-même repris du grec ethikon, « relatif aux mœurs et à la morale ». L’éthique se caractérise par sa dimension pratique, c’est-à-dire qu’elle se propose de servir de guide, de boussole pour l’action. Deux grandes écoles éthiques ont émergé à la faveur de la modernité philosophique. La première est le conséquentialisme qui évalue la moralité d’une action en fonction des conséquences qu’elle aura. Sa plus célèbre version est l’utilitarisme – transposition à l’éthique des grands principes libéraux – qui transforme la philosophie pratique en une succession de calculs d’utilité, chaque individu faisant ainsi des choix guidés par son intérêt propre. L’école déontologique constitue la seconde grande école éthique, qui évalue non pas les conséquences des actes de l’individu mais prioritairement la visée poursuivie par celui-ci, c’est-à-dire son intention initiale.

Sans entrer dans le détail des développements et des limites d’une opposition statique entre écoles – la première représentée classiquement par Bentham et Mill, la seconde par Kant – remarquons que ces deux approches supposent que l’on place au fondement de l’évaluation – soit de la visée, soit des conséquences – une valeur cardinale à l’aune de laquelle l’action recevra sa qualification éthique, bonne ou mauvaise : le plus souvent le bien-être ou le bonheur de l’individu, tant que cela ne nuit pas à la communauté. L’éthique est toujours une tentative rationnelle de réconciliation entre les désirs individuels et l’intérêt collectif par la prescription de règles de conduite qui sont autant de limites à l’action individuelle. C’est pour cela notamment que la constitution de la communauté éthique est suspendue à la reconnaissance préalable entre semblables, entre égaux, c’est-à-dire entre personnes qui se reconnaissent mutuellement comme agents éthiques et acceptent de limiter leur puissance d’agir tant que les autres membres de la communauté en font autant.

quelle valeur éthique accorder à l’environnement dans une perspective éthique traditionnelle ? Pour le dire autrement, peut-on faire de la préservation de l’environnement une fin en soi ? »

Après ce bref rappel, posons-nous donc la question centrale : quelle valeur éthique accorder à l’environnement dans une perspective éthique traditionnelle ? Pour le dire autrement, peut-on faire de la préservation de l’environnement une fin en soi ?

L’homme du XXIe siècle qui comprend les enjeux du réchauffement climatique et la menace qui pèse sur la biodiversité voudra répondre « oui » sans hésiter. Mais est-ce que derrière la pseudo-évidence ne se cacherait pas une difficulté ? En effet, l’utilitariste comme le déontologue de bonne foi peuvent tout à fait reconnaître que la défense de l’environnement constitue une fin, certes, mais celle-ci n’est pas une fin en soi. Elle est une fin pour l’être humain, ou pour la communauté humaine, car celle-ci a besoin de préserver son environnement pour assurer sa propre survie. La valeur que nous reconnaissons à l’environnement dans cette perspective est instrumentale et non intrinsèque. Le fondement profondément humaniste de l’éthique condamne cette dernière à ne reconnaître de valeur intrinsèque qu’à l’homme qui peut seul être considéré comme fin en soi. On retrouve ici l’impératif pratique kantien énoncé dans la Critique de la raison pratique : « agis de telle sorte que tu traites l’humanité, aussi bien dans ta personne que dans la personne de tout autre, toujours en même temps comme une fin, et jamais simplement comme un moyen. » L’octroi d’une valeur intrinsèque à un être autre que l’homme est une quasi-impossibilité logique pour les éthiques modernes qui se prescrivent des limites strictes dès lors qu’elles font de la reconnaissance entre égaux le préalable à la constitution de la communauté morale. L’éthique moderne nous « condamne » donc en un sens à l’anthropocentrisme.

On comprend bien mieux ainsi la dimension novatrice, pour ne pas dire subversive, d’un projet éthique rationnel visant à reconnaître à la nature une valeur intrinsèque, une valeur telle que sa préservation puisse être une fin en soi. Et à regarder de plus près les différentes tendances issues de ce que l’on appelle l’écologie profonde il n’est pas rare que, faute de trouver un soubassement rationnel à la valeur intrinsèque de la nature, on lui substitue une valeur spirituelle. La sacralisation, voire la divinisation de la nature tient ainsi lieu de fondement à une éthique environnementale. On retrouve d’ailleurs dans ces pensées une certaine inclination à l’immanentisme, d’inspiration Spinoziste – caractérisée par la célèbre formule « deus sive natura », c’est-à-dire que Dieu est identifié à la nature – qui contraste avec la philosophie d’un Descartes que l’on classe d’ordinaire volontiers parmi les héritiers des pensées de la transcendance.

2. L’éthique ratiocentriste, la nature et la valeur intrinsèque

Plusieurs philosophes, spécialistes d’éthique de l’environnement, ont tenté de frayer une voie pour sortir des apories de l’anthropocentrisme et inaugurer une éthique authentiquement biocentrique. C’est par exemple le cas de Baird Callicott, de Holston Rolmes ou encore de Paul Taylor(1) qui sont au cœur de notre étude.

En premier lieu, notons que chacun de ces auteurs assume un parti-pris théorique qui consiste à ne pas sortir du cadre de la philosophie moderne que l’on pourrait qualifier de philosophie du sujet et définie, à très (trop) gros traits par la bipartition cartésienne du sujet et de l’objet et fondée sur l’évidence du cogito(2), bien que Callicott soit celui qui tente le plus de s’en éloigner.

Pourquoi cela est-il important ? Parce qu’une telle bipartition suppose que le monde soit conçu comme un réseau infini de relations entre des sujets, seuls à même de porter des jugements, notamment des jugements de valeurs, et des objets qui sont de simples choses.

Mais si le monde n’est qu’un tissu de relations, se pose dès-lors la question de la possibilité même qu’existe quelque chose comme une valeur intrinsèque. Si le monde n’existe que pour des sujets, alors la valeur ne naît qu’à l’occasion des jugements portés par ces mêmes sujets sur leur monde alentour. Dit autrement et pour reprendre une formule célèbre de Jean Wahl « y aurait-il encore des étoiles dans le ciel sans personne pour les regarder ? » Or si l’on parle de valeur intrinsèque, celle-ci ne doit pas dépendre du jugement d’un sujet valorisant mais doit être absolue et exister même en l’absence de sujet formulant des jugements.

C’est dans ce cadre très contraint que l’éthique kantienne trouve sa place en détournant le problème. La reconnaissance des égaux se fait sur le fondement d’une reconnaissance mutuelle entre sujets : chaque sujet se représente son existence, accorde à sa vie une valeur propre, irréductible. Et c’est parce que j’identifie dans autrui un autre soi-même, un autre être rationnel, un autre ego cogito, que je peux inférer que, tout comme moi, lui aussi accorde à sa vie une valeur également irréductible. C’est donc la possession de la raison qui, ultimement, fonde la communauté morale. C’est une éthique non seulement anthropocentrique mais que l’on pourrait même qualifier de ratiocentrique ou logocentrique.

Quittons le terrain âpre des philosophies du sujet pour revenir à la valeur intrinsèque de la nature. Le principal obstacle à l’élargissement de la communauté éthique à la nature en général est la réciprocité qu’impose une éthique fondée sur la raison, c’est à dire une éthique ratiocentriste .

Mais pour Callicott, il existe au moins deux preuves de l’existence de la valeur intrinsèque et celles-ci n’ont rien à voir avec la raison. La première est la preuve téléologique, reprise d’Aristote, qui peut se résumer ainsi : si nous n’accordons qu’une valeur instrumentale aux choses, si nos actes ne visent jamais des fins en soi mais toujours des moyens en vue de, cette chaîne doit nécessairement s’arrêter à une fin dernière, qui ne peut être qu’une fin en soi. Pour le dire autrement : l’existence de valeurs instrumentales implique nécessairement l’existence d’une valeur intrinsèque qui est fin dernière, tout comme, lorsque nous remontons une chaîne de causes, nous devons nécessairement aboutir à identifier une cause première.

La seconde preuve, qui nous intéresse davantage, est la preuve phénoménologique, qui reprend l’assertion de Kant sur la valeur que nous accordons à notre vie propre. Pour Callicott, nous accordons, chacun d’entre nous, une valeur effective à notre existence, qui dépasse la valeur que nous sommes enclins à nous accorder en vertu de notre position sociale ou familiale. L’homme isolé, reclus aux marges de la société, continue de considérer que son existence a une valeur irréductible, une valeur existentielle.

Pour Holmes Rolston, l’évolution même, par les différentes stratégies que déploie le vivant pour survivre, est la manifestation d’une volonté de vivre si puissamment ancrée et inhérente qu’elle témoigne à elle-seule de la valeur intrinsèque que chaque être vivant accorde à son existence propre. »

Cette preuve phénoménologique se passe de démonstration car elle se donne, à l’instar du cogito cartésien, sur le mode d’une évidence apodictique, c’est-à-dire que cette assertion est nécessairement vraie mais ne peut être démontrée. Or selon nos deux auteurs, cette valorisation intrinsèque de l’existence n’est pas le fait des seuls êtres humains mais doit être étendue à l’ensemble du vivant. Pour Holmes Rolston, l’évolution même, par les différentes stratégies que déploie le vivant pour survivre, est la manifestation d’une volonté de vivre si puissamment ancrée et inhérente qu’elle témoigne à elle-seule de la valeur intrinsèque que chaque être vivant accorde à son existence propre.

En cela Rolston prend un chemin qui s’éloigne du ratiocentrisme puisqu’il n’est nul besoin d’adosser cette valeur à autre chose qu’elle-même, ni même que celle-ci soit formulée explicitement par des êtres doués de langage. Par ailleurs, si le seul fait de se valoriser existentiellement suffit à fonder la valeur intrinsèque et, par extension, à fonder la communauté morale, alors la condition de réciprocité tombe d’elle-même et la communauté s’élargit à l’ensemble du vivant.

D’aucun remarqueront que cette valeur intrinsèque, qui devient ici une véritable valeur existentielle, ressemble furieusement au vouloir-vivre de Schopenhauer, qui identifiait, derrière les apparences multiples et biaisées du monde, l’expression d’une force invisible mais réelle, vérité de l’existence et de l’être : le vouloir-vivre. On retrouve également une idée similaire dans la philosophie tardive de Nietzsche, via le concept de volonté de puissance telle qu’il le caractérise dans La Généalogie de la morale et plus encore dans Ainsi parlait Zarathoustra. On la retrouve enfin, sous d’autres traits, plus tôt dans notre histoire et à l’issue d’un cheminement philosophique bien différent, chez Spinoza qui parle du conatus, qui n’est autre que la persévérance dans l’être propre à toute chose qui existe et souhaite continuer à exister.

3. LIMITES PRATIQUES ET PERSPECTIVES JURIDIQUES

Mais que faire d’une telle éthique bio-centrée ? Est-elle effective ? Commençons par mesurer ce qu’elle impliquerait. Callicott montre bien qu’une telle éthique environnementale est difficile à manœuvrer, voire impotente et ce pour au moins deux raisons :

A) Elle met un terme à la distinction entre valeur instrumentale et valeur intrinsèque, ce qui pose d’innombrables problèmes philosophiques mais aussi très concret. En effet, dans une telle perspective, l’élevage d’animaux à quelque fin que ce soit (production de lait, de laine, de viande) devient rigoureusement impossible et l’exploitation des sols à des fins agricoles pourrait, un jour, poser problème. Tout être vivant, du grand mammifère à la plus petite plante doit désormais être considéré comme fin en soi. Une telle éthique dissout la communauté morale pour laisser place à la communauté du vivant.

B) Elle n’accorde aucune valeur intrinsèque aux milieux c’est-à-dire aux grands ensembles abiotiques que sont notamment les montagnes et glaciers, les océans ou l’atmosphère. Ces ensembles-là continuent, dans cette perspective, de n’être considérés qu’au seul prisme de leur valeur instrumentale pour la communauté du vivant, or c’est bien la saturation de ces puits de carbones qui est à l’origine du réchauffement atmosphérique et donc des dérèglements climatiques sans qu’aucune valeur intrinsèque ne leur soit reconnue.

En réalité l’éthique environnementale de Rolston souffre de n’être qu’une transposition au vivant tout entier d’une éthique individuelle qui a été conçue dans un esprit profondément humaniste. »

En réalité l’éthique environnementale de Rolston souffre de n’être qu’une transposition au vivant tout entier d’une éthique individuelle qui a été conçue dans un esprit profondément humaniste. Mais à ces deux critiques, ajoutons-en une troisième que Rolston et Callicott feignent de ne pas voir mais qui pose pourtant une difficulté majeure : l’absence de réciprocité. Nos deux auteurs balayent d’un revers de main cette objection, mais cela est-il possible sans modifier en profondeur le sens même de l’éthique ?

Illustrons par un exemple concret : un homme A se trouve face à un prédateur P qui s’apprête, non pas à l’attaquer lui – le cas serait trop aisé à résoudre – mais à attaquer une personne B, qui n’a témoigné aucune agressivité envers quelque animal que ce soit et qui est tout à fait inconnue de A. A peut, s’il le souhaite, empêcher le prédateur de s’attaquer à B mais il doit pour cela tuer P. Que doit-il faire ?

Le sens commun nous enjoint à considérer que A doit sauver B en tuant P. Mais si l’on adopte la perspective de Rolston, cela n’est plus tout à fait évident. En effet, toute vie doit être également valorisée et P a surement de très bonnes raisons d’attaquer B (comme se nourrir pour survivre ou nourrir ses petits). L’intervention de A en faveur de B témoignerait donc d’un parti-pris anthropocentrique évident. Pour s’en convaincre, remplaçons B par n’importe quel autre animal. Dans ce second cas, il est évident que H n’interviendra pas et laissera P dévorer B.

Nous sommes naturellement enclins à vouloir sauver nos semblables et opérons ainsi une forme de gradation dans la valeur que nous accordons aux êtres vivants en traçant une ligne de démarcation claire entre nos semblables et le reste du vivant, qui ressemble beaucoup à la ligne que nous traçons entre sujets et objets et qui n’est rien d’autre que la condition essentielle de la réciprocité. Nous n’acceptons dans la communauté morale que ceux dont nous savons qu’ils sont susceptibles de nous reconnaître comme fin en soi également, ce qui implique qu’ils soient des sujets au sens cartésien du terme.

On pourrait même dire que la réciprocité forme une condition qui, à certains égards, supplante la règle de la reconnaissance des égaux. Ce sont par exemple tous les cas où une relation homme-animal se noue (avec un chien, un cheval ou un singe) qui peut conduire la personne à reconnaître à l’animal en question une valeur supérieure à celle d’un de ses semblables. Mais la valeur est ici adossée à un affect et on s’éloigne alors d’une éthique objective.

Enfin, il y a bien ce que l’on pourrait qualifier de biais dans la manière dont Rolston et Callicott abordent le problème. Tous deux parlent d’une valeur intrinsèque de la nature mais leur méthode consiste à étirer à l’envie la notion cartésienne de sujet, et donc la dignité morale qui lui est associée. Or la nature dans sa totalité ne pouvant être considérée comme un seul sujet, leur stratégie consiste à étendre la notion de sujet au vivant, pris comme somme des organismes vivants. Ainsi ce n’est pas la nature qui est dotée d’une valeur intrinsèque mais le bios en général et de façon indiscriminée, ce qui pose la question de la limite : peut-on accorder la même valeur à un mammifère, un invertébré, un arbre, un champignon ou même une bactérie, un virus ? Faut-il que nous plongions dans les méandres de la classification des êtres vivants pour arriver à tracer une limite acceptable à cette nouvelle communauté morale ?

En revanche, l’extension de la notion de sujet présente un intérêt pratique évident car le dualisme cartésien et notamment la notion de sujet a notamment permis de forger la fiction juridique moderne de l’homme comme sujet de droit, c’est-à-dire comme entité physique à laquelle des droits inaliénables sont attachés et qui, en contrepartie, est présumé assumer l’entière responsabilité de ses actes – à la différence des animaux que la modernité juridique a exclu du champ des sujets de droits pour cette raison précise.

L’extension du concept de sujet de droit à la nature ou l’environnement est une stratégie politique et normative intéressante afin d’améliorer la protection juridique du vivant »

Or l’extension du concept de sujet de droit à la nature ou l’environnement est une stratégie politique et normative intéressante afin d’améliorer la protection juridique du vivant, mais ce concept, parce qu’il est fondé sur la notion même de sujet, implique la reconnaissance préalable d’une valeur intrinsèque. Si l’on y parvenait, cela permettrait par exemple de renverser la charge de la preuve en droit environnemental : plutôt que d’avoir à démontrer la nuisance particulière causée au milieu naturel par un acte d’exploitation pour l’interdire, il s’agirait de démontrer l’utilité d’un acte entrainant l’exploitation du milieu naturel pour l’autoriser.

Faute de pouvoir fixer une borne, une limite permettant de contenir la taille de la communauté morale, les promoteurs de la valeur intrinsèque de la nature échouent à fonder celle-ci rationnellement en butant sur le concept cartésien de sujet qu’ils ne parviennent ni à abandonner, ni à dépasser. De là à dire, au grand dam de nombreux penseurs de l’écologie – dont certains ont emboité le pas aux philosophes de la déconstruction du sujet de la seconde moitié du XXe siècle, de Foucault à Derrida – que Descartes est indépassable et les philosophies du sujet également, il n’y a qu’un pas.

Références

(1) Ces trois auteurs Américains, méconnus en France, ont publié essentiellement dans les années 1980 et 1990. Ils ont tous contribué à une revue célèbre outre-Atlantique dénommée Environmental ethics et fondée en 1979. Cette revue a constitué, pendant plusieurs décennies, un point de ralliement pour tous les philosophes désireux de participer au débat et à l’édification d’une éthique environnementale qui réponde, sur le plan de la théorie, aux enjeux intellectuels de l’écologie que ces précurseurs avaient identifié dès la fin des années 1970.

(2) Pour rappel le cogito cartésien est l’évidence qualifiée d’apodictique (c’est-à-dire qui est nécessairement vraie mais ne peut être démontrée) selon laquelle j’acquiers de façon préréflexive (c’est-à-dire avant toute réflexion, tout retour sur moi-même) la certitude de mon existence. Le cogito constitue non-seulement un fondement existentiel (il fonde la certitude de l’existence) et un fondement épistémologique puisqu’il inaugure la bipartition du sujet et de l’objet qui est à la base de toute l’entreprise moderne de connaissance. Sa formule la plus célèbre est le fameux cogito ergo sum, je pense donc je suis.

Lire aussi...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)

De Friedrich Hayek aux cryptomonnaies : faut-il interdire le bitcoin ?

État & transition

De Friedrich Hayek aux cryptomonnaies : faut-il interdire le bitcoin ?

« Hausse spectaculaire », « bulle spéculative », « crack dramatique » : depuis quelques années c’est au rythme des fluctuations extrêmes du cours du bitcoin que le grand public a progressivement appris l’existence des cryptomonnaies. Les citoyens, les institutions financières et les Etats sont décontenancés face à l’irruption de ces cryptoactifs fondés sur des technologies cryptographique – la blockchain. Quel projet servent ces cryptomonnaies, quelle est leur genèse ? Et surtout, comment les appréhender politiquement alors qu’elles prétendent concurrencer la souveraineté monétaire des Etats ?
1. DE HAYEK À NAKAMOTO : HISTOIRE D’UNE IDÉE, LA DÉNATIONALISATION DE LA MONNAIE
1947, début de la guerre froide. Le rideau de fer est tombé sur le vieux continent en ruines, les États-Unis sont la seule démocratie qui tienne bien debout face au spectre du Stalinisme dont les agents et relais d’opinion menacent la stabilité d’une Europe plus fragile que jamais. Des intellectuels, économistes pour la plupart – mais pas uniquement puisqu’on retrouve également l’épistémologue Karl Popper – se réunissent alors en Suisse pour défendre un tout autre projet de société, fondé sur une vision économiciste et libérale des relations humaines : la société du Mont-Pèlerin est alors née ! Cousine lointaine du colloque Walter-Lippmann de 1938, parfois considéré comme le point zéro du néolibéralisme, la société du Mont-Pèlerin est ce lieu singulier où se réunissent depuis près de 75 ans de nombreuses figures intellectuelles, dont deux particulièrement nous intéressent ici : Friedrich Hayek et Milton Friedmann. Le premier est le fondateur de ce que l’on nommera plus tard « l’école Autrichienne », le second de « l’école de Chicago ». Deux écoles économiques qui partagent, pour le dire à gros trait, une même finalité : l’avènement de la société ouverte(1), et un axiome commun : l’Etat est la principale menace pour la liberté des individus et la liberté des échanges, la seconde étant une condition nécessaire à l’avènement de la première. Soixante trois années plus tard, nous sommes en 2008, la crise immobilière des subprimes s’est muée en crise financière mondiale et une crise économique subséquente menace désormais la stabilité des États, confrontés à des difficultés pour refinancer leur dette publique. La défiance des citoyens à l’égard de l’industrie bancaire atteint son paroxysme et, par voie de conséquence, la confiance en l’Etat, jugé coupable d’avoir laissé faire des banquiers avides, se délite. Cette même année, un certain Satoshi Nakamoto publie le « livre blanc du bitcoin(2) » dans lequel il propose la mise en œuvre d’un protocole informatique permettant de garantir la sécurité de transactions en ligne entièrement désintermédiées. Le point fondamental est bien la notion de désintermédiation, puisque la garantie apportée par ce protocole permet de se passer de l’intervention d’un tiers de confiance qui valide d’ordinaire une transaction dont les caractéristiques principales sont : 1) de se faire dans une monnaie garantie par une banque centrale, 2) entre deux comptes sécurisés, identifiés et domiciliés par des institutions bancaires soumises à une réglementation stricte et contrôlée par un régulateur.
Comme Satoshi Nakamoto l’écrit dans sa conclusion « nous avons proposé un système de transactions électroniques se passant de confiance ».
Comme Satoshi Nakamoto l’écrit dans sa conclusion « nous avons proposé un système de transactions électroniques se passant de confiance ». Tout est là : la notion de confiance fait le lien entre la fondation de la société du Mont-Pèlerin en 1947 et la publication du « livre blanc du bitcoin » en 2008. Pourquoi donc ? Quels sont les liens entre néolibéralisme, confiance et cryptomonnaies ? Un peu d’histoire d’abord. En 1976, Friedrich Hayek publie un ouvrage passé relativement inaperçu à l’époque tant sa thèse paraît radicale – y compris aux yeux de certains économistes libéraux tel Milton Friedman – intitulé The Denationalization of money (Pour une vraie concurrence des monnaies, PUF, 2015). La thèse est sans équivoque : le monopole des États sur la production monétaire est source d’instabilité puisque la monnaie est utilisée à des fins politiques, forçant les banques centrales à procéder à des correctifs sans fins qui nuisent à l’équilibre du système monétaire (inflation) et par conséquent au bon fonctionnement du marché. Reprenant l’axiome fondamental des néolibéraux acceptant la naturalité du marché et l’importance de ne pas laisser la contingence politique perturber son bon fonctionnement, il défend un monde sans banque centrale où les monnaies seraient mises en circulation par des opérateurs privés, telles les banques. Pour la défense d’Hayek, le livre sort en 1976, alors que les économies occidentales sont touchées par une hyperinflation qu’elles ne parviennent pas à réguler suite à l’abandon progressif de la convertibilité en or du dollar sous Nixon entre 1971 et 1976(3). La suite de l’histoire donne d’ailleurs partiellement raison à Hayek, la mise en application des thèses monétaristes par Paul Volcker à la tête de la FED ayant permis de réguler l’inflation, au prix d’une généralisation des politiques monétaires restrictives. Nous entrons alors dans l’ère du fameux « consensus de Washington », véritable coup d’envoi de l’hégémonie néolibérale : la monnaie n’est désormais plus qu’une marchandise dont la production doit être contrôlée par des banquiers centraux indépendants, dont la fonction est d’assurer la stabilité du système financier en assurant la stabilité monétaire, c’est-à-dire en contrôlant l’inflation et donc l’émission de monnaie. Ce consensus de Washington va se fissurer et progressivement se briser à partir de la crise financière de 2008 qui révèle les insuffisances de la théorie monétariste tant pour prévenir la survenance de bulles spéculatives que pour relancer une économie mondiale exsangue. En réalité, la solution pour lutter contre l’hyperinflation proposée par Hayek est plus radicale encore que celle de Friedman et des monétaristes. Il s’éloigne de la théorie quantitative de la monnaie pour défendre sa privatisation pure et simple. D’après Hayek, l’action des banquiers centraux est encore de trop et il faudrait renoncer à l’idée même de monopole monétaire, c’est-à-dire d’une entité centrale seule autorisée à réguler la quantité émise de monnaie. Il démonte dans son ouvrage le supposé mythe de la souveraineté monétaire des États, arguant que celle-ci trouverait son origine dans l’entre-deux guerres et la vision keynésienne de l’économie prévalant à partir des années 1930. Il défend au contraire une concurrence entre monnaies privées afin de réguler l’inflation, considérant que l’alignement des intérêts des particuliers les conduirait à privilégier la stabilité monétaire sur le long terme. Appliquant des thèses bien connues sur les bénéfices collectifs de la libre-concurrence à la théorie monétaire, il propose une solution concurrente de celle des monétaristes pour lutter contre l’inflation. Pourquoi donc sa thèse est-elle restée lettre-morte depuis lors ? Pour une raison simple mais insoluble : sa théorie n’était pas en mesure de garantir le socle de confiance minimale des individus dans une ou plusieurs monnaies privées. Or, une fois abandonné l’étalon-or (ou tout autre étalon de valeur universellement admis) qu’est-ce qui confère à la monnaie sa valeur si ce n’est la confiance que lui accordent ceux qui l’utilisent ?
2. CRYPTOMONNAIES ET BLOCKCHAIN : LA TECHNIQUE POUR « FORCER » LA CONFIANCE
Dans un système de changes flottants, on pourrait arguer que la valeur d’une monnaie n’est rien d’autre que la mesure du degré de confiance d’une société. Degré de confiance, certes, mais confiance en qui ? C’est là tout le problème de la théorie d’Hayek : elle manque d’un point zéro, d’un deus ex machina qui permette de fonder la monnaie.
L’Etat est bien toujours le point zéro de la création monétaire parce que son immortalité théorique est à la source de la confiance qui règne entre les individus »
Or ce point zéro, ce big bang de la monnaie, est historiquement l’Etat. C’est lui qui, même lorsqu’il ne bat pas monnaie, garantit la valeur de la monnaie pour ceux qui l’utilisent. L’Etat est bien toujours le point zéro de la création monétaire parce que son immortalité théorique est à la source de la confiance qui règne entre les individus mortels d’une société qui ne l’est pas. Dit autrement, la confiance ne peut s’auto-instituer, s’auto-fonder au niveau d’une société par simple accord tacite entre chacun de ses membres. C’est ici la loi des grands nombres qui joue : on ne place sa confiance qu’en ceux que l’on connaît et on ne connait jamais qu’un nombre restreint de personnes. Or l’Etat est cette figure tutélaire que chacun connait et reconnait et en qui chacun place sa confiance – ou bien aliène sa souveraineté pour le dire dans des termes dramatiques. En retour l’Etat catalyse la confiance pour irriguer la société : c’est la fonction même et l’essence du droit auquel chacun accepte de se soumettre ou bien de transgresser à peine de sanctions. L’Etat est ainsi l’institution même de la confiance et cette caractéristique est bien à l’origine du monopole étatique sur la monnaie, qui chagrine tant notre ami Friedrich… Si l’on reprend maintenant notre rapide citation de Nakamoto en début d’article, on se souvient que celui-ci parle d’un mécanisme permettant de générer de la confiance sans l’intervention d’un tiers. Est-ce à dire qu’avec le bitcoin, Friedrich Hayek tiendrait sa revanche ? Peut-être bien… Depuis Aristote on reconnait d’ordinaire trois fonctions à la monnaie : 1) être une unité de mesure de la valeur (d’un bien, d’un service) ; 2) être un médium d’échange ; 3) être une réserve de valeur. En un sens, ces trois fonctions sont liées les unes aux autres : on ne peut échanger un bien dans une monnaie que si ce bien est lui-même évaluable dans la monnaie en question. Quant à la troisième fonction, elle dérive des deux premières. Or qu’est-ce que le Bitcoin ? Dans un rapport de 2012(4), la Banque centrale européenne s’intéresse pour la première fois au bitcoin et aux monnaies numériques. Pourtant, alors qu’il existe déjà un règlement européen sur les monnaies électroniques(5), le Bitcoin échappe à cette nomenclature, raison pour laquelle la BCE préfère l’appellation générique virtual currency schemes, ou schémas de monnaie virtuelle. La singularité de ces monnaies virtuelles, à l’image du bitcoin et des autres grandes cryptomonnaies (ethereum, cardano, tezos, litecoin, etc…), est d’être des monnaies pour lesquelles aucune autorité centrale ne valide les transactions. Elles résolvent ainsi une première difficulté technique qu’est la sécurisation des échanges en l’absence d’un tiers de confiance pour valider l’échange, c’est-à-dire en l’absence d’une institutions financière offrant des garanties légales fortes (réglementation spécifique, contrainte du régulateur, etc…).
Les cryptomonnaies promeuvent un modèle horizontal qui défie la loi des grands nombres, c’est-à-dire qui passe outre notre inclination naturelle à ne pas faire confiance à ceux que nous ne connaissons pas. »
Ce point peut paraître anecdotique mais nous allons y revenir car il est essentiel. Elles résolvent ensuite la difficulté essentielle que nous avons évoqué : l’absence d’un catalyseur de confiance exogène, l’Etat ou la banque centrale, qui institue la monnaie comme instrument de confiance. Les cryptomonnaies promeuvent un modèle horizontal qui défie la loi des grands nombres, c’est-à-dire qui passe outre notre inclination naturelle à ne pas faire confiance à ceux que nous ne connaissons pas. C’est bien le point essentiel : comment faire pour qu’une somme indéfinie d’individus inconnus les uns des autres se mettent d’accord pour reconnaître à un actif immatériel (un jeton virtuel) une valeur d’échange ? Comment s’assurer, à rebours, une fois la valeur de la cryptomonnaie fixée, qu’aucun trouble-fête ne tentera de subvertir la valeur de la monnaie virtuelle en rompant la confiance(6) ? C’est là que le processus de validation de la transaction devient essentiel : le mode de validation cryptographique, appelé proof of work(7) preuve de travail, permet d’assurer la sécurisation des blocks de pair à pair. Toute la révolution des cryptomonnaies réside dans l’apport des technologies blockchain qui permettent de sécuriser les transactions entre individus sans l’intervention d’une institution tierce(8). Ainsi la blockchain remplit-elle la première fonction de la monnaie : l’échange. Et comme chacune des trois fonctions de la monnaie est liée à l’autre, le bitcoin parvient à s’auto-instituer comme monnaie. Ce sont les garanties de sécurité offertes par le procédé technique permettant la transaction qui institue la confiance. L’aspect déroutant des cryptomonnaies réside dans le fait que le phénomène de création monétaire se produit à l’occasion de la transaction. C’est donc la faculté de réaliser des transactions qui fonde la valeur de la cryptomonnaie. On comprend donc aisément qu’il ne manquait à la théorie d’Hayek qu’une quarantaine d’années de progrès technique pour passer d’hypothèse fantaisiste à réalité (in)tangible. La technique permet donc de « forcer » la confiance en alignant les intérêts de l’ensemble des participants au processus de création monétaire, les fameux mineurs.
3. AUTORISER, INTERDIRE, ENCADRER ? L’ÉPINEUX SUJET DE LA RÉGULATION DES CRYPTOMONNAIES
Les contempteurs de ces monnaies donnent d’ordinaire les arguments suivants : 1) les cryptomonnaies sont des machines à spéculation ; 2) elles n’ont aucune valeur inhérente puisque leur valeur est exprimée en dollars, ce qui implique donc qu’elles soient convertibles, ce qui revient non seulement à adosser leur valeur à une monnaie émise par une banque centrale mais surtout les rend dépendantes du bon vouloir de ces mêmes banques centrales d’accepter leur convertibilité dans la monnaie nationale. Soit. Ces deux arguments sont tout à fait justes, et il faudrait encore ajouter que certaines cryptomonnaies servent de réserves de valeur pour trafiquants en tout genre du fait de l’anonymat garanti lors des transactions. Pourtant, s’arrêter à ces considérations, qui sont, disons-le encore, toutes justes, revient à passer à côté du point fondamental : les cryptomonnaies sont des formes chimiquement pures de libéralisme appliqué. Entendons-nous bien, que reproche-t-on d’ordinaire aux libéraux et plus spécifiquement aux néolibéraux ? Leur candeur, qui confine au cynisme, lorsqu’ils énoncent comme axiome initial que l’intérêt général est réductible à la somme des intérêts particuliers dans une société donnée. Posant ainsi arbitrairement la naturalité du marché, ils professent une vision théorique du réel dans laquelle tous les individus seraient, par principe, des égaux. Cette vision, ce sont les faits qui la contredisent puisque les acteurs privés agissent dans leur intérêt propre : les intérêts particuliers identiques finissent donc par se regrouper, deviennent des intérêts corporatistes et le marché se structure selon des rapports de force foncièrement inégaux : producteurs / consommateurs, employeurs / employés, grandes entreprises / petites entreprises. Entre acteurs économiques d’un même secteur, la concurrence est asymétrique : le plus gros l’emporte sur le plus petit car il accède plus aisément aux financements dont il a besoin, sa marge de négociation avec ses salariés est plus importante, son outil de production est plus performant tout comme sa capacité à financer son innovation. De même l’influence que leur confère leur poids économique permet aux plus grands acteurs d’orienter le processus d’élaboration normative et de fausser les règles du jeu à leur profit. C’est parce que le marché tend structurellement vers ce type de déséquilibres que la puissance publique intervient par le droit pour corriger les rapports de force, préserver les plus faibles, et ce afin de maintenir in fine la paix sociale. Il y a donc un décalage entre la théorie néolibérale de la naturalité du marché et la pratique du capitalisme qui tend en permanence à désaxer intérêts privés et intérêt général, ce qui justifie en retour que l’Etat joue un rôle économique et social fort, même dans un système de libre-marché.
C’est parce que le procédé technique permet de garantir à la fois la décentralisation de la création monétaire et la confiance entre les individus qu’il est possible de se passer d’un tiers de confiance dont le rôle pourrait être dévoyé. »
Mais qu’en est-il des cryptomonnaies qui visent justement à construire un système horizontal, parfaitement décentralisé, dans lequel ce sont les individus seuls, donc des intérêts privés étrangers les uns aux autres, qui pilotent de façon désintermédiée les transactions et la création monétaire ? En l’absence d’institutions privées telles que les banques et autres institutions du système financier, c’est le processus de validation des transactions qui assure l’alignement des intérêts de l’ensemble des acteurs participants à la création monétaire. C’est parce que le procédé technique permet de garantir à la fois la décentralisation de la création monétaire et la confiance entre les individus qu’il est possible de se passer d’un tiers de confiance dont le rôle pourrait être dévoyé. Est-ce à dire que ces monnaies virtuelles représentent une menace pour la souveraineté monétaire des États, tel qu’Hayek l’aurait appelé de ses vœux ? De prime abord la question semble rhétorique tant le monopole étatique sur la monnaie ne nous semble pas souffrir la moindre exception. Mais la question mérite d’être posée différemment : est-il possible de concevoir un système mixte dans lequel monnaies virtuelles et monnaies émises par des banques centrales coexisteraient ? Aujourd’hui lorsqu’un pays accepte qu’un consommateur règle un achat en bitcoin – à l’image du Salvador(9) qui a récemment adopté le bitcoin comme co-monnaie officielle – ce dernier ne fait qu’utiliser un substitut à sa monnaie nationale qui reste l’unité dans laquelle est exprimée la valeur du bien. De même la valeur d’une cryptomonnaie est exprimée le plus souvent en dollar, son existence même est donc suspendue à sa convertibilité en dollars et donc au bon vouloir de la FED. En revanche, les fluctuations du cours d’une cryptomonnaie – en dehors des évènements cataclysmiques tels qu’un krach boursier – sont essentiellement liées aux innovations technologiques apportées à celle-ci pour garantir sa performance et sa sécurité. Ce n’est d’ailleurs pas un hasard si la principale menace pesant aujourd’hui sur le développement de l’écosystème des cryptomonnaies réside dans l’incertitude quant à l’attitude future des régulateurs financiers et monétaires. Les récents coups de semonces de la Chine ont été à l’origine, plus encore que les déclarations fantasques d’Elon Musk, d’un crack « cryptomonétaire » au second trimestre 2021 qui a mis fin à plusieurs mois de spéculation haussière(10).
Entre le rêve d’Hayek de privatiser la monnaie et l’interdiction pure et simple des cryptomonnaies, il existe donc peut-être une voie possible de coexistence qui permette de préserver l’avenir d’une expérience monétaire inédite et prometteuse ainsi que le potentiel économique et technologique lié au développement des blockchains. »
Entre le rêve d’Hayek de privatiser la monnaie et l’interdiction pure et simple des cryptomonnaies, il existe donc peut-être une voie possible de coexistence qui permette de préserver l’avenir d’une expérience monétaire inédite et prometteuse ainsi que le potentiel économique et technologique lié au développement des blockchains. Pour l’heure, les États et les banquiers centraux – hormis la Chine qui mène une guerre aux cryptomonnaies au bénéfice de son propre projet de cryptomonnaie émise par sa banque centrale, le e-yuan(11) – se sont accordé pour laisser un tel écosystème se développer tout en définissant les concepts essentiels de cette technologie, posant ainsi les bases juridiques(12) d’une éventuelle régulation à venir. Reste à savoir si celle-ci servira, à terme, une fin préventive ou palliative. RÉFÉRENCES (1) Sur ce thème, voire les deux remarquables ouvrages de Karl Popper, La société ouverte et ses ennemis, dont le premier tome est une critique de l’idéalisme platonicien de La République et le second une critique de la dialectique à l’œuvre chez Hegel et Marx. (2) Livre blanc du bitcoin, traduit en Français. (3) En 1971, Nixon suspend la convertibilité du dollar en or alors que la monnaie américaine est attaquée sur les marchés. Cela lui permet de mettre fin à une situation intenable où les Etats-Unis ne disposent plus des réserves en or suffisantes pour garantir les dollars émis à la faveur de l’expansion économique Américaine et détenus notamment dans d’importantes quantités par des banques centrales étrangères (dont la France, la RFA, le Japon,…) qui pourraient exiger leur conversion en or. En 1973, le régime de change flottants, c’est-à-dire où la valeur de chaque monnaie fluctue librement par rapport aux autres monnaies – en réalité par rapport au dollar –, est adopté par la plupart des pays. En 1976, les accords de la Jamaïque mettent officiellement fin au rôle de l’or dans le système monétaire international. (4)Virtual currency schemes, octobre 2012, BCE (5) Directive 2009/110/CE concernant l’accès à l’activité des établissements de monnaie électronique et son exercice ainsi que la surveillance prudentielle de ces établissements. (6) Le problème de la double-dépense correspond, dans le monde numérique au problème du faux-monnayage. La double-dépense consiste à utiliser plusieurs fois la signature électronique d’un unique coin pour effectuer plusieurs transactions. Cette difficulté provient directement de l’absence d’une entité extérieure chargée de sécuriser la transaction et est renforcée par l’anonymat garanti lors d’une transaction en monnaie virtuelle, à l’inverse d’une transaction entre deux établissements bancaires assurant la domiciliation des comptes et donc l’identification de son porteur. (7) Le procédé de validation dit de proof of work est aujourd’hui sous le feu des critiques. Plus la chaine de blocks s’étend plus il est nécessaire de résoudre des énigmes cryptographiques de plus en plus longues et nécessitant de la puissance de calcul. Plus une blockchain se développe en utilisant ce mode de validation des blocks, plus son empreinte carbone est importante. Pour contrer ce fait, plusieurs cryptomonnaies utilisent une autre forme de validation dite de preuve d’enjeu, proof of stake, en plein développement aujourd’hui. (8) Voir à ce sujet le rapport de l’OPECST, remis le 20 juin 2018 sur les enjeux technologiques des blockchains (9) Le Salvador a adopté le 7 septembre dernier le bitcoin comme monnaie légale, provoquant une vague de protestations dans le pays et entrainant une chute de la valeur de la monnaie le jour de l’entré en vigueur de la mesure. (10) Le 18 mai, la Chine, par la voix de plusieurs institutions publiques, dont la fédération bancaire Chinoise, a intimé l’ordre aux institutions financières nationales de ne pas s’engager dans des opérations de financements en cryptomonnaies. A l’heure où ces lignes sont écrites, la Chine, par la voix de sa banque centrale, a purement et simplement déclaré illégale les transactions en cryptomonnaies – et donc les cryptomonnaies par extension – le 24 septembre dernier. (11) La guerre menée aux cryptomonnaies par Pékin vise avant tout à faire place nette pour sa propre cryptomonnaie émise par la banque centrale, le e-yuan, aujourd’hui en phase de test. (12) La loi PACTE définit, dans le code monétaire et financier, le statut de prestataire de « services sur actifs numériques » (PSAN) à l’article L54-10-2 et définit donc, par extension, les cryptomonnaies ainsi que tout autre actif stocké « sous la forme de clés cryptographiques privées ». Plus récemment, une ordonnance a été adoptée portant sur la lutte contre le blanchiment de capitaux et le financement du terrorisme applicable aux actifs numérique.

Lire aussi...

Les Thibault de Roger Martin du Gard, une photographie sociale de la Belle Epoque
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (2/2)
Décryptage : Connemara, le dernier roman de Nicolas Mathieu
Comment renouer le fil du récit contemporain ?
Entretien avec Johann Chapoutot (1/2)
Un tout petit effort pour avoir votre exemplaire …

précommandez notre revue