Les nouveaux oracles : comment les algorithmes prédisent le crime ?

L'État et les grandes transitions

Les nouveaux oracles : comment les algorithmes prédisent le crime ?

Entretien avec Vincent Berthet et Léo Amsellem
Comment établit-on des modèles prédictifs ? Comment les algorithmes sont-ils utilisés dans les domaines de la justice, de la police et du renseignement ? Quels sont les biais et les risques inhérents à une telle utilisation ? Enfin, quel impact les algorithmes prédictifs ont-ils sur notre système démocratique ? C’est à toutes ces questions que tente de répondre l’excellent ouvrage de Vincent Berthet et Léo Amsellem “Les nouveaux oracles, comment les algorithmes prédisent le crime ?”. Pour Le Temps des Ruptures, ils reviennent sur tous ces enjeux et tracent un nouveau compromis entre utilisation efficace et protection des libertés publiques.
LTR : A la lecture de votre ouvrage, la prégnance du champ lexical de la mythologie saute rapidement aux yeux. Vous parlez effectivement de nouveaux oracles, de différenciation entre mythe et réalité, de devins, etc… Considérez-vous que votre première tâche en tant que chercheurs et auteurs consistent à déconstruire le sensationnalisme qui peut entourer l’intelligence artificielle ?
L.Amsellem :

Absolument. On a joué autour de cet aspect littéraire. La volonté qui nous anime lors de l’écriture de cet ouvrage c’est de déconstruire l’ensemble des mythes qui existent autour des algorithmes. Il s’agissait de démystifier. C’est le rôle d’un chercheur, de celui qui veut s’inscrire dans un cadre de débat sérieux et sain. Et finalement on s’est rendu compte que les nouveaux oracles représentaient en réalité la crainte de ceux qui les rejettent de voir se former des “boules de cristal” prédictives. On a cherché à descendre d’un cran, à dégonfler cette bulle qui entoure l’IA pour regarder la réalité des systèmes qui y sont liés et leurs effets concrets.

LTR : L’axiome principal de la justice prédictive est de considérer que les comportements humains sont essentiellement prévisibles. N’y-a-t-il pas une forme de réductionnisme là-dedans ? Par ailleurs, cela s’oppose fondamentalement à l’idée démocratique selon laquelle les individus sont souverains et responsables de leurs actions.
V.Berthet :

Tout à fait. Les algorithmes prédictifs réveillent un vieux projet qui relève à la fois des sciences sociales et des sciences physiques qui est celui de la prédiction. Dans le livre nous parlons notamment de l’école de sociologie de Chicago et qui est l’exemple même de ce rêve. Leur approche des comportements humains passe par une quantification de ces derniers afin de mieux les prévoir. Les algorithmes prédictifs réactivent cette idée en exploitant la formidable opportunité que constitue le big data et la disponibilité des données massives. Or la question aujourd’hui est de savoir si le big data introduit un changement de degré ou un changement de rupture par rapport à ce projet de prédiction. A l’heure actuelle, étant donné les limites mentionnées plus haut, on peut dire qu’il y a uniquement un changement de degré dans le sens où les imperfections sont encore trop grandes pour parler de véritable rupture. On est très loin d’une prédiction parfaite et heureusement. Cela permet de préserver le libre arbitre du citoyen. Adolphe Quetelet au XIXe siècle avait déjà ce projet de quantifier les comportements humains.

LTR : Cette déconstruction du mythe vous la menez également sur le terrain de la critique technique. L’idée selon laquelle l’ère de l’IA et du big data se manifeste par la toute puissance des algorithmes en matière de prédiction vous semble fausse. Pouvez-vous revenir sur ce point ? Quelles sont les critiques régulièrement admises à ce sujet ?
V.Berthet :

Exactement. Aujourd’hui, on survend les capacités des algorithmes prédictifs. Les études publiées dans la revue Science notamment montrent qu’en réalité des modèles statistiques simples font aussi bien que les modèles prédictifs considérés comme complexes. L’exemple le plus patent de cela c’est une étude publiée en 2018 dans Science advances a décortiqué le fameux logiciel Compas utilisé dans de nombreuses juridictions américaines afin de prédire le risque de récidive de détenus et de non-comparution. En réalité, la société privée qui commercialise ce logiciel met en avant les capacités de ce dernier à analyser 137 facteurs. Mais dans les faits, l’étude de Science montre qu’un simple modèle d’analyse de 2 facteurs atteint le même niveau de précision que Compas. Ces algorithmes n’échappent donc pas à la règle de Pareto : l’essentiel de la performance prédictive relève en réalité de modèles statistiques très simples, notamment de régression, qui existaient bien avant l’avènement de l’IA. Voilà la première limite technique.

La deuxième limite est celle des potentiels biais qui peuvent affecter ces algorithmes. C’est en effet la base de données renseignée qui va alimenter les prédictions. C’est ce que résume la formule “Garbage in garbage out”. Aujourd’hui, quand ces logiciels sont vendus par des sociétés privées, rien ne garantit les conditions éthiques des bases de données qui sont exploitées.

LTR : C’est ce que vous dites également au sujet de Cambridge Analytica. Par ailleurs, aux Etats-Unis, la police utilisait l’IA (notamment le logiciel Predictive Police) afin de prévenir les crimes et délits. L’utilisation de ce logiciel a été interdite en raison des nombreux biais qu’il introduisait. Loin de prévenir les crimes et délits comme il était censé le faire, Predictive Police a participé à discriminer certains quartiers et certaines populations et à les prédisposer à commettre des délits et des crimes, permettant la réalisation d’une “prophétie autoréalisatrice”. Comment peut-on expliquer l’apparition de tels biais et comment les éviter ?
L.Amsellem :

Le logiciel dont il est question est celui qu’on appelle généralement PredPol. On ne peut pas dire que PredPol introduit des biais, en revanche il s’en nourrit à travers la base de données qui l’alimente. Ce qui signifie qu’à l’origine des données enregistrées il y a une action de police qui est biaisée ou bien une façon de récolter les statistiques de la délinquance qui l’est. En construisant un algorithme basé sur ces éléments de données on aboutit à une situation qui est discriminatoire. C’est une critique émise notamment par la chercheuse Cathy O’Neil dans son ouvrage Weapons of math destruction. Elle montre qu’avec la construction d’un algorithme sur des données biaisées, le risque n’est pas seulement de reproduire le biais mais bien de le répliquer à grande échelle. C’est ce qu’on constate aux Etats-Unis, notamment du fait de la ségrégation socio-spatiale qui existe dans ce pays.

PredPol n’a en revanche pas été interdit. Ce sont certaines villes qui ont décidé (notamment Los Angeles) de rompre leur contrat avec la société privée qui le commercialise. La question de savoir comment on évite l’apparition de tels biais est très compliquée. Cela nécessite de mettre en place un filet de sécurité tout au long du développement de l’algorithme : dès l’enregistrement des données. C’est ce que montre Aurélie Jean
(1)
, qui rappelle deux moyens de répondre à cette situation : toujours accompagner l’algorithme d’une expertise humaine (“human in the loop”), promue par Sara Hooker ; mettre en place un système d’autoévaluation tout au long de l’utilisation et du développement, voire dès le codage de l’algorithme, permettant d’identifier le plus tôt possible les biais.

LTR : Vous évoquez également dans votre ouvrage l’idée selon laquelle l’usage d’algorithmes prédictifs au sein de l’appareil judiciaire peut venir remettre en cause le principe d’individualisation de la peine. A l’inverse, il accentue la subsomption de cas particuliers sous une règle générale.
V.Berthet :

C’est effectivement une des questions de fond que pose l’utilisation de statistiques dans le cadre de la justice. Il y a un paradoxe : au début du XXe siècle, l’approche quantitative a été mise en oeuvre afin d’éclairer les décisions de justice et l’un des motifs donnés était justement de mieux connaître le criminel. Les statistiques pouvaient venir éclairer le cas individuel. D’ailleurs c’est ce que font les assurances dans la logique actuarielle. Paradoxalement, une fois qu’on utilise ces statistiques afin d’éclairer un cas d’espèce, on a l’impression que cette pratique contrevient au principe fondamental d’individualisation de la peine. Ce qui est vrai dans une certaine mesure. On a l’écueil possible de faire tomber chaque cas individuel dans la règle statistique. D’un autre côté, cette dernière peut éclairer des cas individuels.

Il y a néanmoins une limite de fond que présenteront toujours les outils statistiques : c’est ce qu’on appelle la critique de la jambe cassée. Dans les années 1960, un chercheur américain qui s’appelle Paul Meehl nous dit que si on utilise une règle mécanique (par exemple : tous les mardis tel individu se rend au cinéma), celle-ci peut se révéler vraie la plupart du temps ; mais si un jour l’individu en question se casse une jambe et ne peut pas aller au cinéma, la règle devient fausse. En d’autres termes, la règle statistique est statique, elle ne peut pas s’adapter au cas d’espèce. L’humain à l’inverse sera moins régulier que la règle statistique mais il peut s’adapter aux particularités lorsqu’elles se produisent. L’enjeu est donc de trouver le bon équilibre: avoir d’un côté la consistance de la règle statistique et de l’autre la capacité d’adaptation de l’être humain. Et donc dans le cas de la justice d’arriver à individualiser le cas que l’on traite.

LTR : Est-ce qu’il n’y a pas néanmoins une limite à la complémentarité entre algorithmes et raisonnements humains ? Les magistrats en France doivent remplir des tableaux statistiques, notamment le juge pénal, permettant d’évaluer leur activité. Quid d’une situation où des magistrats jugeraient dans un sens opposé à celui de l’algorithme et commettraient une erreur ?
V.Berthet :

Je cite cette collègue de droit privé à l’université de Lorraine qui nous dit “de la recommandation algorithmique à la justice algorithmique il n’y a qu’un pas qu’il est difficile de ne pas franchir dès lors que l’autorité de l’algorithme est difficilement contestable” (Florence G’Shell). La précision et la performance de ces algorithmes vont aller de manière croissante au cours de l’histoire et cela pose la question de la place de l’expertise humaine. Dans l’exemple que l’on prend il y a une complémentarité dans la mesure où l’algorithme est utilisé comme un outil d’aide à la décision. Mais la décision in fine est humaine. Si la plus value de l’appréciation humaine n’est plus significative cela veut dire qu’on se dirige vers une justice actuarielle. C’est-à-dire une justice dans laquelle, pour certains litiges, il n’y a plus d’intervention humaine. C’est l’ombre qui plane sur le futur de la justice.

LTR : Dans le cas de la justice civile ce n’est pas tant l’imperium du juge qui est remis en cause que la décision d’aller au contentieux. On voit les premières legaltechs, comme Case law analytics, qui fournissent au justiciable un service lui permettant de déterminer les chances qu’il a, en fonction des caractéristiques de son dossier, d’obtenir gain de cause devant le juge. Le risque est donc celui d’une déjudiciarisation. Cela entraîne également un recours accru à la médiation, or dans ce champ aussi des starts-up fournissent des solutions algorithmiques permettant de déterminer les chances qu’une médiation aboutisse. on met le doigt dans un engrenage dangereux pour l’accès a la justice.
V.Berthet :

Oui cela va dans le sens d’une déjudiciarisation. C’est précisément la consécration du principe “Minority Report”. C’est-à-dire le principe qui consiste à agir le plus en amont possible à partir d’une prédiction. Si je suis justiciable et que je veux intenter une action en justice, je sais, avec un intervalle de confiance précis, quelles sont mes chances d’échouer dans cette tentative. Je suis donc totalement désinciter à aller devant un tribunal.

Néanmoins on est encore au début de cette tendance. Les services proposés par les Legaltechs concernant la justice prédictive ont les mêmes défauts que ceux mentionnés plus haut pour les algorithmes. Ils sont aussi soumis à l’effet de Pareto.

LTR : Le salon Milipol s’est récemment tenu aux Etats-Unis. C’est un salon consacré aux innovations dans le domaine de l’intelligence artificielle. L’idée de ce salon est de pouvoir prévenir les délinquances du quotidien jusqu’aux attentats terroristes. Est-ce qu’il n’y pas finalement une course à l’IA autour du thème de la sécurité ?
L.Amsellem :

Le salon Milipol est un bon exemple de ce qui se fait en termes d’Intelligence Artificielle mais également de marketing autour de l’IA. Ce sont des entreprises privées qui présentent leurs solutions de la façon la plus avantageuse possible. Dans notre ouvrage, nous avons analysé système par système et logiciel par logiciel le niveau d’efficacité. Ce qu’on nous présente à Milipol doit encore faire l’objet de nombreux tests.

Il y a effectivement une demande de sécurité forte et un sentiment d’insécurité prégnant. On voit l’influence du continuum de sécurité : c’est-à-dire de l’imbrication entre les différentes mesures de prévention et de correction des délits et des crimes. Cela pose la question de la proportionnalité des outils que l’on doit utiliser en fonction du spectre où on se situe (petite délinquance ou attaque terroriste).

Il n’y a en revanche pas de toute puissance du renseignement technique dans la mesure où le renseignement humain continue d’être une source d’informations de grande qualité et qui présente une complémentarité. On observe une tendance à l’augmentation des budgets des agences de renseignement qui permet de ne pas démunir les services de leurs compétences traditionnelles.

LTR : Pouvez-vous revenir sur ce que vous appelez le compromis efficacité-liberté et la façon dont vous voulez en sortir ?
V.Berthet :

Le compromis efficacité-liberté c’est l’enjeu essentiel quand on essaye de mettre en perspective la question technologique dans le champ des libertés. Cet équilibre, c’est ce qu’on essaye d’expliquer dans le livre, il est difficile à trouver pour l’exécutif et le législateur, car ce n’est pas une question technique mais éminemment politique, un choix de société. L’épisode Covid a montré à quel point ces choix sont politiques : les pays du monde entier ont fait des choix différents, ceux de la France sont d’ailleurs révélateurs de son histoire. En matière de sécurité, il y a deux erreurs qu’on souhaite minimiser, que ce soit dans le cadre de la sécurité intérieure ou les attentats :

  • les faux positifs : quand on pense qu’une personne va commettre un acte criminel alors qu’elle ne l’aurait pas fait ;
  • les faux négatifs : une personne qui a priori ne passerait pas à l’acte mais qui le fait.

Ces deux erreurs ont des conséquences différentes. Des faux positifs, c’est un danger pour les libertés individuelles, les faux négatifs, c’est un danger pour la sécurité publique. La question c’est où on met le curseur, quelles erreurs on souhaite minimiser. Voltaire disait “mieux vaut se hasarder à libérer un coupable que condamner un innocent”. La technologie peut potentiellement nous permettre d’échapper à ce compromis et à cette idée que si on améliore l’efficacité c’est au détriment des libertés. L’exemple qu’on donne, même si il n’est pas parfait, est celui de la 1ère version de stop covid (devenue tous anti-covid). Le projet était d’avoir ce système bluetooth permettant de détecter les chaînes de contamination pour enrayer la vague épidémique. Cet outil respectait les législations RGPD et il pouvait apporter toutes les garanties en termes de respect des données individuelles. L’efficacité de stop covid a été limitée par le faible nombre de Français qui l’ont téléchargé et mis en œuvre. Si les citoyens français avaient fortement utilisé cet outil, il n’aurait pas présenté de risques pour les libertés et aurait contribué à enrayer l’épidémie. C’est le message de Peter Thiel, bien que figure controversée aux Etats-Unis : il est possible de concilier avec la technologie respect des libertés et efficacité. Pour converger vers des solutions qui satisfont ces deux conditions il faut expérimenter.

L.Amsellem :

La distinction qu’il importe de mettre en œuvre c’est de considérer que ce ne sont ni les algorithmes ni les nouvelles technologies qui permettront de sortir du compromis de  l’efficacité, mais ce qu’Aurélie Jean appelle la “pratique algorithmique”. Il ne faut pas penser que la technologie va nous sauver, mais sélectionner les bons algorithmes, au service d’un objectif fixé de manière commune avec un accord politique fort, assorti de l’encadrement juridique nécessaire et des contrôles a posteriori nécessaires. D’où l’importance d’associer la population civile pour trouver cet équilibre : ce n’est pas un sujet de chercheurs ni de technocrates, cela ne se décide pas dans un cabinet ministériel, c’est un contrat social 2.0 pour atteindre les buts politiquement visés, pour le faire de la manière la plus sécurisée possible et limiter les risques.

LTR :
Au-delà du compromis liberté-sécurité, cela pose la question de notre capacité, en tant que Français et Européens, à développer des outils souverains. Nous sommes dans cette espèce de course qui a une tendance à s‘accélérer, deux blocs, avec d’un côté les Etats-Unis et la Chine qui connaissent des avancées technologiques gigantesques et de l’autre le continent européen qui a du mal à se faire entendre sur ces enjeux, tant sur l’arbitrage entre libertés et sécurité que sur les libertés publiques. Une IA souveraine est-elle encore possible ou doit-on la considérer comme chimérique ?
L.Amsellem :

Des blocs se constituent et effectivement l’Europe pèse peu géopolitiquement sur ces sujets. C’est un problème, qui fait qu’on ne protège pas nos libertés. On s’interdit l’utilisation de certaines technologies, ce qui mène à ne pas développer d’outils souverains et une fois que l’urgence apparaît on finit par utiliser les outils des autres, qui sont déjà efficaces. Comme lors des attentats de 2015 et l’utilisation de Palantir pour l’analyse des métadonnées du renseignement intérieur ; ce qui est regrettable quand on sait que cela a été financé par le fonds capital risque de la CIA. A noter que l’Union européenne ou la France d’ailleurs ont une capacité, on a un gigantesque marché, des capacités importantes en termes de formation et capital humain, il n’y a pas de raison pour lesquelles on échouerait pourvu qu’on s’y mette tôt et qu’on ne bride pas l’innovation. Alors comment faire ?

Il y a la question du financement. En France un fonds, Definvest, a été créé en 2017 réunissant la BPI et le Ministère des Armées, similaire à ce que font les Américains, pour investir très tôt dans les pépites de la tech, tout en étant conscient que cela serait plus efficace de le faire au niveau européen, mais quand c’est un sujet souverain, cela reste encore difficile de le traiter à cette échelle. La France pourra peut-être profiter de la présidence de l’Union européenne pour mettre ces sujets sur la table. L’UE doit assumer son ambition d’Europe puissance. Elle a aussi un avantage comparatif fort sur le soft power normatif, sur la régulation : c‘est ce qu’on a vu avec le RGPD. On pensait que cela allait contraindre les entreprises européennes, mais c’est faux. Cela a permis d’encadrer les données, les libertés des citoyens, cela n’a pas bridé l’innovation ni bloqué les entreprises européennes. Cela a même été répliqué en Californie avec le CCPA. Dans ce cadre-là, que peut faire l’Union Européenne pour réguler sans obérer l’innovation ? La Commission européenne a identifié les algorithmes présentant un risque inacceptable, comme l’utilisation de la reconnaissance faciale à des fins de notation sociale. Pour le reste des algorithmes dans le domaine de la sécurité elle estime qu’il existe un risque élevé, dont l’utilisation doit être soumise à des conditions restrictives, afin de trouver un équilibre, comme la présence de systèmes d’évaluation et d’atténuation des risques, la qualité des bases de données utilisées, la traçabilité des résultats, l’information des gens que cela vise, un contrôle humain approprié pour réduire les risques. La Commission souhaite encadrer, contrôler, réguler mais pas brider l’innovation.

Pour un compromis efficacité-liberté il faut connaître l’efficacité. Pour cela il faut expérimenter et encadrer en proportionnant cela aux fins poursuivies afin de ne pas nous trouver vassalisés par des puissances étrangères plus avancées.

LTR : Finalement, l’Artificial Intelligence Act du 21 avril 2021 proposé par la Commission, rejoint beaucoup de points évoqués dans le livre.
L.Amsellem :

Absolument, on trouve qu’il y a une continuité entre la position que l’on développe dans le livre qui appelle à une vision pragmatique sur ces sujets-là, rigoureuse pour autant et celle de la Commission. Cela rejoint aussi un rapport remis en septembre par le député Jean-Michel Mis qui présente aussi cette vision du compromis efficacité-liberté qui est pragmatique tout en sachant que lorsqu’on souhaite légaliser un système il faut toujours créer des contrôles nouveaux, plus sérieux, ambitieux. On retrouve un équilibre déjà ébauché par la loi antiterroriste du 24 juillet 2015 qui encadre les pratiques d’analyse des métadonnées par les services de renseignement. Le fait d’encadrer des pratiques déjà existantes, cela évite de laisser un vide juridique. On crée également un organe permettant de contrôler les techniques de renseignement, la CNCTR donc on arrive à préserver le secret défense, contrôler l’action des services de renseignement et les encadrer par le droit.

LTR : L’exemple de 2015, démontre la logique d’encadrement-régulation : on légalise une situation de fait et on met en place un organe de contrôle s’assurant que le bornage mis en œuvre est respecté. Lorsqu’on arrive dans cette situation, cela pose la question de l’impossibilité de revenir en arrière.
L. Amsellem :

Il est vrai qu’il existe des effets de cliquet, quand on les met en œuvre on a du mal à revenir dessus, quand on abandonne une liberté c’est rare de la retrouver, à quelques exceptions près qui sont celles des systèmes peu efficaces. Par exemple pour PredPol, ce logiciel, bien qu’il continue à être utilisé et rentable pour certaines villes américaines, a été tué par deux facteurs à Los Angeles. D’abord, le facteur des biais raciaux que la recherche a largement couvert et qui a subi une pression politique suffisante pour l’interdire. Le deuxième facteur est un audit de mars 2019 de l’inspecteur général du LAPD qui n’arrive pas à conclure à l’efficacité du logiciel. A partir de ce moment-là, le concept efficacité-liberté est compromis : c’est une décision pragmatique prise par la ville de Los Angeles d’arrêter d’utiliser ce logiciel. On a eu aussi ce retour en arrière dans l’Oise ou la police utilisait aussi PredPol qui a été remplacé par Paved un simple logiciel de gestion, de cartes de chaleur, de représentation du crime plutôt qu’un logiciel d’intelligence artificielle prédictive. Il y a donc eu quelques retours en arrière.

Pour le renseignement, les effets de cliquet sont toutefois encore importants, car il est difficile d’évaluer l’efficacité de ces systèmes. D’où l’utilité d’avoir des inspections qui sont très fortes, soit la CNCTR (Commission nationale de contrôle des techniques de renseignement) soit en France l’ISR (Inspection des services de renseignement) qui sert à cela également. Mais il n’y a pas suffisamment de contrôles parlementaires. Il existe la Délégation parlementaire au renseignement (DPR). Mais elle est limitée. Par rapport aux Etats-Unis, il y a certains pouvoirs qu’elle ne possède pas. Par exemple, elle n’a pas accès aux rapports des inspections. La DPR peut auditionner des responsables des services de renseignement mais uniquement des responsables. Mais entre ce que déclarent le directeur des services informatiques, le directeur d’une administration centrale, le directeur du renseignement, et ce que déclare l’agent dans la réalité de son quotidien il peut y avoir des différences. Le Senate Select Committee on Intelligence au Sénat américain possède ce pouvoir d’enquête et d’audition qui est total. C’est un contrôle parlementaire fort. En comparaison, la DPR demeure modeste. C’est aussi lié à sa naissance, elle a une dizaine d’années, aux Etats-Unis elle existe depuis le Watergate.

LTR : Cela pose la question du rapport entre technique et droit, dans quelle mesure le recours à des algorithmes dans des domaines régaliens est acceptable car ce sont des objets difficilement régulés par le droit. Quand il faut mettre le doigt dans le fonctionnement d’un algorithme, beaucoup de juristes en sont incapables car ce n’est pas leur domaine de spécialité. Comment réguler l’usage d’ un algorithme quand celui qui régule n’est pas celui qui produit ?
L.Amsellem :

On touche ici à l’essence même des algorithmes. Effectivement, le juriste n’a pas de prise sur le fonctionnement concret des algorithmes, ni sur leur évaluation. Il faut différencier techniquement les algorithmes explicites et implicites. Quand l’algorithme est explicite, il suffit de regarder l’arbre de décision, demander à l’ingénieur, c’est assez simple à réguler. Mais les algorithmes fonctionnent de plus en plus avec du deep learning ou du machine learning. C’est plus complexe car on ne sait pas quel raisonnement l’algorithme a utilisé, à partir de la base de données, pour arriver à une solution. Comment encadrer par le droit un raisonnement qui est une boîte noire ? Comment rectifier ce défaut essentiel des algorithmes ? Il existe des façons de le faire, imparfaites et encore à l’étude.

Une réponse est de respecter le principe de proportionnalité dans l’usage des algorithmes. A quelles fins on utilise un algorithme et jusqu’où on le raffine, on ajoute des données ? Ajouter des données rend l’algorithme moins lisible, c’est difficile de faire de la rétro-ingénierie, d’analyser quels ont pu être les raisonnements présidant à la décision. Google a montré lors d’une étude en 2016, qu’en doublant les données d’une base déjà importante, sur un algorithme fonctionnant correctement, cela n’améliore que de 3% l’efficacité. On ajoute donc une grande quantité de données, on complexifie l’algorithme, pour un gain d’efficacité marginal.

L’un des moyens à notre disposition pour encadrer l’algorithme est l’ »explainability by design”, qui revient à ne mettre en place des algorithmes que lorsque on a conçu des moyens de les évaluer pendant leur conception. En d’autres termes, l’algorithme fonctionne en suivant des raisonnements jusqu’à atteindre un point nodal où il doit envoyer un rapport sur la manière dont il est arrivé à une décision intermédiaire. La Commission européenne, par exemple, y est très attentive. Par ailleurs, nous encourageons le dialogue entre les juristes, les décideurs publics, et les scientifiques qui effectuent des recherches en IA ou conçoivent les algorithmes.

nos autres entretiens...

La victoire électorale du Rassemblement national et après ?
La leçon de Jean Zay
« Le vieillissement est une réalité, qu’il faut regarder de face » – entretien avec Jérôme Guedj
Avec Léon Deffontaines, construire une toute autre Europe, Entretien avec Assan Lakehoul

L’éthique environnementale ou l’idée d’une valeur intrinsèque de la nature

Le Retour de la question stratégique

L’éthique environnementale ou l’idée d’une valeur intrinsèque de la nature

Dans ce premier article de notre série consacrée aux sources de l’écologie politique, nous étudions l’environnement dans une perspective éthique. Il s’agit là d’un courant mal connu en France – et pour cause ses principaux auteurs sont de filiation anglo-saxonne – pourtant riche de toute une tradition qui infuse dans le débat public. Le projet de l’éthique environnementale consiste à identifier dans l’éthique dominante un anthropocentrisme latent qui explique pourquoi la préservation de l’environnement n’est jamais un objectif en soi. Mais qu’est-ce au juste que l’éthique environnementale ?
Vers Un grand récit écologiste

Qu’est-ce qu’un grand récit ? Un discours, un vocabulaire, une stratégie, une philosophie politique, une vision historique ? Sûrement un peu de tous ces éléments à la fois. La force d’un grand récit est d’abord et avant tout sa capacité d’entrainement par la production de sens. Ce ne peut pas être un discours prêt-à-penser, au contraire un grand récit doit permettre une certaine souplesse intellectuelle pour que des courants, des tendances se dessinent et se développent. C’est enfin une capacité à replacer l’action politique le long d’un arc temporel qui s’étend d’un passé plus ou moins lointain marqué par des évènements fondateurs jusqu’à un avenir esquissé à la manière d’un horizon. La révolution de 1789 a été à ce titre le mythe fondateur d’un grand récit républicain en France, tout comme le marxisme a été le creuset d’un grand récit populaire.

Pour bien des raisons que nous n’analyserons pas ici, l’époque contemporaine – à gros traits la postmodernité – se caractérise notamment par la désuétude de ces grands récits. Or un champ politique sans récits antagonistes pour le structurer est comme un spectacle sans histoire, une scène sur laquelle des acteurs errent sans but pour distraire des spectateurs amorphes. Les visions étriquées et démagogues ou bien la tactique électorale à la petite semaine masquent mal une incapacité à produire du sens par l’action politique, réduisant les élus au rôle de simples gestionnaires d’un Léviathan administratif en pilotage automatique.

La série d’articles que nous inaugurons ici a pour projet d’explorer les grands courants qui structurent ce qui pourrait justement être l’un des grands récits de notre siècle : l’écologie politique. »

Pourtant, ce constat ne saurait occulter l’affirmation , ces dernières années, d’un discours qui convainc de plus en plus de citoyens et d’électeurs : l’écologie politique. Mais qu’est-ce que l’écologie politique ? Son inconsistance lui assure aujourd’hui une certaine prospérité. Derrière ce signifiant (un peu) vide se cachent pourtant des dizaines d’auteurs, de pensées différentes et bien souvent divergentes mais qui ont en commun une qualité essentielle de tous les grands récits : elles proposent une vision du monde totalisante. L’écologie politique désigne en premier lieu un ensemble de thèses et de doctrines hétérogènes qui pointent toutes vers une même finalité : faire de la préservation de notre environnement l’enjeu politique fondamental. La série d’articles que nous inaugurons ici a pour projet d’explorer les grands courants qui structurent ce qui pourrait justement être l’un des grands récits de notre siècle : l’écologie politique.

1. Le champ éthique, l’environnement et la notion de valeur

L’éthique comme champ philosophique correspond à la « science des mœurs ». Le terme est un emprunt au latin ethica, lui-même repris du grec ethikon, « relatif aux mœurs et à la morale ». L’éthique se caractérise par sa dimension pratique, c’est-à-dire qu’elle se propose de servir de guide, de boussole pour l’action. Deux grandes écoles éthiques ont émergé à la faveur de la modernité philosophique. La première est le conséquentialisme qui évalue la moralité d’une action en fonction des conséquences qu’elle aura. Sa plus célèbre version est l’utilitarisme – transposition à l’éthique des grands principes libéraux – qui transforme la philosophie pratique en une succession de calculs d’utilité, chaque individu faisant ainsi des choix guidés par son intérêt propre. L’école déontologique constitue la seconde grande école éthique, qui évalue non pas les conséquences des actes de l’individu mais prioritairement la visée poursuivie par celui-ci, c’est-à-dire son intention initiale.

Sans entrer dans le détail des développements et des limites d’une opposition statique entre écoles – la première représentée classiquement par Bentham et Mill, la seconde par Kant – remarquons que ces deux approches supposent que l’on place au fondement de l’évaluation – soit de la visée, soit des conséquences – une valeur cardinale à l’aune de laquelle l’action recevra sa qualification éthique, bonne ou mauvaise : le plus souvent le bien-être ou le bonheur de l’individu, tant que cela ne nuit pas à la communauté. L’éthique est toujours une tentative rationnelle de réconciliation entre les désirs individuels et l’intérêt collectif par la prescription de règles de conduite qui sont autant de limites à l’action individuelle. C’est pour cela notamment que la constitution de la communauté éthique est suspendue à la reconnaissance préalable entre semblables, entre égaux, c’est-à-dire entre personnes qui se reconnaissent mutuellement comme agents éthiques et acceptent de limiter leur puissance d’agir tant que les autres membres de la communauté en font autant.

quelle valeur éthique accorder à l’environnement dans une perspective éthique traditionnelle ? Pour le dire autrement, peut-on faire de la préservation de l’environnement une fin en soi ? »

Après ce bref rappel, posons-nous donc la question centrale : quelle valeur éthique accorder à l’environnement dans une perspective éthique traditionnelle ? Pour le dire autrement, peut-on faire de la préservation de l’environnement une fin en soi ?

L’homme du XXIe siècle qui comprend les enjeux du réchauffement climatique et la menace qui pèse sur la biodiversité voudra répondre « oui » sans hésiter. Mais est-ce que derrière la pseudo-évidence ne se cacherait pas une difficulté ? En effet, l’utilitariste comme le déontologue de bonne foi peuvent tout à fait reconnaître que la défense de l’environnement constitue une fin, certes, mais celle-ci n’est pas une fin en soi. Elle est une fin pour l’être humain, ou pour la communauté humaine, car celle-ci a besoin de préserver son environnement pour assurer sa propre survie. La valeur que nous reconnaissons à l’environnement dans cette perspective est instrumentale et non intrinsèque. Le fondement profondément humaniste de l’éthique condamne cette dernière à ne reconnaître de valeur intrinsèque qu’à l’homme qui peut seul être considéré comme fin en soi. On retrouve ici l’impératif pratique kantien énoncé dans la Critique de la raison pratique : « agis de telle sorte que tu traites l’humanité, aussi bien dans ta personne que dans la personne de tout autre, toujours en même temps comme une fin, et jamais simplement comme un moyen. » L’octroi d’une valeur intrinsèque à un être autre que l’homme est une quasi-impossibilité logique pour les éthiques modernes qui se prescrivent des limites strictes dès lors qu’elles font de la reconnaissance entre égaux le préalable à la constitution de la communauté morale. L’éthique moderne nous « condamne » donc en un sens à l’anthropocentrisme.

On comprend bien mieux ainsi la dimension novatrice, pour ne pas dire subversive, d’un projet éthique rationnel visant à reconnaître à la nature une valeur intrinsèque, une valeur telle que sa préservation puisse être une fin en soi. Et à regarder de plus près les différentes tendances issues de ce que l’on appelle l’écologie profonde il n’est pas rare que, faute de trouver un soubassement rationnel à la valeur intrinsèque de la nature, on lui substitue une valeur spirituelle. La sacralisation, voire la divinisation de la nature tient ainsi lieu de fondement à une éthique environnementale. On retrouve d’ailleurs dans ces pensées une certaine inclination à l’immanentisme, d’inspiration Spinoziste – caractérisée par la célèbre formule « deus sive natura », c’est-à-dire que Dieu est identifié à la nature – qui contraste avec la philosophie d’un Descartes que l’on classe d’ordinaire volontiers parmi les héritiers des pensées de la transcendance.

2. L’éthique ratiocentriste, la nature et la valeur intrinsèque

Plusieurs philosophes, spécialistes d’éthique de l’environnement, ont tenté de frayer une voie pour sortir des apories de l’anthropocentrisme et inaugurer une éthique authentiquement biocentrique. C’est par exemple le cas de Baird Callicott, de Holston Rolmes ou encore de Paul Taylor(1) qui sont au cœur de notre étude.

En premier lieu, notons que chacun de ces auteurs assume un parti-pris théorique qui consiste à ne pas sortir du cadre de la philosophie moderne que l’on pourrait qualifier de philosophie du sujet et définie, à très (trop) gros traits par la bipartition cartésienne du sujet et de l’objet et fondée sur l’évidence du cogito(2), bien que Callicott soit celui qui tente le plus de s’en éloigner.

Pourquoi cela est-il important ? Parce qu’une telle bipartition suppose que le monde soit conçu comme un réseau infini de relations entre des sujets, seuls à même de porter des jugements, notamment des jugements de valeurs, et des objets qui sont de simples choses.

Mais si le monde n’est qu’un tissu de relations, se pose dès-lors la question de la possibilité même qu’existe quelque chose comme une valeur intrinsèque. Si le monde n’existe que pour des sujets, alors la valeur ne naît qu’à l’occasion des jugements portés par ces mêmes sujets sur leur monde alentour. Dit autrement et pour reprendre une formule célèbre de Jean Wahl « y aurait-il encore des étoiles dans le ciel sans personne pour les regarder ? » Or si l’on parle de valeur intrinsèque, celle-ci ne doit pas dépendre du jugement d’un sujet valorisant mais doit être absolue et exister même en l’absence de sujet formulant des jugements.

C’est dans ce cadre très contraint que l’éthique kantienne trouve sa place en détournant le problème. La reconnaissance des égaux se fait sur le fondement d’une reconnaissance mutuelle entre sujets : chaque sujet se représente son existence, accorde à sa vie une valeur propre, irréductible. Et c’est parce que j’identifie dans autrui un autre soi-même, un autre être rationnel, un autre ego cogito, que je peux inférer que, tout comme moi, lui aussi accorde à sa vie une valeur également irréductible. C’est donc la possession de la raison qui, ultimement, fonde la communauté morale. C’est une éthique non seulement anthropocentrique mais que l’on pourrait même qualifier de ratiocentrique ou logocentrique.

Quittons le terrain âpre des philosophies du sujet pour revenir à la valeur intrinsèque de la nature. Le principal obstacle à l’élargissement de la communauté éthique à la nature en général est la réciprocité qu’impose une éthique fondée sur la raison, c’est à dire une éthique ratiocentriste .

Mais pour Callicott, il existe au moins deux preuves de l’existence de la valeur intrinsèque et celles-ci n’ont rien à voir avec la raison. La première est la preuve téléologique, reprise d’Aristote, qui peut se résumer ainsi : si nous n’accordons qu’une valeur instrumentale aux choses, si nos actes ne visent jamais des fins en soi mais toujours des moyens en vue de, cette chaîne doit nécessairement s’arrêter à une fin dernière, qui ne peut être qu’une fin en soi. Pour le dire autrement : l’existence de valeurs instrumentales implique nécessairement l’existence d’une valeur intrinsèque qui est fin dernière, tout comme, lorsque nous remontons une chaîne de causes, nous devons nécessairement aboutir à identifier une cause première.

La seconde preuve, qui nous intéresse davantage, est la preuve phénoménologique, qui reprend l’assertion de Kant sur la valeur que nous accordons à notre vie propre. Pour Callicott, nous accordons, chacun d’entre nous, une valeur effective à notre existence, qui dépasse la valeur que nous sommes enclins à nous accorder en vertu de notre position sociale ou familiale. L’homme isolé, reclus aux marges de la société, continue de considérer que son existence a une valeur irréductible, une valeur existentielle.

Pour Holmes Rolston, l’évolution même, par les différentes stratégies que déploie le vivant pour survivre, est la manifestation d’une volonté de vivre si puissamment ancrée et inhérente qu’elle témoigne à elle-seule de la valeur intrinsèque que chaque être vivant accorde à son existence propre. »

Cette preuve phénoménologique se passe de démonstration car elle se donne, à l’instar du cogito cartésien, sur le mode d’une évidence apodictique, c’est-à-dire que cette assertion est nécessairement vraie mais ne peut être démontrée. Or selon nos deux auteurs, cette valorisation intrinsèque de l’existence n’est pas le fait des seuls êtres humains mais doit être étendue à l’ensemble du vivant. Pour Holmes Rolston, l’évolution même, par les différentes stratégies que déploie le vivant pour survivre, est la manifestation d’une volonté de vivre si puissamment ancrée et inhérente qu’elle témoigne à elle-seule de la valeur intrinsèque que chaque être vivant accorde à son existence propre.

En cela Rolston prend un chemin qui s’éloigne du ratiocentrisme puisqu’il n’est nul besoin d’adosser cette valeur à autre chose qu’elle-même, ni même que celle-ci soit formulée explicitement par des êtres doués de langage. Par ailleurs, si le seul fait de se valoriser existentiellement suffit à fonder la valeur intrinsèque et, par extension, à fonder la communauté morale, alors la condition de réciprocité tombe d’elle-même et la communauté s’élargit à l’ensemble du vivant.

D’aucun remarqueront que cette valeur intrinsèque, qui devient ici une véritable valeur existentielle, ressemble furieusement au vouloir-vivre de Schopenhauer, qui identifiait, derrière les apparences multiples et biaisées du monde, l’expression d’une force invisible mais réelle, vérité de l’existence et de l’être : le vouloir-vivre. On retrouve également une idée similaire dans la philosophie tardive de Nietzsche, via le concept de volonté de puissance telle qu’il le caractérise dans La Généalogie de la morale et plus encore dans Ainsi parlait Zarathoustra. On la retrouve enfin, sous d’autres traits, plus tôt dans notre histoire et à l’issue d’un cheminement philosophique bien différent, chez Spinoza qui parle du conatus, qui n’est autre que la persévérance dans l’être propre à toute chose qui existe et souhaite continuer à exister.

3. LIMITES PRATIQUES ET PERSPECTIVES JURIDIQUES

Mais que faire d’une telle éthique bio-centrée ? Est-elle effective ? Commençons par mesurer ce qu’elle impliquerait. Callicott montre bien qu’une telle éthique environnementale est difficile à manœuvrer, voire impotente et ce pour au moins deux raisons :

A) Elle met un terme à la distinction entre valeur instrumentale et valeur intrinsèque, ce qui pose d’innombrables problèmes philosophiques mais aussi très concret. En effet, dans une telle perspective, l’élevage d’animaux à quelque fin que ce soit (production de lait, de laine, de viande) devient rigoureusement impossible et l’exploitation des sols à des fins agricoles pourrait, un jour, poser problème. Tout être vivant, du grand mammifère à la plus petite plante doit désormais être considéré comme fin en soi. Une telle éthique dissout la communauté morale pour laisser place à la communauté du vivant.

B) Elle n’accorde aucune valeur intrinsèque aux milieux c’est-à-dire aux grands ensembles abiotiques que sont notamment les montagnes et glaciers, les océans ou l’atmosphère. Ces ensembles-là continuent, dans cette perspective, de n’être considérés qu’au seul prisme de leur valeur instrumentale pour la communauté du vivant, or c’est bien la saturation de ces puits de carbones qui est à l’origine du réchauffement atmosphérique et donc des dérèglements climatiques sans qu’aucune valeur intrinsèque ne leur soit reconnue.

En réalité l’éthique environnementale de Rolston souffre de n’être qu’une transposition au vivant tout entier d’une éthique individuelle qui a été conçue dans un esprit profondément humaniste. »

En réalité l’éthique environnementale de Rolston souffre de n’être qu’une transposition au vivant tout entier d’une éthique individuelle qui a été conçue dans un esprit profondément humaniste. Mais à ces deux critiques, ajoutons-en une troisième que Rolston et Callicott feignent de ne pas voir mais qui pose pourtant une difficulté majeure : l’absence de réciprocité. Nos deux auteurs balayent d’un revers de main cette objection, mais cela est-il possible sans modifier en profondeur le sens même de l’éthique ?

Illustrons par un exemple concret : un homme A se trouve face à un prédateur P qui s’apprête, non pas à l’attaquer lui – le cas serait trop aisé à résoudre – mais à attaquer une personne B, qui n’a témoigné aucune agressivité envers quelque animal que ce soit et qui est tout à fait inconnue de A. A peut, s’il le souhaite, empêcher le prédateur de s’attaquer à B mais il doit pour cela tuer P. Que doit-il faire ?

Le sens commun nous enjoint à considérer que A doit sauver B en tuant P. Mais si l’on adopte la perspective de Rolston, cela n’est plus tout à fait évident. En effet, toute vie doit être également valorisée et P a surement de très bonnes raisons d’attaquer B (comme se nourrir pour survivre ou nourrir ses petits). L’intervention de A en faveur de B témoignerait donc d’un parti-pris anthropocentrique évident. Pour s’en convaincre, remplaçons B par n’importe quel autre animal. Dans ce second cas, il est évident que H n’interviendra pas et laissera P dévorer B.

Nous sommes naturellement enclins à vouloir sauver nos semblables et opérons ainsi une forme de gradation dans la valeur que nous accordons aux êtres vivants en traçant une ligne de démarcation claire entre nos semblables et le reste du vivant, qui ressemble beaucoup à la ligne que nous traçons entre sujets et objets et qui n’est rien d’autre que la condition essentielle de la réciprocité. Nous n’acceptons dans la communauté morale que ceux dont nous savons qu’ils sont susceptibles de nous reconnaître comme fin en soi également, ce qui implique qu’ils soient des sujets au sens cartésien du terme.

On pourrait même dire que la réciprocité forme une condition qui, à certains égards, supplante la règle de la reconnaissance des égaux. Ce sont par exemple tous les cas où une relation homme-animal se noue (avec un chien, un cheval ou un singe) qui peut conduire la personne à reconnaître à l’animal en question une valeur supérieure à celle d’un de ses semblables. Mais la valeur est ici adossée à un affect et on s’éloigne alors d’une éthique objective.

Enfin, il y a bien ce que l’on pourrait qualifier de biais dans la manière dont Rolston et Callicott abordent le problème. Tous deux parlent d’une valeur intrinsèque de la nature mais leur méthode consiste à étirer à l’envie la notion cartésienne de sujet, et donc la dignité morale qui lui est associée. Or la nature dans sa totalité ne pouvant être considérée comme un seul sujet, leur stratégie consiste à étendre la notion de sujet au vivant, pris comme somme des organismes vivants. Ainsi ce n’est pas la nature qui est dotée d’une valeur intrinsèque mais le bios en général et de façon indiscriminée, ce qui pose la question de la limite : peut-on accorder la même valeur à un mammifère, un invertébré, un arbre, un champignon ou même une bactérie, un virus ? Faut-il que nous plongions dans les méandres de la classification des êtres vivants pour arriver à tracer une limite acceptable à cette nouvelle communauté morale ?

En revanche, l’extension de la notion de sujet présente un intérêt pratique évident car le dualisme cartésien et notamment la notion de sujet a notamment permis de forger la fiction juridique moderne de l’homme comme sujet de droit, c’est-à-dire comme entité physique à laquelle des droits inaliénables sont attachés et qui, en contrepartie, est présumé assumer l’entière responsabilité de ses actes – à la différence des animaux que la modernité juridique a exclu du champ des sujets de droits pour cette raison précise.

L’extension du concept de sujet de droit à la nature ou l’environnement est une stratégie politique et normative intéressante afin d’améliorer la protection juridique du vivant »

Or l’extension du concept de sujet de droit à la nature ou l’environnement est une stratégie politique et normative intéressante afin d’améliorer la protection juridique du vivant, mais ce concept, parce qu’il est fondé sur la notion même de sujet, implique la reconnaissance préalable d’une valeur intrinsèque. Si l’on y parvenait, cela permettrait par exemple de renverser la charge de la preuve en droit environnemental : plutôt que d’avoir à démontrer la nuisance particulière causée au milieu naturel par un acte d’exploitation pour l’interdire, il s’agirait de démontrer l’utilité d’un acte entrainant l’exploitation du milieu naturel pour l’autoriser.

Faute de pouvoir fixer une borne, une limite permettant de contenir la taille de la communauté morale, les promoteurs de la valeur intrinsèque de la nature échouent à fonder celle-ci rationnellement en butant sur le concept cartésien de sujet qu’ils ne parviennent ni à abandonner, ni à dépasser. De là à dire, au grand dam de nombreux penseurs de l’écologie – dont certains ont emboité le pas aux philosophes de la déconstruction du sujet de la seconde moitié du XXe siècle, de Foucault à Derrida – que Descartes est indépassable et les philosophies du sujet également, il n’y a qu’un pas.

Références

(1) Ces trois auteurs Américains, méconnus en France, ont publié essentiellement dans les années 1980 et 1990. Ils ont tous contribué à une revue célèbre outre-Atlantique dénommée Environmental ethics et fondée en 1979. Cette revue a constitué, pendant plusieurs décennies, un point de ralliement pour tous les philosophes désireux de participer au débat et à l’édification d’une éthique environnementale qui réponde, sur le plan de la théorie, aux enjeux intellectuels de l’écologie que ces précurseurs avaient identifié dès la fin des années 1970.

(2) Pour rappel le cogito cartésien est l’évidence qualifiée d’apodictique (c’est-à-dire qui est nécessairement vraie mais ne peut être démontrée) selon laquelle j’acquiers de façon préréflexive (c’est-à-dire avant toute réflexion, tout retour sur moi-même) la certitude de mon existence. Le cogito constitue non-seulement un fondement existentiel (il fonde la certitude de l’existence) et un fondement épistémologique puisqu’il inaugure la bipartition du sujet et de l’objet qui est à la base de toute l’entreprise moderne de connaissance. Sa formule la plus célèbre est le fameux cogito ergo sum, je pense donc je suis.

Lire aussi...

La victoire électorale du Rassemblement national et après ?
La leçon de Jean Zay
« Le vieillissement est une réalité, qu’il faut regarder de face » – entretien avec Jérôme Guedj
Avec Léon Deffontaines, construire une toute autre Europe, Entretien avec Assan Lakehoul

De Friedrich Hayek aux cryptomonnaies : faut-il interdire le bitcoin ?

L'État et les grandes transitions

De Friedrich Hayek aux cryptomonnaies : faut-il interdire le bitcoin ?

« Hausse spectaculaire », « bulle spéculative », « crack dramatique » : depuis quelques années c’est au rythme des fluctuations extrêmes du cours du bitcoin que le grand public a progressivement appris l’existence des cryptomonnaies. Les citoyens, les institutions financières et les Etats sont décontenancés face à l’irruption de ces cryptoactifs fondés sur des technologies cryptographique – la blockchain. Quel projet servent ces cryptomonnaies, quelle est leur genèse ? Et surtout, comment les appréhender politiquement alors qu’elles prétendent concurrencer la souveraineté monétaire des Etats ?
1. DE HAYEK À NAKAMOTO : HISTOIRE D’UNE IDÉE, LA DÉNATIONALISATION DE LA MONNAIE
1947, début de la guerre froide. Le rideau de fer est tombé sur le vieux continent en ruines, les États-Unis sont la seule démocratie qui tienne bien debout face au spectre du Stalinisme dont les agents et relais d’opinion menacent la stabilité d’une Europe plus fragile que jamais. Des intellectuels, économistes pour la plupart – mais pas uniquement puisqu’on retrouve également l’épistémologue Karl Popper – se réunissent alors en Suisse pour défendre un tout autre projet de société, fondé sur une vision économiciste et libérale des relations humaines : la société du Mont-Pèlerin est alors née ! Cousine lointaine du colloque Walter-Lippmann de 1938, parfois considéré comme le point zéro du néolibéralisme, la société du Mont-Pèlerin est ce lieu singulier où se réunissent depuis près de 75 ans de nombreuses figures intellectuelles, dont deux particulièrement nous intéressent ici : Friedrich Hayek et Milton Friedmann. Le premier est le fondateur de ce que l’on nommera plus tard « l’école Autrichienne », le second de « l’école de Chicago ». Deux écoles économiques qui partagent, pour le dire à gros trait, une même finalité : l’avènement de la société ouverte(1), et un axiome commun : l’Etat est la principale menace pour la liberté des individus et la liberté des échanges, la seconde étant une condition nécessaire à l’avènement de la première. Soixante trois années plus tard, nous sommes en 2008, la crise immobilière des subprimes s’est muée en crise financière mondiale et une crise économique subséquente menace désormais la stabilité des États, confrontés à des difficultés pour refinancer leur dette publique. La défiance des citoyens à l’égard de l’industrie bancaire atteint son paroxysme et, par voie de conséquence, la confiance en l’Etat, jugé coupable d’avoir laissé faire des banquiers avides, se délite. Cette même année, un certain Satoshi Nakamoto publie le « livre blanc du bitcoin(2) » dans lequel il propose la mise en œuvre d’un protocole informatique permettant de garantir la sécurité de transactions en ligne entièrement désintermédiées. Le point fondamental est bien la notion de désintermédiation, puisque la garantie apportée par ce protocole permet de se passer de l’intervention d’un tiers de confiance qui valide d’ordinaire une transaction dont les caractéristiques principales sont : 1) de se faire dans une monnaie garantie par une banque centrale, 2) entre deux comptes sécurisés, identifiés et domiciliés par des institutions bancaires soumises à une réglementation stricte et contrôlée par un régulateur.
Comme Satoshi Nakamoto l’écrit dans sa conclusion « nous avons proposé un système de transactions électroniques se passant de confiance ».
Comme Satoshi Nakamoto l’écrit dans sa conclusion « nous avons proposé un système de transactions électroniques se passant de confiance ». Tout est là : la notion de confiance fait le lien entre la fondation de la société du Mont-Pèlerin en 1947 et la publication du « livre blanc du bitcoin » en 2008. Pourquoi donc ? Quels sont les liens entre néolibéralisme, confiance et cryptomonnaies ? Un peu d’histoire d’abord. En 1976, Friedrich Hayek publie un ouvrage passé relativement inaperçu à l’époque tant sa thèse paraît radicale – y compris aux yeux de certains économistes libéraux tel Milton Friedman – intitulé The Denationalization of money (Pour une vraie concurrence des monnaies, PUF, 2015). La thèse est sans équivoque : le monopole des États sur la production monétaire est source d’instabilité puisque la monnaie est utilisée à des fins politiques, forçant les banques centrales à procéder à des correctifs sans fins qui nuisent à l’équilibre du système monétaire (inflation) et par conséquent au bon fonctionnement du marché. Reprenant l’axiome fondamental des néolibéraux acceptant la naturalité du marché et l’importance de ne pas laisser la contingence politique perturber son bon fonctionnement, il défend un monde sans banque centrale où les monnaies seraient mises en circulation par des opérateurs privés, telles les banques. Pour la défense d’Hayek, le livre sort en 1976, alors que les économies occidentales sont touchées par une hyperinflation qu’elles ne parviennent pas à réguler suite à l’abandon progressif de la convertibilité en or du dollar sous Nixon entre 1971 et 1976(3). La suite de l’histoire donne d’ailleurs partiellement raison à Hayek, la mise en application des thèses monétaristes par Paul Volcker à la tête de la FED ayant permis de réguler l’inflation, au prix d’une généralisation des politiques monétaires restrictives. Nous entrons alors dans l’ère du fameux « consensus de Washington », véritable coup d’envoi de l’hégémonie néolibérale : la monnaie n’est désormais plus qu’une marchandise dont la production doit être contrôlée par des banquiers centraux indépendants, dont la fonction est d’assurer la stabilité du système financier en assurant la stabilité monétaire, c’est-à-dire en contrôlant l’inflation et donc l’émission de monnaie. Ce consensus de Washington va se fissurer et progressivement se briser à partir de la crise financière de 2008 qui révèle les insuffisances de la théorie monétariste tant pour prévenir la survenance de bulles spéculatives que pour relancer une économie mondiale exsangue. En réalité, la solution pour lutter contre l’hyperinflation proposée par Hayek est plus radicale encore que celle de Friedman et des monétaristes. Il s’éloigne de la théorie quantitative de la monnaie pour défendre sa privatisation pure et simple. D’après Hayek, l’action des banquiers centraux est encore de trop et il faudrait renoncer à l’idée même de monopole monétaire, c’est-à-dire d’une entité centrale seule autorisée à réguler la quantité émise de monnaie. Il démonte dans son ouvrage le supposé mythe de la souveraineté monétaire des États, arguant que celle-ci trouverait son origine dans l’entre-deux guerres et la vision keynésienne de l’économie prévalant à partir des années 1930. Il défend au contraire une concurrence entre monnaies privées afin de réguler l’inflation, considérant que l’alignement des intérêts des particuliers les conduirait à privilégier la stabilité monétaire sur le long terme. Appliquant des thèses bien connues sur les bénéfices collectifs de la libre-concurrence à la théorie monétaire, il propose une solution concurrente de celle des monétaristes pour lutter contre l’inflation. Pourquoi donc sa thèse est-elle restée lettre-morte depuis lors ? Pour une raison simple mais insoluble : sa théorie n’était pas en mesure de garantir le socle de confiance minimale des individus dans une ou plusieurs monnaies privées. Or, une fois abandonné l’étalon-or (ou tout autre étalon de valeur universellement admis) qu’est-ce qui confère à la monnaie sa valeur si ce n’est la confiance que lui accordent ceux qui l’utilisent ?
2. CRYPTOMONNAIES ET BLOCKCHAIN : LA TECHNIQUE POUR « FORCER » LA CONFIANCE
Dans un système de changes flottants, on pourrait arguer que la valeur d’une monnaie n’est rien d’autre que la mesure du degré de confiance d’une société. Degré de confiance, certes, mais confiance en qui ? C’est là tout le problème de la théorie d’Hayek : elle manque d’un point zéro, d’un deus ex machina qui permette de fonder la monnaie.
L’Etat est bien toujours le point zéro de la création monétaire parce que son immortalité théorique est à la source de la confiance qui règne entre les individus »
Or ce point zéro, ce big bang de la monnaie, est historiquement l’Etat. C’est lui qui, même lorsqu’il ne bat pas monnaie, garantit la valeur de la monnaie pour ceux qui l’utilisent. L’Etat est bien toujours le point zéro de la création monétaire parce que son immortalité théorique est à la source de la confiance qui règne entre les individus mortels d’une société qui ne l’est pas. Dit autrement, la confiance ne peut s’auto-instituer, s’auto-fonder au niveau d’une société par simple accord tacite entre chacun de ses membres. C’est ici la loi des grands nombres qui joue : on ne place sa confiance qu’en ceux que l’on connaît et on ne connait jamais qu’un nombre restreint de personnes. Or l’Etat est cette figure tutélaire que chacun connait et reconnait et en qui chacun place sa confiance – ou bien aliène sa souveraineté pour le dire dans des termes dramatiques. En retour l’Etat catalyse la confiance pour irriguer la société : c’est la fonction même et l’essence du droit auquel chacun accepte de se soumettre ou bien de transgresser à peine de sanctions. L’Etat est ainsi l’institution même de la confiance et cette caractéristique est bien à l’origine du monopole étatique sur la monnaie, qui chagrine tant notre ami Friedrich… Si l’on reprend maintenant notre rapide citation de Nakamoto en début d’article, on se souvient que celui-ci parle d’un mécanisme permettant de générer de la confiance sans l’intervention d’un tiers. Est-ce à dire qu’avec le bitcoin, Friedrich Hayek tiendrait sa revanche ? Peut-être bien… Depuis Aristote on reconnait d’ordinaire trois fonctions à la monnaie : 1) être une unité de mesure de la valeur (d’un bien, d’un service) ; 2) être un médium d’échange ; 3) être une réserve de valeur. En un sens, ces trois fonctions sont liées les unes aux autres : on ne peut échanger un bien dans une monnaie que si ce bien est lui-même évaluable dans la monnaie en question. Quant à la troisième fonction, elle dérive des deux premières. Or qu’est-ce que le Bitcoin ? Dans un rapport de 2012(4), la Banque centrale européenne s’intéresse pour la première fois au bitcoin et aux monnaies numériques. Pourtant, alors qu’il existe déjà un règlement européen sur les monnaies électroniques(5), le Bitcoin échappe à cette nomenclature, raison pour laquelle la BCE préfère l’appellation générique virtual currency schemes, ou schémas de monnaie virtuelle. La singularité de ces monnaies virtuelles, à l’image du bitcoin et des autres grandes cryptomonnaies (ethereum, cardano, tezos, litecoin, etc…), est d’être des monnaies pour lesquelles aucune autorité centrale ne valide les transactions. Elles résolvent ainsi une première difficulté technique qu’est la sécurisation des échanges en l’absence d’un tiers de confiance pour valider l’échange, c’est-à-dire en l’absence d’une institutions financière offrant des garanties légales fortes (réglementation spécifique, contrainte du régulateur, etc…).
Les cryptomonnaies promeuvent un modèle horizontal qui défie la loi des grands nombres, c’est-à-dire qui passe outre notre inclination naturelle à ne pas faire confiance à ceux que nous ne connaissons pas. »
Ce point peut paraître anecdotique mais nous allons y revenir car il est essentiel. Elles résolvent ensuite la difficulté essentielle que nous avons évoqué : l’absence d’un catalyseur de confiance exogène, l’Etat ou la banque centrale, qui institue la monnaie comme instrument de confiance. Les cryptomonnaies promeuvent un modèle horizontal qui défie la loi des grands nombres, c’est-à-dire qui passe outre notre inclination naturelle à ne pas faire confiance à ceux que nous ne connaissons pas. C’est bien le point essentiel : comment faire pour qu’une somme indéfinie d’individus inconnus les uns des autres se mettent d’accord pour reconnaître à un actif immatériel (un jeton virtuel) une valeur d’échange ? Comment s’assurer, à rebours, une fois la valeur de la cryptomonnaie fixée, qu’aucun trouble-fête ne tentera de subvertir la valeur de la monnaie virtuelle en rompant la confiance(6) ? C’est là que le processus de validation de la transaction devient essentiel : le mode de validation cryptographique, appelé proof of work(7) preuve de travail, permet d’assurer la sécurisation des blocks de pair à pair. Toute la révolution des cryptomonnaies réside dans l’apport des technologies blockchain qui permettent de sécuriser les transactions entre individus sans l’intervention d’une institution tierce(8). Ainsi la blockchain remplit-elle la première fonction de la monnaie : l’échange. Et comme chacune des trois fonctions de la monnaie est liée à l’autre, le bitcoin parvient à s’auto-instituer comme monnaie. Ce sont les garanties de sécurité offertes par le procédé technique permettant la transaction qui institue la confiance. L’aspect déroutant des cryptomonnaies réside dans le fait que le phénomène de création monétaire se produit à l’occasion de la transaction. C’est donc la faculté de réaliser des transactions qui fonde la valeur de la cryptomonnaie. On comprend donc aisément qu’il ne manquait à la théorie d’Hayek qu’une quarantaine d’années de progrès technique pour passer d’hypothèse fantaisiste à réalité (in)tangible. La technique permet donc de « forcer » la confiance en alignant les intérêts de l’ensemble des participants au processus de création monétaire, les fameux mineurs.
3. AUTORISER, INTERDIRE, ENCADRER ? L’ÉPINEUX SUJET DE LA RÉGULATION DES CRYPTOMONNAIES
Les contempteurs de ces monnaies donnent d’ordinaire les arguments suivants : 1) les cryptomonnaies sont des machines à spéculation ; 2) elles n’ont aucune valeur inhérente puisque leur valeur est exprimée en dollars, ce qui implique donc qu’elles soient convertibles, ce qui revient non seulement à adosser leur valeur à une monnaie émise par une banque centrale mais surtout les rend dépendantes du bon vouloir de ces mêmes banques centrales d’accepter leur convertibilité dans la monnaie nationale. Soit. Ces deux arguments sont tout à fait justes, et il faudrait encore ajouter que certaines cryptomonnaies servent de réserves de valeur pour trafiquants en tout genre du fait de l’anonymat garanti lors des transactions. Pourtant, s’arrêter à ces considérations, qui sont, disons-le encore, toutes justes, revient à passer à côté du point fondamental : les cryptomonnaies sont des formes chimiquement pures de libéralisme appliqué. Entendons-nous bien, que reproche-t-on d’ordinaire aux libéraux et plus spécifiquement aux néolibéraux ? Leur candeur, qui confine au cynisme, lorsqu’ils énoncent comme axiome initial que l’intérêt général est réductible à la somme des intérêts particuliers dans une société donnée. Posant ainsi arbitrairement la naturalité du marché, ils professent une vision théorique du réel dans laquelle tous les individus seraient, par principe, des égaux. Cette vision, ce sont les faits qui la contredisent puisque les acteurs privés agissent dans leur intérêt propre : les intérêts particuliers identiques finissent donc par se regrouper, deviennent des intérêts corporatistes et le marché se structure selon des rapports de force foncièrement inégaux : producteurs / consommateurs, employeurs / employés, grandes entreprises / petites entreprises. Entre acteurs économiques d’un même secteur, la concurrence est asymétrique : le plus gros l’emporte sur le plus petit car il accède plus aisément aux financements dont il a besoin, sa marge de négociation avec ses salariés est plus importante, son outil de production est plus performant tout comme sa capacité à financer son innovation. De même l’influence que leur confère leur poids économique permet aux plus grands acteurs d’orienter le processus d’élaboration normative et de fausser les règles du jeu à leur profit. C’est parce que le marché tend structurellement vers ce type de déséquilibres que la puissance publique intervient par le droit pour corriger les rapports de force, préserver les plus faibles, et ce afin de maintenir in fine la paix sociale. Il y a donc un décalage entre la théorie néolibérale de la naturalité du marché et la pratique du capitalisme qui tend en permanence à désaxer intérêts privés et intérêt général, ce qui justifie en retour que l’Etat joue un rôle économique et social fort, même dans un système de libre-marché.
C’est parce que le procédé technique permet de garantir à la fois la décentralisation de la création monétaire et la confiance entre les individus qu’il est possible de se passer d’un tiers de confiance dont le rôle pourrait être dévoyé. »
Mais qu’en est-il des cryptomonnaies qui visent justement à construire un système horizontal, parfaitement décentralisé, dans lequel ce sont les individus seuls, donc des intérêts privés étrangers les uns aux autres, qui pilotent de façon désintermédiée les transactions et la création monétaire ? En l’absence d’institutions privées telles que les banques et autres institutions du système financier, c’est le processus de validation des transactions qui assure l’alignement des intérêts de l’ensemble des acteurs participants à la création monétaire. C’est parce que le procédé technique permet de garantir à la fois la décentralisation de la création monétaire et la confiance entre les individus qu’il est possible de se passer d’un tiers de confiance dont le rôle pourrait être dévoyé. Est-ce à dire que ces monnaies virtuelles représentent une menace pour la souveraineté monétaire des États, tel qu’Hayek l’aurait appelé de ses vœux ? De prime abord la question semble rhétorique tant le monopole étatique sur la monnaie ne nous semble pas souffrir la moindre exception. Mais la question mérite d’être posée différemment : est-il possible de concevoir un système mixte dans lequel monnaies virtuelles et monnaies émises par des banques centrales coexisteraient ? Aujourd’hui lorsqu’un pays accepte qu’un consommateur règle un achat en bitcoin – à l’image du Salvador(9) qui a récemment adopté le bitcoin comme co-monnaie officielle – ce dernier ne fait qu’utiliser un substitut à sa monnaie nationale qui reste l’unité dans laquelle est exprimée la valeur du bien. De même la valeur d’une cryptomonnaie est exprimée le plus souvent en dollar, son existence même est donc suspendue à sa convertibilité en dollars et donc au bon vouloir de la FED. En revanche, les fluctuations du cours d’une cryptomonnaie – en dehors des évènements cataclysmiques tels qu’un krach boursier – sont essentiellement liées aux innovations technologiques apportées à celle-ci pour garantir sa performance et sa sécurité. Ce n’est d’ailleurs pas un hasard si la principale menace pesant aujourd’hui sur le développement de l’écosystème des cryptomonnaies réside dans l’incertitude quant à l’attitude future des régulateurs financiers et monétaires. Les récents coups de semonces de la Chine ont été à l’origine, plus encore que les déclarations fantasques d’Elon Musk, d’un crack « cryptomonétaire » au second trimestre 2021 qui a mis fin à plusieurs mois de spéculation haussière(10).
Entre le rêve d’Hayek de privatiser la monnaie et l’interdiction pure et simple des cryptomonnaies, il existe donc peut-être une voie possible de coexistence qui permette de préserver l’avenir d’une expérience monétaire inédite et prometteuse ainsi que le potentiel économique et technologique lié au développement des blockchains. »
Entre le rêve d’Hayek de privatiser la monnaie et l’interdiction pure et simple des cryptomonnaies, il existe donc peut-être une voie possible de coexistence qui permette de préserver l’avenir d’une expérience monétaire inédite et prometteuse ainsi que le potentiel économique et technologique lié au développement des blockchains. Pour l’heure, les États et les banquiers centraux – hormis la Chine qui mène une guerre aux cryptomonnaies au bénéfice de son propre projet de cryptomonnaie émise par sa banque centrale, le e-yuan(11) – se sont accordé pour laisser un tel écosystème se développer tout en définissant les concepts essentiels de cette technologie, posant ainsi les bases juridiques(12) d’une éventuelle régulation à venir. Reste à savoir si celle-ci servira, à terme, une fin préventive ou palliative. RÉFÉRENCES (1) Sur ce thème, voire les deux remarquables ouvrages de Karl Popper, La société ouverte et ses ennemis, dont le premier tome est une critique de l’idéalisme platonicien de La République et le second une critique de la dialectique à l’œuvre chez Hegel et Marx. (2) Livre blanc du bitcoin, traduit en Français. (3) En 1971, Nixon suspend la convertibilité du dollar en or alors que la monnaie américaine est attaquée sur les marchés. Cela lui permet de mettre fin à une situation intenable où les Etats-Unis ne disposent plus des réserves en or suffisantes pour garantir les dollars émis à la faveur de l’expansion économique Américaine et détenus notamment dans d’importantes quantités par des banques centrales étrangères (dont la France, la RFA, le Japon,…) qui pourraient exiger leur conversion en or. En 1973, le régime de change flottants, c’est-à-dire où la valeur de chaque monnaie fluctue librement par rapport aux autres monnaies – en réalité par rapport au dollar –, est adopté par la plupart des pays. En 1976, les accords de la Jamaïque mettent officiellement fin au rôle de l’or dans le système monétaire international. (4)Virtual currency schemes, octobre 2012, BCE (5) Directive 2009/110/CE concernant l’accès à l’activité des établissements de monnaie électronique et son exercice ainsi que la surveillance prudentielle de ces établissements. (6) Le problème de la double-dépense correspond, dans le monde numérique au problème du faux-monnayage. La double-dépense consiste à utiliser plusieurs fois la signature électronique d’un unique coin pour effectuer plusieurs transactions. Cette difficulté provient directement de l’absence d’une entité extérieure chargée de sécuriser la transaction et est renforcée par l’anonymat garanti lors d’une transaction en monnaie virtuelle, à l’inverse d’une transaction entre deux établissements bancaires assurant la domiciliation des comptes et donc l’identification de son porteur. (7) Le procédé de validation dit de proof of work est aujourd’hui sous le feu des critiques. Plus la chaine de blocks s’étend plus il est nécessaire de résoudre des énigmes cryptographiques de plus en plus longues et nécessitant de la puissance de calcul. Plus une blockchain se développe en utilisant ce mode de validation des blocks, plus son empreinte carbone est importante. Pour contrer ce fait, plusieurs cryptomonnaies utilisent une autre forme de validation dite de preuve d’enjeu, proof of stake, en plein développement aujourd’hui. (8) Voir à ce sujet le rapport de l’OPECST, remis le 20 juin 2018 sur les enjeux technologiques des blockchains (9) Le Salvador a adopté le 7 septembre dernier le bitcoin comme monnaie légale, provoquant une vague de protestations dans le pays et entrainant une chute de la valeur de la monnaie le jour de l’entré en vigueur de la mesure. (10) Le 18 mai, la Chine, par la voix de plusieurs institutions publiques, dont la fédération bancaire Chinoise, a intimé l’ordre aux institutions financières nationales de ne pas s’engager dans des opérations de financements en cryptomonnaies. A l’heure où ces lignes sont écrites, la Chine, par la voix de sa banque centrale, a purement et simplement déclaré illégale les transactions en cryptomonnaies – et donc les cryptomonnaies par extension – le 24 septembre dernier. (11) La guerre menée aux cryptomonnaies par Pékin vise avant tout à faire place nette pour sa propre cryptomonnaie émise par la banque centrale, le e-yuan, aujourd’hui en phase de test. (12) La loi PACTE définit, dans le code monétaire et financier, le statut de prestataire de « services sur actifs numériques » (PSAN) à l’article L54-10-2 et définit donc, par extension, les cryptomonnaies ainsi que tout autre actif stocké « sous la forme de clés cryptographiques privées ». Plus récemment, une ordonnance a été adoptée portant sur la lutte contre le blanchiment de capitaux et le financement du terrorisme applicable aux actifs numérique.

Lire aussi...

La victoire électorale du Rassemblement national et après ?
La leçon de Jean Zay
« Le vieillissement est une réalité, qu’il faut regarder de face » – entretien avec Jérôme Guedj
Avec Léon Deffontaines, construire une toute autre Europe, Entretien avec Assan Lakehoul
Un tout petit effort pour ne rien rater …

Inscrivez-vous à notre newsletter