En France, les premiers services juridiques en ligne sont récents : ils ont été créés en 2014 par des startups dont le but est principalement d’apporter une réponse rapide et personnalisée à une question juridique. Depuis, ces services n’ont eu de cesse de se développer, au même rythme que celui des technologies et des algorithmes qui permettent désormais un traitement de masse et une exploitation fine des données juridiques. La justice prédictive, qui repose sur l’exploitation de données et de statistiques basées sur des décisions de justice, est en plein développement grâce à l’intelligence artificielle. Les avantages de cette nouvelle forme de justice sont nombreux. Elle apporte une aide précieuse et facilite le travail des juges, dans un contexte de raréfaction des moyens et d’engorgement des tribunaux. Elle permettrait aussi d’uniformiser le droit et donc de renforcer le principe d’égalité des citoyens devant le droit. Par contre, la justice prédictive n’encourage pas la prise en compte des situations particulières, ni l’émergence de jurisprudences qu’elle risque d’uniformiser. C’est ce que démontre une étude réalisée en 2016 par des chercheurs anglais et américains : « un juge humain prend en considération certains éléments que la machine ne traite pas, issus de son intuition et de sa propre sensibilité. » Pire, la justice prédictive est accusée de porter atteinte à certains droits fondamentaux, comme le droit au respect de la vie privée, la liberté d’expression, la protection des données, ou encore au principe de non-discrimination comme on le verra plus tard.
Cette prise en compte de l’innovation technologique au service des représentants de la loi, mais aussi des justiciables, c’est la promesse de la startup Doctrine, première plateforme d’information juridique dans l’hexagone. A l’origine de sa création en 2016, un simple constat : la difficulté, même pour les professionnels du droit d’accéder simplement aux sources du droit et en particulier à la jurisprudence. Avec le temps, la plateforme a mis en ligne des millions de décisions de justice, avant de créer un moteur de recherche puis d’autres produits permettant d’accéder facilement à l’ensemble des sources du droit. Malgré son développement rapide, son utilisation fait encore débat aujourd’hui parmi les avocats et les magistrats. Après des accusations de typosquatting en 2018, et la supposée utilisation d’adresses mails très ressemblantes à celles de professionnels ou de sociétés existantes pour récupérer des décisions de justice auprès des greffes de différentes juridictions, le Conseil national des barreaux et le Barreau de Paris ont déposé plainte en 2019 contre la startup. A l’origine de leur courroux : l’utilisation des données personnelles des avocats — manipulées à leur insu selon eux — et la constitution d’un fichier dans lequel il est possible de retrouver toutes les décisions de justice et le nom des clients, même ceux dont la procédure est toujours en cours.
Ce débat rejoint au fond celui sur la protection des données personnelles, dans un contexte de fort développement du capitalisme numérique. Jusqu’en 2018, leur utilisation reposait sur un consentement plus ou moins tacite entre l’utilisateur et l’entreprise qui souhaitait les utiliser. Mais les différents scandales associés à leur exploitation ont fait prendre conscience aux utilisateurs que leurs données personnelles font l’objet d’un commerce, très rentable pour certains. Devant la pression citoyenne, l’Union européenne (UE) a créé il y a cinq ans le Règlement général sur la protection des données, plus connu sous l’acronyme RGPD. Ce nouveau règlement s’inscrit dans la continuité de la loi française Informatique et Libertés datant de 1978 renforçant le contrôle par les citoyens de l’utilisation de leurs données. Son premier atout : il harmonise les règles en Europe en offrant un cadre juridique unique aux professionnels. De plus, il permet de développer leurs activités numériques au sein de l’UE en se fondant sur la confiance des utilisateurs. Enfin, en plus du « consentement explicite », les autorités de protection des données peuvent prononcer des sanctions à hauteur de 20 millions d’euros ou équivalentes à 4% du chiffre d’affaires mondial de la société visée et, pour les pousser à agir fermement, elles pourront être saisies par des plaintes collectives. Mais le RGPD, s’il cadre fortement l’utilisation de nos données personnelles, ne les interdit pas : il autorise toute entreprise à les collecter et les utiliser si elle y trouve un « intérêt légitime » (économique, structurel…) et que la poursuite de cet intérêt ne porte pas une « atteinte disproportionnée » aux intérêts des personnes concernées. Depuis la création du RGPD, 5 milliards d’euros d’amendes ont été prononcés par les différentes autorités européennes de protection des données. Très efficace pour inciter les petites entreprises à se mettre en conformité avec la loi, le règlement se révèle toutefois moins efficace concernant les géants de la Tech. En mai dernier, Méta, la maison mère de Facebook, Instagram et WhatsApp a été condamnée à une amende record de 1,2 milliard d’euros par le CNIL irlandais.
Depuis 2016, Ross travaille pour le cabinet d’avocats américain Baker & Hostetler. Il a plus de 900 collègues qui lui demandent de l’assister dans leur travail au quotidien. Surdoué — il est capable de traiter un milliard de documents par seconde — il est spécialisé dans l’étude des faillites d’entreprises. Ross n’est pas un employé comme les autres, c’est un “avocat robot” doté d’une intelligence artificielle développée par la société IBM, à partir de la célèbre technologie Watson. Son efficacité est telle qu’il vient concurrencer directement les jeunes avocats chargés jusqu’à présent d’assister leurs collègues et de rechercher les documents liés aux questions légales qui se posent. D’autres solutions encore plus efficaces que celles développées par IBM feront leur apparition dans les prochaines années, au fur et à mesure que la technologie se développera et que les algorithmes peaufineront leur apprentissage. D’ailleurs, le modèle GPT-4 développé par OpenAI a réussi au printemps dernier l’examen du barreau aux États-Unis, démontrant que l’IA peut aujourd’hui rivaliser avec les avocats humains. L’intelligence artificielle a réussi 76 % des questions à choix multiples, contre environ 50 % pour le modèle d’IA précédent, surpassant de plus de 7 % le résultat d’un candidat humain moyen.
Avec l’intelligence artificielle, des métiers disparaîtront, des nouveaux feront leur apparition, comme ceux récemment créés pour accompagner le développement de ces nouvelles plateformes : juristes codeurs, juristes data ou encore juristes privacy. Une nouvelle fois, c’est le principe de destruction créatrice si cher à Joseph Schumpeter, célèbre économiste américain du début du XXème siècle, qui fait la démonstration de sa pertinence. Selon lui, les cycles économiques et industriels s’expliquent par le progrès technique et les innovations qui en découlent. De nouveaux emplois viennent ainsi remplacer les anciens devenus obsolètes. C’est ce phénomène que l’on observe actuellement dans le secteur juridique avec l’intelligence artificielle. Un nouveau cycle économique restructurant se met en place et les bouleversements en cours, mais aussi ceux à venir, risquent de s’accélérer. Même si les conséquences de l’automatisation et de l’utilisation de l’intelligence artificielle sur l’emploi sont encore mal connues, quasiment tous les secteurs de l’économie devraient être bousculés par leur généralisation. Selon une étude réalisée par Citygroup réalisée sur la base des données de la Banque mondiale, 57% des emplois de l’OCDE sont menacés. Dans des pays comme l’Inde ou la Chine, ce sont respectivement 69% et 77% des emplois qui risquent d’être automatisés. Sur l’exemple du secteur juridique, d’autres connaissent déjà des changements notables, comme le secteur médical avec une mise en application de l’intelligence artificielle pour établir des diagnostics plus efficaces, ou encore le secteur bancaire et financier avec des algorithmes capables de gérer en masse des ordres d’achat et de vente d’actions de manière automatisée.
Si le secteur juridique doit être l’un des premiers touchés par les bouleversements liés à l’utilisation massive de l’intelligence artificielle, comment être certain que celle-ci se fera sans aggraver les inégalités et reproduire les discriminations déjà présentes dans nos sociétés et, par ricochet, dans les décisions de justice ?
La première à avoir alerté sur les dangers de la surexploitation des données pour nourrir les algorithmes est la mathématicienne Cathy O’Neil. Elle démontre dans son livre “Algorithmes, la bombe à retardement” comment ils exacerbent les inégalités dans notre société. En cause : les biais algorithmiques. Ces derniers apparaissent quand les données utilisées pour entraîner l’intelligence artificielle reflètent les valeurs implicites des humains qui les collectent, les sélectionnent et les utilisent. Autrement dit, les algorithmes ne nous libéreraient pas d’idéologies racistes ou homophobes, d’opinions nocives ou de préjugés sexistes… Au contraire, elles nous y enfermeraient ! Dans ce contexte, quelle valeur apportée à la justice prédictive qui utilise des algorithmes ? Surtout que des précédents existent déjà. En 2016, une enquête de l’ONG ProPublica a mis en évidence l’existence d’un biais raciste dans l’algorithme utilisé par la société Northpointe qui se base sur les réponses à 137 questions d’un prévenu pour évaluer son risque de récidive. Ses concepteurs affirmaient pourtant ne pas prendre directement en compte ce « critère ». Toujours selon l’ONG, le logiciel avait largement surévalué le risque de récidive des Afro-Américains, qui se sont vus attribuer un risque deux fois plus important que les Blancs. A l’origine de cette situation, un codage mathématique reposant sur une interprétation des données et des choix qui sont eux bien humains.
Alors, comment se prémunir de ces biais ? Quelle stratégie la legaltech peut-elle mettre en place pour rendre vraiment neutre la technologie ? Cathy O’Neil semble avoir trouvé la solution. Elle milite depuis longtemps pour la réalisation d’audits algorithmiques indépendants. Elle a même fondé son propre cabinet spécialisé dans ce domaine.
L’intelligence artificielle requiert une réglementation adaptée aux enjeux d’éthique liée à son utilisation. C’est dans ce cadre que la Commission européenne a proposé en 2021 le premier cadre réglementaire la concernant. Elle propose que des systèmes d’IA qui peuvent être utilisés dans différentes applications soient analysés et classés en fonction du risque qu’ils présentent pour les utilisateurs ; les différents niveaux de risque impliquant un degré différent de réglementation. Le 14 juin dernier, les députés européens ont adopté leur position de négociation sur la loi sur l’IA. Les négociations vont maintenant commencer avec les pays de l’Union au sein du Conseil sur la forme finale de la loi. Ce cadre réglementaire fait suite à la publication en 2018 d’une une charte éthique européenne sur l’utilisation de l’IA dans les systèmes juridiques. Celle-ci est composée de cinq principes fondamentaux : assurer une conception et une mise en œuvre des outils et des services d’intelligence artificielle qui soient compatibles avec les droits fondamentaux, prévenir spécifiquement la création ou le renforcement de discriminations entre individus ou groupes d’individus, utiliser des sources certifiées et des données intangibles, rendre accessibles et compréhensibles les méthodologies de traitement des données et, enfin, bannir une approche prescriptive et permettre à l’usager d’être un acteur éclairé et maître de ses choix. Aux USA, où les enjeux liés à l’intelligence artificielle font l’objet d’un intérêt croissant, deux projets de loi bipartisans distincts sur l’intelligence artificielle ont été présentés en juin dernier. Le premier a pour but d’obliger le gouvernement américain à faire preuve d’une transparence totale lorsqu’il utilise l’intelligence artificielle pour interagir avec les citoyens. Cette loi leur permettrait également de faire appel de toute décision prise par l’intelligence artificielle. Le second projet de loi vise quant à lui à créer un nouveau bureau chargé de veiller à ce que les USA restent compétitifs dans la course aux nouvelles technologies, notamment par rapport à la Chine, son grand rival dans ce domaine. D’autres solutions existent également pour lutter contre les biais algorithmiques : l’adoption de principes éthiques qui restent malgré tout difficilement codables ; l’invention d’un serment d’Hippocrate réservés aux datascientists qui prendrait la forme d’un code de conduite comprenant des principes moraux incontournables, etc.
Une fois débarrassés de leurs biais, les algorithmes pourraient-ils modifier la façon dont la justice est rendue dans nos démocraties ? Dans quel contexte sociétal s’inscrirait une utilisation massive de l’intelligence artificielle au service du droit ? Verrons-nous émerger des « juges-robots » pour rendre la justice ? Autant de questions qui posent avant tout celle de la puissance d’exécution et de traitement des ordinateurs actuels.
A moyen terme, pour nous aider, l’intelligence artificielle devra tout d’abord pouvoir traiter beaucoup de données en un temps record, bien plus rapidement qu’elle ne réussit à le faire actuellement, à l’image de notre cerveau, qui dispose d’une puissance de calcul de 1 zettaflop, ce qui lui permet de réaliser 1 000 milliards de milliards d’opérations par seconde ! Dans un ordinateur, le processeur est la pièce équivalente à notre cerveau. C’est lui qui effectue tous les calculs. Pour y arriver, il travaille sur les données stockées en mémoire, et tout ce que l’on voit à l’écran, sur le réseau ou sur le disque dur, constitue le résultat de ces travaux. Jusqu’à très récemment, les ordinateurs savaient traiter beaucoup de données mais pas suffisamment pour rivaliser avec notre cerveau. Pour obtenir une puissance de calcul inégalée, certains États comme la Chine ou des entreprises comme Google, Intel ou IBM se sont alors tournées vers les supercalculateurs comme Frontier, le plus puissant au monde, qui traite plus d’un milliard de milliards d’opérations par seconde. Mais pour beaucoup d’ingénieurs et d’informaticiens, l’avenir est désormais aux ordinateurs qui utilisent les propriétés quantiques de la matière pour repousser encore plus leurs capacités d’analyse et de traitement. L’informatique quantique repose notamment sur l’un des principes de la physique quantique appelé superposition. Selon cette mécanique, un objet peut avoir deux états en même temps. Ainsi, une pièce de monnaie peut être à la fois pile et face, alors que dans le monde « classique », elle ne peut être que l’un ou l’autre à la fois. Cet ordinateur quantique serait capable de réaliser des opérations sans équivalent et de faire plusieurs calculs à la fois, contrairement aux ordinateurs actuels qui doivent les réaliser les uns après les autres, aussi rapides soient-ils. Ces nouveaux ordinateurs pourraient bien révolutionner de nombreux secteurs industriels en permettant de passer d’une intelligence artificielle faible — celle que nous connaissons finalement actuellement — à une intelligence artificielle plus forte, capable de raisonner presque comme un humain. Les métiers d’avocats, de magistrats et de juges devraient alors disparaître, dépassés par les capacités d’exécution des algorithmes du futur. Il n’est donc pas impossible qu’à long terme des « avocats-robots » défendent leurs clients face à des « juges-robots » dans des tribunaux qui ont évolué vers un format digital. Dystopique ? Sans doute. C’est pourtant la voie empruntée par l’Estonie dont le gouvernement a développé une intelligence artificielle capable de rendre de façon autonome des jugements dans des délits mineurs, dont les dommages sont inférieurs à 7.000 euros. Comment ? Tout simplement grâce à une plateforme en ligne dédiée sur laquelle chaque partie renseigne les données nécessaires aux algorithmes du logiciel pour rendre leur verdict, comme les informations personnelles ou les preuves éventuelles.
En conclusion, l’essor de l’intelligence artificielle dans le secteur juridique est incontestable, apportant des avantages significatifs en termes d’efficacité et d’accessibilité à la justice. Cependant, les préoccupations concernant les biais algorithmiques et la protection des données personnelles exigent une réglementation rigoureuse et des audits indépendants pour garantir l’équité et la neutralité. À long terme, l’idée de « juges-robots » pourrait devenir une réalité, mais elle devra être abordée avec précaution pour préserver les valeurs essentielles de notre système judiciaire. En somme, l’avenir de la justice sera le fruit d’un équilibre entre la technologie et les principes éthiques.
Si vous aimez notre travail, c’est par ici !
C’est encore mieux version papier.