ChatGPT : le diable s’habille-t-il en data ?

L'État et les grandes transitions

ChatGPT : le diable s’habille-t-il en data ?

Depuis quelques semaines, le monde s’émerveille devant les capacités quasi-magiques de l’agent conversationnel ChatGPT. Très puissant, l’outil a été développé par la jeune société OpenAI créée entre autres par Elon Musk qui finira par prendre ses distances avec la startup, inquiet de voir l’intelligence artificielle devenir un « risque fondamental pour la civilisation humaine ». Si ChatGPT représente une nouvelle étape dans l’évolution et la démocratisation de l’intelligence artificielle, au point de concurrencer Google, les conséquences potentielles et avérées sur son utilisation interrogent dans la société jusqu’au législateur. Plus largement, faut-il encadrer les capacités exponentielles de l’intelligence artificielle ? Si oui, quels garde-fous mettre en place pour en limiter les conséquences ?
A l’origine était l’algorithme

Tout a été dit ou presque sur les capacités incroyables de ChatGPT. Mais pour bien les comprendre, il faut remonter à l’origine de l’intelligence artificielle et de la création des algorithmes. Selon Serge Abiteboul, chercheur et informaticien à l’Institut national de recherche en sciences et technologies du numérique (INRIA), « un algorithme est une séquence d’instructions utilisée pour résoudre un problème ». Sans forcément le savoir, nous en utilisons chaque jour quand nous cuisinons à l’aide d’une recette : nous respectons un ordre précis d’instructions pour créer un plat, c’est le principe même d’un algorithme. Si nous remontons le temps, les premiers algorithmes servaient à calculer l’impôt alors que, dans le champ mathématique, le premier remonte à -300 avant notre ère. Nous le devons à Euclide qui inventa l’algorithme qui calcule le plus grand commun diviseur de deux entiers. C’est Alan Turing, considéré comme le père fondateur de l’informatique, qui donna en 1936 le premier support formel aux notions d’algorithmiques avec sa célèbre machine considérée encore aujourd’hui comme un modèle abstrait de l’ordinateur moderne.

A partir du XXème siècle, la grande nouveauté dans l’exploitation des algorithmes a résidé dans l’utilisation d’ordinateurs aux capacités de calculs décuplées. Après les années 50, leur développement s’est accéléré grâce au machine learning ou apprentissage automatique. Cette technologie d’intelligence artificielle permet aux ordinateurs d’apprendre à générer des réponses et résultats sans avoir été programmés explicitement pour le faire. Autrement dit, le machine learning apprend aux ordinateurs à apprendre, à la différence d’une programmation informatique qui consiste à exécuter des règles prédéterminées à l’avance. Pour y arriver, les algorithmes d’intelligence artificielle doivent consommer des volumes considérables de données et utiliser des probabilités statistiques. Les plus célèbres d’entre eux, nous les utilisons tous les jours. Le premier est PageRank, l’algorithme de Google qui établit avec pertinence un classement des pages web quand nous effectuons une recherche sur son moteur. Les fils d’actualité de Facebook ou Twitter sont également de puissants algorithmes utilisés chaque jour par des centaines de millions d’utilisateurs. Les algorithmes sont devenus tellement efficaces qu’ils sont à l’origine d’un enrichissement des plateformes, sans commune mesure avec celui des entreprises d’autres secteurs. Ces plateformes, nous les connaissons bien. Elles nous accompagnent dans les actes de notre vie quotidienne : elles nous permettent de regarder une série ou un film, d’écouter de la musique, de faire nos courses, de voyager, de partir en vacances ou encore de trouver un logement ou l’amour. Grâce au perfectionnement de l’intelligence artificielle, les plateformes exploitent toujours plus de données, ce qui rend possible un meilleur apprentissage des algorithmes. Ce modèle économique basé sur la donnée leur permet de créer des nouveaux services qui recueillent encore plus de données et alimentent ainsi la croissance de leurs revenus. La capitalisation boursière des GAFAM n’a pas fini d’atteindre des sommets dans les années à venir. 

Aujourd’hui, c’est la technique du deep learning – apprentissage profond – sous-domaine du machine learning qui attire le plus l’attention après avoir été boudée pendant longtemps. Son retour en grâce, on le doit notamment à un Français, Yann Le Cun, actuellement chercheur en intelligence artificielle chez Facebook et lauréat du prix Turing en 2019. La technique du deep learning utilise des réseaux neuronaux artificiels, calqués sur ceux des humains, pour obtenir un résultat. Les champs d’applications sont nombreux (médecine, robotique, sécurité informatique, création de contenus…). Ils intéressent beaucoup les géants technologiques qui investissent massivement dans le développement de cette technique. ChatGPT interprète ainsi les données qui l’ont nourri – on parle quand même de plus de 500 milliards de textes et vidéos – en s’appuyant sur des algorithmes d’apprentissage automatique et de traitement du langage, mais aussi sur des techniques d’apprentissage profond. Les réseaux de neurones artificiels utilisés lui permettant ainsi de mieux comprendre les relations entre les mots dans une phrase et de les utiliser plus efficacement pour générer des phrases cohérentes et pertinentes. 

Un succès fulgurant et jamais vu par le passé

L’efficacité de ChatGPT est à l’origine de son succès auprès du grand public. Il n’aura fallu que cinq jours à l’outil développé par OpenAI lancé en novembre 2022 pour atteindre un million d’utilisateurs. Instagram aura mis un peu plus de deux mois pour atteindre ce résultat, Spotify cinq mois, Facebook dix mois et Netflix plus de trois ans. Un succès fulgurant qui a fait vaciller Google de son piédestal, pour le plus grand bonheur de Microsoft, propriétaire du moteur de recherche Bing, qui a investi un milliard de dollars dans ChatGPT. Aux USA, Google représente 88% du marché des moteurs de recherche contre 6,5% pour Bing. En France, Google représente même plus de 90% du marché. Très prochainement, Microsoft va lancer une version améliorée de Bing dopée à l’intelligence artificielle ChatGPT. En seulement 48 heures, plus d’un million d’internautes se sont déjà inscrits sur la liste d’attente pour l’essayer. Une occasion unique pour Microsoft, acteur mineur du marché des moteurs de recherche, de concurrencer Alphabet, la maison-mère de Google. La présentation catastrophique de Bard, le concurrent de ChatGPT, par le vice-président de Google, Prabhakar Raghavan, début février n’a rien arrangé. En une journée, Google a perdu plus de cent milliards de dollars de capitalisation boursière à cause d’une simple erreur factuelle commise en direct par le nouvel outil d’intelligence artificielle. Une bourde reprise en boucle sur les réseaux sociaux et sur les chaînes d’information en continue. Pour la première fois dans son histoire, Google semble menacé par une technologie développée par un concurrent. De son côté, l’action de Microsoft se porte comme un charme depuis le début de l’année. La firme devrait même investir plus de 10 milliards de dollars dans OpenAI dans les années à venir, notamment pour obtenir l’exclusivité de certaines fonctions du chatbot. 

Sommes-nous aux prémices d’une simple recomposition du marché des moteurs de recherche ou le succès de ChatGPT représente-il bien plus que celui d’un simple agent conversationnel ?  Techniquement, l’outil développé par OpenAI ne représente pas une rupture technologique, même si ChatGPT bénéficie de véritables innovations concernant par exemple le contrôle des réponses apportées aux internautes grâce à un logiciel dédié. Ce dernier lui a permis jusqu’à présent de ne pas tomber dans le piège de la dérive raciste comme d’autres intelligences artificielles avant elle. En 2016, l’intelligence artificielle Tay, développée par Microsoft, était devenue la risée d’internet en tweetant des messages nazis, 24 heures seulement après son lancement. Capable d’apprendre de ses interactions avec les internautes, elle avait fini par tweeter plus rapidement que son ombre des propos racistes ou xénophobes très choquants. « Hitler a fait ce qu’il fallait, je hais les juifs », « Bush a provoqué le 11 septembre et Hitler aurait fait un meilleur travail que le singe que nous avons actuellement », « je hais les féministes, elles devraient toutes brûler en enfer. », font partis des pires tweets qu’elle a diffusé avant que son compte, qui comptabilise toujours plus de 100 000 abonnés, ne passe en mode privé. 

Avec ChatGPT, les moteurs de recherche devraient rapidement évoluer pour devenir de vrais moteurs de solution. Plutôt que d’afficher des pages et des pages de résultats pour une simple recherche, les prochains moteurs proposeront directement une réponse précise et argumentée en se nourrissant des sites mis à leur disposition. Un constat qui a récemment mis en émoi plusieurs écoles new-yorkaises qui ont littéralement interdit à leurs élèves d’utiliser l’outil. Une décision qui sera de plus en plus difficile à tenir quand on sait que ChatGPT va rapidement devenir encore plus efficace. La version actuelle dispose de 175 milliards de paramètres alors que la version précédente de ChatGPT n’en possédait seulement que 1,5 milliard. 

Au-delà des capacités exponentielles de l’intelligence artificielle développée par OpenAI, c’est son adoption rapide par les internautes qui impressionne. Accessible à tous et gratuit, l’outil a démocratisé le recourt à l’intelligence artificielle dans de nombreux aspects de la vie quotidienne et professionnelle, ce qui n’avait pas vraiment réussi avant ses principaux concurrents. Selon Microsoft : « le nouveau Bing est à la fois un assistant de recherche, un planificateur personnel et un partenaire créatif. » De quoi aiguiser la curiosité du plus grand nombre et en faire un outil incontournable, sachant que ChatGPT a réussi là où les autres chatbots ont toujours échoué : soutenir une conversation en se souvenant des réponses précédentes que l’internaute lui a fournies. Selon les prédictions de Kevin Roose, journaliste technologique au New York Times et auteur de trois livres sur l’intelligence artificielle et l’automatisation, l’intelligence artificielle pourrait également à terme être utilisée comme un thérapeute personnalisé… Au risque de faire disparaitre le métier de psychologue ?

Et demain ? 

Il semblerait que ce ne soit pas le seul métier que cette intelligence artificielle menace, même si les prévisions dans ce domaine se sont souvent avérées fausses. Dans un premier temps, ce sont les métiers d’assistants qui sont le plus menacés. Depuis 2016, Ross travaille pour le cabinet d’avocats américain Baker & Hostetler. Il a plus de 900 collègues qui lui demandent de l’assister dans leur travail au quotidien. Surdoué — il est capable de traiter un milliard de documents par seconde — Ross est spécialisé dans l’étude des faillites d’entreprises. Il n’est pas un employé comme les autres, c’est un “avocat robot” doté d’une intelligence artificielle développée par la société IBM, à partir de la célèbre technologie Watson. Son efficacité est telle qu’il vient concurrencer directement les jeunes avocats chargés jusqu’à présent d’assister leurs collègues et de rechercher les documents liés aux questions légales qui se posent. D’autres solutions encore plus efficaces que celles développées par IBM feront leur apparition dans les prochaines années, au fur et à mesure que la technologie se développera et que les algorithmes peaufineront leur apprentissage. D’autres secteurs d’activités seront impactés en profondeur par l’efficacité des agents conversationnels. Dans un premier temps, il est plus que probable que les intelligences artificielles d’OpenAI soient déployées dans tous les logiciels de Microsoft, l’entreprise ayant déjà annoncé qu’elle utiliserait DALL-E, générateur d’images et petit frère de ChatGPT, dans PowerPoint pour créer des images uniques. Plus globalement, les métiers créatifs, comme ceux de la communication ou du journalisme, devraient subir une mutation profonde et rapide. Dans les années à venir, ChatGPT sera aussi un outil précieux pour répondre à des commandes vocales ou encore lire des courriels, ce qui sera d’une grande aide pour les personnes souffrant par exemple de cécité. 

Mais l’utilisation en masse de ChatGPT soulève d’autres interrogations, d’ordre moral et éthique. Selon une enquête réalisée par le magazine Time, si le logiciel permettant à l’outil de ne pas sombrer dans le raciste et la xénophobie est si efficace c’est grâce au travail de modérateurs kenyans payés seulement 2 euros de l’heure. Leur quotidien ? Trier les informations pour réduire le risque de réponses discriminantes ou encore haineuses. Certains s’estimeront même traumatisés par le contenu lu pendant des semaines. Un autre scandale interroge la responsabilité de l’entreprise dans le respect du droit d’auteur. Des centaines de milliards de données ont été utilisées pour entrainer l’intelligence artificielle sans s’interroger en amont sur le consentement de tous ceux qui ont nourri ChatGPT. Se pose alors la question de la transparence sur les données et les sources utilisées par l’intelligence artificielle. A l’avenir, elles devront apparaître clairement lors de la délivrance d’une réponse à une question posée. Se pose également la question de la transparence sur les contenus générés par une intelligence artificielle. En effet, à l’heure des deep fakes, il est de plus en plus difficile de distinguer le faux du vrai. Comme le souligne Julien Deslangle, auteur et prospectiviste, dans une tribune (1) mise en ligne sur le site Uzbek & Rica le 10 janvier dernier : « bien sûr, l’Homme n’a pas attendu l’IA générative pour créer et diffuser de fausses informations, mais les algorithmes peuvent le faire de façon plus convaincante, comme en témoignent les hypertrucages (ou deep fakes), ces enregistrements qui peuvent prêter à une personnalité des propos qu’elle n’a jamais tenus. En mars dernier, des pirates ont ainsi diffusé sur des sites ukrainiens un deep fake dans lequel le président Volodymyr Zelensky demandait à ses soldats de déposer les armes face à la Russie… ». 

Le législateur devra alors trouver les réponses adéquates, sans tomber dans la censure systématique, alors que le débat se déplace aujourd’hui sur le terrain de la sécurité. Comme le soulignait Danny Gagné, chercheur à l’Université du Québec à Montréal, sur son blog (2) le 31 janvier dernier : « des chatbots utilisant l’IA peuvent générer, de manière autonome, du code propre à mener des attaques au rançongiciel. Fini le temps où ce type d’entreprise était réservé aux génies de l’informatique : les équipes de recherche de la firme de cybersécurité israélienne Check Point ont démontré que des cybercriminels avec peu ou pas d’expérience étaient en mesure d’utiliser ChatGPT pour encoder des courriels d’hameçonnage contenant des logiciels espions. »

Certains politiques s’interrogent de leur côté sur l’idéologie développée par ChatGPT. A droite, certains estiment que l’outil fait preuve de censure en ne répondant pas expressément à certaines questions ou alors privilégie des réponses qui promeuvent une idéologie très progressiste. Le mercredi 15 janvier, Sonia Mabrouk s’est prêtée une nouvelle fois à l’exercice de l’interview politique sur Europe 1 mais cette fois-ci en interrogeant ChatGPT, dans une mise en scène très travaillée (3), pour savoir si l’intelligence artificielle « a une matrice idéologique, un corpus de valeurs ». A la question sur son objectivité, ChatGPT répond : « je suis programmé pour être le plus objectif possible dans mes réponses. Cependant il est important de noter que les algorithmes qui me contrôlent sont basés sur les données d’apprentissage sur lesquelles j’ai été formé. Et ces données peuvent refléter les biais et les opinions de ceux qui ont créé ces données. Mon objectivité dépend donc de la qualité et de l’objectivité des données d’entrainement qui m’ont été fournies (…) » La journaliste lui demande ensuite de créer un poème féministe, ce qu’il fait, avant de lui demander d’en créer un second antiféministe et misogyne, ce qu’il refuse de faire. La démonstration est implacable : ChatGPT semble répondre, comme le souligne la journaliste, en fonction « de valeurs qui lui ont été inculqués. On vous a dit ce qui était bien ou mal ? » Elle lui posera ensuite des questions sur l’immigration ou encore sur l’identité de genre, dénonçant au passage le « catéchisme de la théorie du genre » soi-disant développé par l’intelligence artificielle. « Ce sont des adeptes du woke qui vous ont inculqués ses valeurs ? » Si les réponses de ChatGPT n’ont pas rassuré la journaliste, une chose est sûre : l’intelligence artificielle est bien de gauche !

Et à plus long terme ? A quoi pourrait ressembler notre vie en cohabitation avec une intelligence artificielle de plus en plus sophistiquée ? Avec – pourquoi pas – le concours de l’informatique quantique et ses capacités hors norme de calcul, l’efficacité de l’intelligence artificielle sera décuplée. Elle accompagnera les citoyens dans leur vie quotidienne en prenant des décisions à leur place. De nombreuses sociétés spécialisées dans la personnification de l’intelligence artificielle verront le jour. Il n’existera plus comme aujourd’hui une intelligence artificielle faible et abstraite, mais des intelligences artificielles paramétrables et ultra-performantes.

Références

(1) https://usbeketrica.com/fr/article/pour-une-obligation-de-transparence-sur-les-contenus-generes-par-l-ia

(2) https://dandurand.uqam.ca/publication/chatgpt-co-le-cote-obscur-de-lintelligence-artificielle/

(3) https://www.europe1.fr/societe/chatgpt-est-il-woke-4167109

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

La faillite intellectuelle d’Emmanuel Todd (2/2)
The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)

Un problème ? une appli !

L'État et les grandes transitions

Un problème ? une appli !

Dans cet article, Cincinnatus évoque le « solutionnisme » c’est-à-dire l’idée que les applications peuvent résoudre tous nos problèmes. Cette idée en vogue dans la Silicon Valley, pousse les individus à s’adonner pleinement à l’utilisation des technologies, et à sombrer dans l’avachissement.

Le « solutionnisme » est cette idée simpliste selon laquelle tous les problèmes, quelles que soient leur nature et leur complexité, peuvent trouver une solution sous la forme d’algorithmes et d’applications informatiques. Très en vogue dans la Silicon Valley depuis plusieurs années, il s’est largement répandu grâce à ses illusions séduisantes et imprègne dorénavant les imaginaires collectifs, notamment celui de la start-up nation chère à notre Président.

La culture de l’avachissement aurait bien du mal à tenir debout – ou plutôt allongée – sans l’aide de ce puissant outil. Nous disposons en effet d’applications pour réduire à peu près tous les gestes fastidieux, ou imaginés tels, à quelques tapotements sur l’écran d’un téléphone. Dans notre obsession pour l’optimisation de notre temps si précieux, nous déléguons tout ce que nous pouvons à d’autres par l’intermédiaire de ces applications. À d’autres puisque, malgré ce que nous nous entêtons à vouloir croire dans une pensée magique qui nous épargne opportunément tout sentiment de culpabilité, derrière les applications, c’est tout un nouveau prolétariat invisible qui survit en exécutant nos basses tâches. L’exploitation par application interposée ne connaît plus de limites. Quant aux promesses de l’oxymore « intelligence artificielle », elles ne font que prolonger le solutionnisme en substituant toujours un peu plus la machine à l’humain (machine elle-même mue en réalité par un nombre croissant de petites mains exploitées).

Le déploiement des voitures bardées de technologies d’« aide à la conduite », et même « autonomes », profite pleinement de cette mode. La séduction opère en vendant la sécurité, le confort, le plaisir et en dévalorisant la conduite elle-même, présentée comme fatigante, comme nécessitant une attention qui serait bien mieux utilisée autrement – par exemple, en se détournant sur l’offre pléthorique de divertissements industriels proposés. Qui a déjà eu l’occasion d’entrer dans une Tesla a peut-être eu le sentiment de se trouver à l’intérieur d’un énorme iPhone. La voiture comme véhicule s’efface devant le gadget dédié à l’entertainment. Bien entendu, tout cela est fort agréable, on se sent dans un cocon geek, on retrouve les mêmes sensations que lorsque nous sommes plongés dans nos téléphones. La dépendance aux écrans trouve un nouveau terrain de jeu. De jeu, en effet : la signification du plaisir de la conduite, tel que celui-ci était vécu par les générations précédentes, glisse vers autre chose, plus en accord avec la norme ludique actuelle. D’un sentiment de liberté jusqu’alors associé à l’imaginaire automobile, on passe à un plaisir plus régressif, celui de la complète prise en charge, de l’abandon confiant à la technique de toutes les responsabilités, pour mieux consacrer le temps et l’attention, ainsi libérés, à la distraction et à l’amusement – formatés.

Les gadgets technologiques semblent agir comme le serpent Kaa du Livre de la jungle. « Aie confiance », nous susurrent-ils. Et, trop heureux de leur obéir, nous sombrons avec quelque délice, dans la pure croyance. Bien peu savent comment fonctionnent vraiment ces objets que nous utilisons en permanence, ces applications qui nous « facilitent » la vie… Il en est de même, c’est vrai, de la plupart des appareils que nous utilisons depuis plusieurs décennies, bien avant l’apparition des applications. Pas plus que nous grands-parents, nous n’avons une idée précise de ce qui se passe lorsque nous appuyons sur l’interrupteur : nous savons seulement que la lumière s’allumera – et cela nous suffit. Le solutionnisme qui nous habite va toutefois plus loin que cette pensée magique basique – ou plutôt que cette absence de pensée. Il y a en lui une véritable croyance, de l’ordre de la superstition, certes, mais les superstitions ne sont-elles pas justement les derniers bastions inexpugnables devant lesquels la raison capitule ?

Car la technique n’a rien de « neutre », comme on le prétend trop rapidement en comparant benoîtement un téléphone à un marteau ou à un tournevis un peu plus perfectionné (sans réaliser que même un marteau n’est pas « neutre »). L’optimisme béat qui accompagne et fonde le solutionnisme caractérise l’imaginaire de la technique dans ses deux dimensions, idéologique et utopique (pour reprendre les définitions de Ricœur). La version la plus assumée et la plus explicite de cette idéologie et de cette utopie technicistes, le transhumanisme, pousse la logique interne du solutionnisme à son apogée, jusqu’à sombrer dans l’hybris en considérant la mort même comme un bug à corriger. La technologie, comme discours et idéologie de la technique, n’a plus rien à voir avec la science et la confusion, sciemment entretenue, des deux dans la plupart des esprits participe à l’entreprise d’asservissement de la science à la technique. De la science… mais pas seulement, puisque la puissance de l’idéologie et de l’utopie technicistes permettent l’appropriation par la technique de domaines qui en étaient jusque-là indépendants. Ainsi triomphe la technocratie – au sens de la prise de pouvoir de la technique, par délégation et abdication volontaires.

L’abandon progressif de leurs responsabilités, d’abord anodines puis de plus en plus importantes, par les individus au profit des applications et gadgets technologiques, sous prétexte de simplification, de confort, de plaisir et de gain de temps, va de pair avec la déresponsabilisation politique, tant des citoyens repliés sur leur espace privé que des dirigeants trop heureux de se cacher derrière les paravents mensongers de l’objectivité technique (1). La négation du politique et de l’humain par la technique vont de pair, sous la bannière du sacro-saint « Progrès ». Or la disjonction n’a jamais été si flagrante entre progrès technique, progrès scientifique, progrès économique, progrès social et progrès humain. La fable selon laquelle ils seraient tous liés et avanceraient harmonieusement vers une amélioration continue de l’existence humaine a perdu toute crédibilité, bien qu’elle soit au cœur de bien des discours (anti)politiques. De moins en moins dupes, les citoyens se détournent des bonimenteurs qui assènent encore ces balivernes… au profit, hélas, d’autres bonimenteurs aux mensonges tout aussi dangereux : antisciences et complotistes de toutes obédiences surfent allègrement sur la vague néo-luddite.

Le même mélange des genres entre technique et science sert ainsi d’épouvantail aux antiscientifiques qui, au nom de craintes légitimes, développent des sophismes symétriques à ceux des technophiles les plus acharnés. La suspicion, largement justifiée, à l’égard de la technique a néanmoins quelque chose de paradoxal tant elle tolère sans difficulté une forme de technophilie aveugle chez les mêmes individus : combien vilipendent avec une hargne sincère la déshumanisation par la technique via leur téléphone dernier cri fabriqué en Chine dans des conditions inhumaines et qu’ils ont payé plusieurs centaines d’euros ? La contradiction n’est pas qu’apparente ; elle n’est pas le symptôme d’un cynisme qui serait presque rassurant. Si le néo-luddisme peut apparaître comme une posture au service d’idéologies en réalité tout à fait compatibles avec le solutionnisme et le technologisme, il faut reconnaître, chez ses partisans aussi, une sincérité qui rend d’autant plus efficaces leurs entreprises idéologiques. Comme leurs adversaires technophiles, ils se croient également investis d’une mission d’évangélisation.

Les questions environnementales, et tout particulièrement, énergétiques, paraissent à ce titre le terrain le plus évident d’affrontement-complicité entre partisans du solutionnisme technologique et néo-luddites divers et variés. S’affrontent dans une parodie de bataille rangée : d’un côté, les technophiles béats persuadés que la seule réponse aux catastrophes engendrées par la technique réside dans encore plus de technique et, de l’autre côté, les autoproclamés écologistes antisciences dont les actions ne font qu’aggraver la situation. Pris dans un débat hystérique, la raison n’a guère d’espace pour s’affirmer. Les fameuses « énergies propres » sont un mensonge savamment entretenu, un oxymore digne d’un « cercle carré ». Les énergies renouvelables à la mode (éolien et solaire) polluent énormément dès que l’on prend en compte l’ensemble du cycle de vie des éoliennes et des panneaux solaires, produisent une énergie intermittente, non pilotable, aux rendements médiocres et nécessitent la construction de centrales de back-up, souvent au charbon (l’Allemagne étant le « modèle » en la matière). Le nucléaire, accusé à tort de relever du solutionnisme par certains militants écologistes qui n’ont aucune compétence scientifique, demeure la meilleure réponse aux besoins énergétiques et au réchauffement climatique. En revanche, croire qu’il résoudra miraculeusement tous les problèmes est parfaitement stupide mais il fait nécessairement partie de la réponse, avec, entre autres, le changement du modèle de consommation, la relocalisation de la production, etc.

Avec le nucléaire et l’énergie, se révèle la difficile ligne de crête de la science qui doit être tenue dans la plupart des domaines entre les illusions de l’obscurantisme et les fantasmes du solutionnisme, entre ceux qui veulent obliger l’homme à retourner dans les arbres, voire éradiquer définitivement l’espèce humaine, et ceux qui ne rêvent que de toujours plus de technique au mépris de l’humanité en nous et imaginent naïvement qu’elle sauvera la planète. Quelles folies !

Cincinnatus, 26 juin 2023

Article à retrouver sur son site internet.

Références

(1)Dans ses différents ouvrages, Evgueny Morozov explore les impasses et mirages du solutionnisme. Il montre notamment comment, depuis le début des années 2010, celui-ci ringardise le politique dans les entreprises technologiques obsédées par le « bouleversement » (on dirait aujourd’hui la « disruption ») de tout ce qui ne relève pas, normalement, de la technique. Par exemple :

(2)« La réponse de la Silicon Valley au « comment » de la politique se résume d’ordinaire à ce que j’appelle le solutionnisme : il faut traiter les problèmes avec des applications, des capteurs et des boucles de rétroaction, toutes choses vendues par des start-up. Au début de l’année 2014, Eric Schmidt a même promis que les start-up résoudraient le problème des inégalités économiques : ces dernières peuvent donc être elles aussi « bouleversées » ! »

(3)Evgueny Morozov, Le mirage numérique : Pour une politique du Big Data, Les Prairies Ordinaires, 2015, p. 117

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

La faillite intellectuelle d’Emmanuel Todd (2/2)
The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)

Comment l’intelligence artificielle va accélérer la concentration des richesses et accroître les inégalités

L'État et les grandes transitions

Comment l’intelligence artificielle va accélérer la concentration des richesses et accroître les inégalités

Le succès de ChatGPT a représenté une nouvelle étape dans la démocratisation et le perfectionnement de l’intelligence artificielle. En rendant l’économie toujours plus dépendante à l’intelligence artificielle, ne risque-t-on pas d’avantager les pays riches et les Big Tech, seuls capables d’investir les sommes nécessaires à son perfectionnement ? Et en entrant en concurrence directe avec le travail fourni par les pays qui disposent d’une main d’œuvre peu ou pas qualifiée, l’intelligence artificielle ne va-t-elle pas accélérer la concentration des richesses et accroître les inégalités ?
L’avènement d’une nouvelle société digitale

Pour répondre aux enjeux de continuité opérationnelle pendant la pandémie de Covid-19, nous avons accéléré soudainement la digitalisation de l’économie et plus généralement celle de notre société. Les outils numériques, plus performants, se sont diffusés largement dans les entreprises et au sein de la population, permettant ainsi d’organiser le télétravail à l’échelle d’un pays tout entier. Selon une étude (1) réalisée par le Ministère du travail, de l’emploi et de l’insertion sur l’activité professionnelle des Français pendant le premier confinement, 70% des actifs ont télétravaillé au moins partiellement quand 45% d’entre eux ont télétravaillé à temps complet.

Plusieurs secteurs d’activité ont également profité de cette accélération de la digitalisation. Le premier étant celui de la télémédecine, qui n’avait jamais réellement décollé en France. Il a vu le nombre des consultations à distance faire un bond historique en 2020. Ainsi, selon la CNAM (2), plus de 19 millions d’actes médicaux remboursés ont été réalisés, avec un pic de 4,5 millions de téléconsultations en avril 2020, contre seulement 40 000 en février 2020. Aujourd’hui, la télémédecine est en voie de généralisation.

Autre secteur d’activité ayant tiré son épingle du jeu depuis 2020, celui des loisirs numériques, alors que la culture souffre encore des suites de la crise sanitaire. Les plateformes de streaming ont vu le nombre de leurs abonnés augmenter de façon fulgurante ces trois dernières années. Les six plus connues d’entre elles cumulent aujourd’hui près d’un milliard d’abonnés à travers le monde. En France, leur succès est tel qu’il a poussé le gouvernement à revoir la chronologie des médias, ce système spécifiquement français qui permet de programmer l’exploitation des films en salles avant leur diffusion à la télévision et sur les plateformes.

Plus discrètement, les Français ont également plébiscité les jeux vidéo. Selon un sondage réalisé par le Credoc, à la demande du ministère de la Culture, la France comptait 53% de joueurs pendant le premier confinement contre 44% en 2018. Cette augmentation a concerné toutes les catégories sociales qui portent désormais un regard plus positif sur cette pratique culturelle. 

Cette accélération de la digitalisation s’inscrit dans un mouvement plus ancien entamé au milieu des années 90 avec l’arrivée d’internet. Cette révolution technologique, qui n’a pas fini de produire ses effets et d’influencer nos comportements, a non seulement modifié notre façon de consommer, mais elle a aussi transformé en profondeur nos systèmes économiques. Plus récemment, la digitalisation a connu une étape de développement majeure avec l’apparition de nouveaux empires numériques globalisés comme les GAFAM (3), les NATU (4) et leurs équivalents chinois, les BATX (5). Mais pour continuer à croître, ces géants technologiques ont besoin d’une ressource essentielle que nous avons tacitement accepté de céder : nos données personnelles. Selon l’article 4 du RGPD (6), les données personnelles peuvent être « un nom, un numéro d’identification, des données de localisation, un identifiant en ligne, (…) un ou plusieurs éléments spécifiques propres à son identité physique, physiologique, génétique, psychique, économique, culturelle ou sociale ». Les plateformes qui utilisent nos données personnelles, nous les connaissons bien. Elles sont désormais partout et elles nous accompagnent dans les actes de notre vie quotidienne : elles nous permettent de regarder une série, d’écouter de la musique, de faire nos courses, de partir en vacances ou encore de trouver l’amour. 

En plus de nos données personnelles, les plateformes sont également dépendantes des algorithmes d’intelligence artificielle, véritable bras armé de ce nouveau capitalisme et indispensables pour monétiser nos données à des niveaux inédits. Pour répondre le plus efficacement possible à nos requêtes, les plateformes recourent à des algorithmes de plus en plus puissants qui apprennent seuls de leurs erreurs. Pour y arriver, les algorithmes d’intelligence artificielle doivent consommer des volumes considérables de données et utiliser des probabilités statistiques. Le plus célèbre d’entre eux, nous l’utilisons tous les jours : il s’agit de PageRank, l’algorithme de Google qui établit un classement des pages web quand nous effectuons une recherche sur son moteur.

Actuellement, les algorithmes sont devenus tellement efficaces qu’ils sont à l’origine d’un enrichissement sans commune mesure de certains acteurs de l’économie. Grâce au perfectionnement de l’intelligence artificielle, les plateformes exploitent toujours plus de données, ce qui rend possible un meilleur apprentissage des algorithmes et la création de nouveaux services qui recueillent encore plus de données et alimentent ainsi la croissance de leurs revenus. Aujourd’hui, c’est la technique du deep learning (apprentissage profond), sous-domaine du machine learning, qui attire le plus l’attention, tant ses promesses d’efficacité sont nombreuses. Son retour en grâce, on le doit notamment à un Français, Yann Le Cun, chercheur en intelligence artificielle chez Facebook et lauréat du prix Turing en 2019. La technique du deep learning utilise des réseaux neuronaux artificiels, calqués sur ceux des humains, pour obtenir un résultat. Les champs d’applications sont nombreux et concernent de nombreux secteurs comme la médecine, le juridique, la robotique, la sécurité informatique…

Des salariés déjà plus pauvres à cause de l’intelligence artificielle

Avec la démocratisation et le perfectionnement en continu de l’intelligence artificielle, le capitalisme de plateforme va muter, entraînant avec lui l’économie dans une nouvelle ère ou les algorithmes seront devenus une ressource vitale pour toutes les entreprises engagées dans la compétition économique mondiale. En 2022, une étude menée par IBM (7) indiquait que 35% des entreprises sondées utilisaient l’IA et 77% exploraient ses potentialités.

Mais les pays riches, parmi les seuls à pouvoir investir les sommes nécessaires pour innover dans le domaine de l’intelligence artificielle, seront une nouvelle fois favorisés par rapport aux pays pauvres, alors que le cabinet McKinsey Global Institute chiffrait en 2018 à 13 000 milliards de dollars la richesse additionnelle que générerait globalement d’ici à 2030 l’adoption de l’IA. Soit un surplus de croissance de 1,2% par an sur douze ans. Dans une autre étude (8) parue en 2020 et intitulée « Will the AI Révolution Cause a Great Divergence ? », le FMI explique comment les nouvelles technologies, qui se basent notamment sur le développement de l’intelligence artificielle et l’automatisation, risquent à l’avenir d’avantager les pays riches par rapport aux autres pays en orientant les investissements et la création de richesse vers les pays où ces technologies sont déjà maitrisées.

Grâce aux nouveaux gains de productivité qu’elles vont engendrer, le rapport entre le capital et le travail va évoluer au détriment du second, faisant peser de nouvelles menaces sur les pays qui disposent d’une main d’œuvre peu ou pas qualifiée. Comme le notent les auteurs de l’étude, « (…) le capital, s’il est mobile à l’échelle internationale, est tiré vers le haut, ce qui entraîne une baisse transitoire du PIB dans le pays en développement ». Ce constat rejoint celui de l’économiste Gilles Saint-Paul qui a échafaudé pour le compte du CNRS en 2018 six scénarios (9) d’un monde sans travail à cause de l’automatisation et de l’intelligence artificielle. En préambule, il prévient : « supposons que dans cent ou cent cinquante ans, le travail des humains devienne moins compétitif que celui des robots, peu chers, corvéables à merci et parfaitement acceptés par la population. Dans ce cas, il faut bien comprendre que l’on quitte le régime qui fonctionne depuis la révolution industrielle. Dans celui-ci, la machine-outil améliore la productivité de l’ouvrier sans le remplacer ; cette productivité accrue permet à l’entreprise d’embaucher et d’augmenter les salaires. Finalement, elle profite à l’ouvrier et à la société en général », explique l’économiste.

Mais si la machine travaille seule, grâce au recours à l’intelligence artificielle, elle entre directement en concurrence avec le travailleur humain. On passe alors à un régime où le capital se substitue irrémédiablement au travail ; le salaire étant fixé par la productivité des robots et leur coût de fabrication. « Imaginons en effet que vous empaquetez des colis et que vous en faites vingt par heure. Si un robot qui coûte 10 euros de l’heure en fait le double, votre salaire horaire s’élève à 5 euros. ». Pire encore : « si ce robot se perfectionne et passe à quatre-vingts colis de l’heure, votre salaire sera divisé par deux. » Jusqu’à atteindre zéro ? C’est ce que pense Sam Altman, cofondateur de la société OpenAI à l’origine de la création de ChatGPT. En mars 2021, il écrivait sur son blog (10) : « cette révolution va créer une richesse phénoménale. Le prix de nombreux types de travail (qui détermine le coût des biens et des services) tombera à zéro lorsque des IA suffisamment puissantes rejoindront la population active ».

Avec des conséquences que l’on commence déjà à mesurer. Selon un rapport publié en 2021 par le National Bureau of Economic Research (10), l’automatisation et les algorithmes d’intelligence artificielle sont à l’origine de 50 à 70 % des variations des salaires américains depuis les années 80. Un constat partagé par le Forum économique mondial qui note dans un rapport (11) paru la même année que « les revenus réels des hommes sans diplôme universitaire sont aujourd’hui inférieurs de 15% à ce qu’ils étaient en 1980 ». Au cours des quinze dernières années, les plateformes ont concouru activement à ce phénomène négatif. Toujours plus précaire, les emplois qu’elles proposent représentent déjà selon Eurofund plus de 17% de ceux des indépendants en Europe (12).

Les travailleurs de ces plateformes seraient déjà 200 000 en France, selon le Ministère du Travail. Pour tenir leurs objectifs de rendement, les plateformes ont mis en place un management algorithmique qui se traduit par une surveillance renforcée de l’activité des travailleurs et une évaluation quotidienne de leurs performances. Cette “ubérisation” souvent dénoncée par les travailleurs eux-mêmes pose un réel problème de paupérisation des salariés et menace notre modèle social. Dans leur livre “Désubérisation, reprendre le contrôle(13), les auteurs s’interrogent : « ces plateformes ont-elles réellement réinventé le travail en offrant de nouvelles opportunités aux personnes qui en étaient éloignées ou, au contraire, n’ont-elles pas dégradé le travail en créant de nouvelles formes de précarité et des relations de travail altérées ? » Les livreurs ne bénéficient toujours pas de la protection du statut de salarié, n’ont pas le droit au retrait, ne jouissent pas des actions de prévention et des protections de la santé que les employeurs sont normalement tenus de mener. Ils sont également très exposés et très peu protégés face au risque économique.

Une croissance qui creuse les inégalités ? Rien de nouveau sous le soleil du capitalisme mondiale, surtout depuis l’avènement de l’économie du numérique qui a organisé à grande échelle un transfert de pouvoir à son avantage ou les gentilles startups se sont peu à peu transformées en véritables prédatrices sur des marchés où règne la règle du « winner takes it all ». Selon cette dernière, les entreprises ayant réussi à prendre un avantage sur leurs concurrentes se transforment vite en monopoles, entraînant une concentration des richesses sans précédent et l’apparition de multimilliardaires. Ce n’est d’ailleurs pas un hasard si, parmi les dix hommes les plus riches au monde, six travaillent dans la nouvelle économie et le numérique. Le surplus de croissance et de richesse grâce à l’intelligence artificielle et son perfectionnement perpétuel dans les vingt prochaines années devraient d’ailleurs engendrer une nouvelle vague de milliardaires. 

Paradoxalement, c’est le plus souvent sur le capital que portent les réformes les plus ambitieuses, accentuant par ricochet les inégalités. Par exemple en France, l’impôt de solidarité sur la fortune est devenu un simple impôt sur la fortune immobilière, le prélèvement forfaitaire unique a été fixé à 30 % sur les revenus du capital, le taux de l’impôt sur les sociétés a été abaissé de 33% à 25%, les impôts de production ont été diminués de 10 milliards, les règles d’indemnisation du chômage ont été durcis, les APL amputées de 5€… Si toutes ces mesures ont eu un coût budgétaire élevé, privant au passage l’État et les collectivités de ressources nécessaires, elles n’ont pas non plus permis de baisser significativement le taux de prélèvements obligatoires, ce qui représentait le but premier de leur adoption. Ce dernier est passé d’après l’Insee de 44,7 % en 2018 à 44,3 % en 2021. 

Abondance et inégalités seront donc toujours les deux faces d’une même pièce, représentant un véritable casse-tête pour le législateur souvent démuni face à des géants technologiques aux ressources quasi illimitées et qui concurrencent l’Etat jusque dans ses missions régaliennes. En plus d’accentuer les inégalités économiques, l’intelligence artificielle représente une multitude de nouveaux enjeux dont il faut dès aujourd’hui corriger les excès. 

Des solutions existent déjà

Tout d’abord, le système fiscal qui fait la part belle à toutes les solutions d’exemption fiscale des géants technologiques, et qui ne permet pas à l’ensemble de la population de bénéficier pleinement de cette révolution technologique, doit être réformé en profondeur. En Europe, certains pays ont été complices des GAFAM pour minimiser au maximum l’imposition sur les bénéfices des entreprises. Ainsi, le bénéfice sur une vente à un client français ne sera pas imposé à 25%, qui est le taux d’impôt en vigueur en France pour les entreprises, mais à 12,5% si le siège de la société est en Irlande. C’est tout le combat de l’économiste Gabriel Zucman qui milite pour une taxation des entreprises en fonction du lieu où leur chiffre d’affaires est réalisé. Autres pistes : l’instauration d’une taxe spécifique sur le capital ou encore sur les superprofits, à l’instar de la « taxe GAFA » qui n’arrive toutefois pas à dépasser le stade des négociations à l’OCDE.

D’autres solutions émergent dans les débats à gauche pour gommer les excès de la concentration des richesses. Le premier concerne les données personnelles. La solution consisterait à nationaliser nos données utilisées par les entreprises. Comment ? En élargissant le rôle de la CNIL pour rassembler et chiffrer l’ensemble des données de la population pour les mettre ensuite à disposition des entreprises, sous certaines conditions.

Pour de nombreux observateurs, cette nouvelle ressource financière permettrait, par exemple, à l’Etat de financer de nouveaux programmes en faveur de la santé ou de l’environnement, de doter d’un capital de départ tous les Français à leur majorité ou encore de mettre en place un revenu universel de base équivalent au seuil de pauvreté mensuel. Un scénario qui n’est pas nouveau mais que l’intelligence artificielle, par son impact supposé sur les emplois et l’accroissement des richesses, rend possible.

Utopique ? Sans doute. Mais même les gourous de la Silicon Valley y croient de plus en plus. Toujours selon Sam Altman (14), l’intelligence artificielle va créer suffisamment de richesse dans les dix années à venir pour permettre de verser 13 500 dollars par an à chaque adulte aux États-Unis. Il propose à l’Etat de créer l’« American Equity Fund » en instaurant sur les grandes entreprises, dont le chiffre d’affaires dépasse un milliard de dollars, une taxe de 2,5% sur leur valeur boursière sous forme d’actions et 2,5% de la valeur de toutes leurs terres en dollars. Ce nouveau revenu serait ensuite versé à chaque citoyen américain de plus de 18 ans.

Au-delà des inégalités économiques, la généralisation de l’intelligence artificielle comporte d’autres carences qu’il faudra corriger. La première d’entre elles est d’ordre démocratique. De sérieux doutes planent sur l’ingérence russe dans la victoire de Donald Trump en 2016. Tout comme des doutes subsistent encore sur la victoire du camp du « Leave » lors du référendum pour ou contre le Brexit. Le scandale de « Cambridge Analytica » a mis en lumière le rôle de cette entreprise spécialisée dans l’exploitation des données dans le résultat final du référendum avec l’utilisation illégale de plus d’un million de comptes Facebook. Ancienne cadre de l’entreprise, Brittany Kaiser a révélé dans son livre « l’Affaire Cambridge Analytica” comment l’entreprise avait créé à dessein des publicités politiques utilisant la peur pour manipuler les masses. Pour y remédier, une meilleure régulation des réseaux sociaux est indispensable, en ciblant en priorité les fakes news, les commentaires haineux et les théories du complot, sans affaiblir la liberté d’expression et le droit à l’information.

La seconde carence est d’ordre sociétal. Les algorithmes que certains réseaux sociaux utilisent ont tendance à reproduire, voire aggraver, le racisme ou encore l’homophobie dans la société en mettant en avant les contenus les plus négatifs. Les propres chercheurs de Facebook l’ont d’ailleurs admis dans un document interne rendu public par le Wall Street Journal (15). « 64% de toutes les adhésions à des groupes extrémistes ont pour origine nos propres outils de recommandations. (…) Nos algorithmes exploitent l’attrait du cerveau humain pour la discorde ». Ces conclusions rejoignent celles déjà dressées par Cathy O’Neil, mathématicienne et data scientist, dans son livre « Algorithmes, la bombe à retardement » (16). Elle y met en évidence les dérives de l’industrie des algorithmes qu’elle qualifie « d’armes de destruction mathématiques qui se développent grâce à l’ultra-connexion, leur puissance de calcul exponentielle (…) et font le jeu du profit ».

Au travers de plusieurs exemples, l’auteure démontre comment les algorithmes reproduisent les inégalités dans les domaines de la justice, l’éducation, l’accès à l’emploi ou au crédit financier. En cause : les biais algorithmiques. Ces derniers apparaissent quand les données utilisées pour entraîner l’intelligence artificielle reflètent les valeurs implicites des humains qui les collectent, les sélectionnent et les utilisent. Autrement dit, les algorithmes ne nous libéreraient pas d’idéologies racistes ou homophobes, d’opinions nocives ou de préjugés sexistes… Au contraire, elles nous y enfermeraient !

Comment se prémunir de ces biais ? Cathy O’Neil semble avoir trouvé la solution. Elle milite pour la réalisation d’audits algorithmiques indépendants. Elle a même fondé son propre cabinet spécialisé dans ce domaine. De leur côté, les Etats pourraient rédiger des lois obligeant les entreprises qui réalisent un certain chiffre d’affaires à soumettre leurs algorithmes à une batterie de contrôles pour déceler d’éventuels biais et les “réparer”.

Enfin, la troisième carence est environnementale. Les algorithmes sont une nouvelle source d’exploitation des ressources, de pollution et d’émission de CO2. Selon les travaux de chercheurs du MIT, l’entraînement d’un modèle d’intelligence artificielle peut générer environ 282 tonnes d’équivalent CO2, soit cinq fois plus qu’une voiture américaine durant tout son cycle de vie. Plus globalement, le secteur numérique représente déjà à lui seul près de 4% des émissions totales de gaz à effet de serre. Des solutions existent pourtant pour diminuer l’empreinte écologique de l’intelligence artificielle : limiter le nombre de calculs et donc la consommation énergétique des algorithmes, utiliser une électricité décarbonée lors de leur apprentissage et généraliser les « green data centers », créer de nouveaux processeurs moins énergivores…

Pour finir, j’ai laissé à l’intelligence artificielle ChatGPT le soin d’écrire la conclusion de cet article, après l’avoir nourri avec plusieurs données essentielles pour sa compréhension des enjeux liés à la concentration des richesses et à l’accroissement des inégalités. J’ai décidé de mettre des guillemets à sa prise de parole, comme s’il s’agissait d’une personne à part entière.

Selon elle, « bien que l’intelligence artificielle puisse offrir des avantages et des opportunités pour l’ensemble de la société, il est de plus en plus évident qu’elle va accroître les inégalités et accélérer la concentration des richesses. Les entreprises et les individus les plus riches et les mieux équipés pour exploiter les avancées technologiques bénéficieront des avantages de l’IA, tandis que ceux qui n’ont pas les moyens de suivre le rythme seront laissés pour compte. Cette disparité pourrait entraîner une fracture sociale et économique de plus en plus importante et mettre en danger les perspectives d’un développement durable et équitable. Il est donc impératif que les gouvernements et les organisations travaillent ensemble pour élaborer des politiques et des initiatives qui garantissent que les avantages de l’IA soient distribués de manière équitable et que les inégalités soient réduites plutôt qu’accentuées. »

Références

(1)https://travail-emploi.gouv.fr/actualites/l-actualite-du-ministere/article/teletravail-resultats-d-une-etude-sur-l-activite-professionnelle-des-francais

(2)https://www.mutualite.fr/actualites/19-millions-nombre-de-teleconsultations-remboursees-par-lassurance-maladie-en-2020/

(3)GAFAM : Google, Amazon, Facebook, Apple et Microsoft

(4)NATU : Netflix, Airbnb, Tesla et Uber

(5)BATX : Baidu, Alibaba, Tencent et Xiaomi

(6)https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre1

(7)https://www.lesnumeriques.com/pro/pourquoi-l-intelligence-artificielle-redevient-la-priorite-des-geants-de-la-tech-a206335.html

(8)https://www.imf.org/en/Publications/WP/Issues/2020/09/11/Will-the-AI-Revolution-Cause-a-Great-Divergence-49734

(9)https://lejournal.cnrs.fr/articles/six-scenarios-dun-monde-sans-travail

(10)https://moores.samaltman.com

(11)https://fr.weforum.org/reports?year=2021#filter

(12)http://www.senat.fr/rap/r19-452/r19-452_mono.html

(13)https://editionsdufaubourg.fr/livre/desuberiser-reprendre-le-controle

(14)https://moores.samaltman.com

(15)https://www.wsj.com/articles/facebook-knows-it-encourages-division-top-executives-nixed-solutions-11590507499

(16)https://www.lemonde.fr/pixels/article/2018/11/07/cathy-o-neil-les-algorithmes-exacerbent-les-inegalites_5380202_4408996.html

Lire aussi...

La faillite intellectuelle d’Emmanuel Todd (2/2)
The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)

Faut-il nationaliser nos données personnelles pour les protéger ?

Le Retour de la question stratégique

Faut-il nationaliser nos données personnelles pour les protéger ?

Nos données personnelles enrichissent les géants technologiques et font triompher le capitalisme de plateforme. Depuis quelques mois, un nouveau débat émerge : faut-il nationaliser nos données pour les protéger ? Cette protection est devenue un enjeu majeur de société alors que leur monétisation en fait le pétrole du XXIème siècle. Selon Facebook, chaque utilisateur européen lui rapporte tous les ans 32 euros de revenus publicitaires. Une vraie mine d’or. Pourtant, l’exploitation de nos données par l’intelligence artificielle et la création de richesse qui en résulte ne profitent pas aux citoyens, bien au contraire, alors que le marché de la don-née en Europe est estimé à plus de 1000 milliards d’euros. Une situation qui oblige à nous interroger sur notre souveraineté numérique et à reposer la question de l’exploitation de nos données dans un sens plus politique.
Trois modèles différents de société numérique basés sur l’exploitation des données personnelles

Une nouvelle société digitale, construite sur un modèle économique et social inédit, émerge actuellement. Elle trouve son origine dans l’accélération de la digitalisation de l’économie entamée avec l’arrivée d’internet dans les années 90. Tous les secteurs de l’économie et de la société sont désormais concernés par cette révolution, caractérisée par une montée en puissance des plateformes de services, qui utilisent nos données personnelles, et l’intelligence artificielle pour s’enrichir. En trente ans seulement d’existence, trois modèles différents de société numérique sont apparus.

Le premier est américain. Pour s’imposer, il a besoin d’utiliser les capacités d’innovation des entreprises, mais aussi d’exploiter la puissance de l’imaginaire et du récit entourant leurs créateurs. Le second modèle est chinois. Il mise tout sur le capitalisme de surveillance (crédit social, reconnaissance faciale…) pour assurer la stabilité de son parti/Etat. Enfin, le troisième modèle est européen. Depuis trois décennies, le vieux Continent subit une « colonisation » technologique. Il réagit principalement en protégeant ses citoyens avec des mesures comme le désormais célèbre Règlement Général sur la Protection des Données (RGPD), faisant de la souveraineté numérique une question majeure du débat en Europe et plus particulièrement en France ; bien plus qu’aux USA ou en Chine.

La stratégie européenne s’explique par les nombreux scandales liés à l’utilisation licite des données personnelles des utilisateurs des plateformes, à l’international mais aussi en France. Depuis 2013 et les révélations d’Edward Snowden, il est de notoriété publique que l’Agence Nationale de Sécurité américaine, la NSA, a massivement collecté et détenu des données personnelles de citoyens américains et étrangers. En 2016, de sérieux doutes ont plané sur l’ingérence du pouvoir russe dans la victoire de Donald Trump après que des manipulations pour influencer les résultats du vote ont été mises en évidence sur Facebook. Tout comme des doutes subsistent encore sur la victoire du camp du « Leave » lors du référendum pour ou contre le Brexit.

Le scandale de « Cambridge Analytica » a mis en lumière le rôle de cette entreprise spécialisée dans l’exploitation des données dans le résultat final du référendum, avec l’utilisation illégale de plus d’un million de comptes Facebook et la diffusion de publicités politiques utilisant la peur pour manipuler les utilisateurs. Au total, ce sont plus de 87 millions de données qui ont été utilisées à des fins électorales par l’entreprise londonienne. Dans une interview(1) à L’ADN, le lanceur d’alerte Christopher Wylie, à l’origine de la révélation du scandale, expliquait en septembre 2020 que “tout est en germe pour une nouvelle affaire Cambridge Analytica.

En France, d’autres scandales ont fait la Une des médias. Le premier concerne la plateforme « Health Data Hub » recensant les données médicales des Français, d’une ampleur inédite et officialisée par la loi santé du 24 juillet 2019. Toutes les informations liées aux actes remboursés par l’assurance-maladie, mais aussi celles des hôpitaux, des centres spécialisés ainsi que celles du dossier spécialisé partagé des patients y sont stockées. L’hébergement de cette mégabase, ouverte aux chercheurs et aux informaticiens, a  été confiée sans appel d’offres à Microsoft, un acteur américain, laissant de nombreuses interrogations quant aux lacunes de la France en matière de souveraineté numérique. Une situation d’autant problématique que l’accès aux informations aurait pu être autorisé à des acteurs privés alors que ces dernières étaient stockées à différents endroits sur le globe (Pays-Bas notamment).

Alertée par la situation, une quinzaine d’associations a saisi le Conseil d’Etat. En 2022, l’Etat a retiré auprès de la CNIL sa demande d’autorisation qui était pourtant une condition indispensable pour que le Health Data Hub fonctionne de manière opérationnelle. Encore plus récemment, l’application StopCovid a également été dénoncée par de nombreuses associations. Parmi les critiques formulées, il y avait notamment celle de la collecte des données personnelles de ses utilisateurs. Le 15 juin 2020, dans un article publié par Mediapart, le chercheur en cryptologie de l’Inria, Gaëtan Leurent, indiquait que les données collectées étaient plus nombreuses que ce qui était prévu initialement ; bien plus que la version de l’application validée par la CNIL.

Les données personnelles sont devenues une denrée stratégique et indispensable pour de nombreux secteurs de l’économie comme la banque ou encore les télécommunications. A tel point qu’un retour en arrière semble impossible et provoquerait même un choc sans précédent sur notre économie. Le marché de la data était estimé en 2020 à plus de 1000 milliards d’euros rien qu’en Europe, alors qu’en parallèle le vol de données est en passe de devenir la nouvelle criminalité de masse du XXIème siècle. Entre 2021 et 2022, le nombre de rançongiciels a augmenté de plus de 300 % pour atteindre un montant de 456,8 millions de dollars, touchant aussi bien les hôpitaux, les petites comme les grandes entreprises.

Toujours en 2022, la CNIL a prononcé 21 sanctions pour un montant total de 101,2 millions d’euros. Depuis l’entrée en vigueur du RGPD, plus de 2,5 milliards d’euros d’amendes ont été versés à l’Union européenne. A la première place des plus fortes amendes infligées on retrouve Google pour un montant de 250 millions d’euros, loin devant les autres géants technologiques que sont Méta et Microsoft qui ont écopé chacun d’une amende de 60 millions d’euros.

Cette situation inédite est pourtant prise en compte par le législateur depuis 2016 et la première loi dite « Lemaire » qui prévoyait une protection accrue pour les données personnelles des internautes. Mais c’est la loi relative à la protection des données personnelles de 2018 qui marquera une montée en puissance dans la protection des citoyens. Elle adapte la loi « Informatique et libertés » du 6 janvier 1978 au « paquet européen de protection des données » qui comprendra le désormais célèbre Règlement général sur la protection des données (RGPD), directement applicable dans tous les pays européens au 25 mai 2018.

Pour mieux protéger les données utilisés, des solutions innovantes sont explorées par certains pays. La première d’entre elles consisterait à imposer aux services de cloud, comme ceux utilisés par les GAFAM, d’être stockés dans des datas centers situés dans le pays d’émission des données. En 2018, afin de se conformer à la loi chinoise sur la cybersécurité, Apple s’est vu imposer le transfert de toutes les données des utilisateurs de l’iCloud chinois à un partenaire local.

Selon l’association professionnelle « The Information Technology Industry Council », une douzaine de pays s’est engagée comme la Chine à la géolocalisation des données de leurs concitoyens. C’est la voie empruntée par l’application chinoise TikTok, alors que les menaces d’interdiction pèsent de plus en plus sur elle. Ses dirigeants viennent de décider le stockage des données de ses 150 millions d’utilisateurs européens dans trois data centers situés en Irlande et en Norvège. Dans une communication en date du 8 mars dernier (2), Théo Bertram, vice-président de l’application, précisait les contours du projet « Clover » censé rassurer les autorités américaines et européennes. « Nous commencerons à stocker localement les données des utilisateurs européens de TikTok cette année, et la migration se poursuivra jusquen 2024 (…) Une fois achevé, ces trois centres seront le lieu de stockage par défaut des données des utilisateurs européens de TikTok. Ils représentent un investissement annuel total de 1,2 milliard d’euros ».

Ce stockage sur les terres européennes sera intégralement vérifié par un prestataire européen tiers de confiance. TikTok s’est également engagé à pseudonymiser les données personnelles ; une technique qui consiste à remplacer les données directement identifiantes (nom, prénom…) par des données indirectement identifiantes (alias…).

Au-delà du débat fondamental sur la protection des données, celui-ci s’est déplacé ces derniers mois sur leur valorisation financière qui échappe totalement au politique et à la société toute entière, accélérant les inégalités de richesse.

Vers une nationalisation des données, synonyme de revenu universel ?

Le 3 novembre 2020, les Américains n’ont pas seulement voté pour élire leur nouveau Président Joe Biden. Ils ont également participé à de nombreux scrutins locaux organisés dans les 3141 comtés des Etats-Unis. L’un des scrutins organisés en Californie portait sur l’opportunité de créer une CNIL locale ou encore de rémunérer les internautes pour l’exploitation de leurs données. 56% des électeurs ayant voté en faveur du texte soumis à référendum, il entrera en vigueur en 2023.

Depuis plusieurs mois, un débat de fond s’installe dans la société américaine quant à la juste rémunération de ce nouveau pétrole que représentent nos données personnelles. En 2019, le gouverneur californien Gavin Newsom proposait déjà le versement d’un dividende digital. « Les consommateurs californiens devraient également pouvoir partager la richesse créée à partir de leurs données », déclara-t-il lors d’une interview (3). Deux ans plus tôt, en 2017, l’État du Minnesota présentait un projet de loi qui obligeait les fournisseurs de services de télécommunications et d’internet à payer les consommateurs pour l’utilisation de leurs informations.

Enfin, lors des primaires démocrates de 2020, le candidat Andrew Yang, créateur du « Data Dividend Project », promettait de rendre à chaque citoyen l’équivalent de 1000 dollars par mois. Après tout, les entreprises de la Silicon Valley ne se gênent pas pour s’enrichir grâce à nos données, alors pourquoi ne partageraient-elles pas le fruit de cette richesse avec nous ?

Cette vision de la monétisation des données est portée en France par le think tank de Gaspard Koenig, Génération Libre. Dans le rapport « Mes data sont à moi » publié en 2018 (4), le think tank propose ainsi l’instauration d’un droit de propriété sur nos données personnelles. « Inspiré par le raisonnement déployé par le chercheur américain Jaron Lanier, lobjectif est de rendre lindividu juridiquement propriétaire de ses données personnelles. Chacun pourrait ainsi vendre ses données aux plateformes, ou au contraire payer pour le service rendu et conserver ses données privées », peut-on lire en introduction du rapport. Vendre ses données. Le mot est lâché ! Sachant que les limites juridiques à cette solution existent et qu’elle n’a été mise en place dans aucun pays dans le monde… Sauf chez Amazon qui a proposé à certains clients du service Prime de les rémunérer pour avoir accès à leurs données de navigation. Les volontaires se voient ainsi verser la somme de 2 dollars par mois. Une paille !

Pourtant, une autre stratégie est possible. Elle est même évoquée dans le rapport de Génération Libre. Elle repose sur une nationalisation des données à laquelle s’ajouterait la création d’une « agence nationale (…), rassemblant, mutualisant et chiffrant lensemble des données de la population, pour les mettre ensuite à disposition, sous certaines conditions, des entreprises les mieux à même de les utiliser ». Une stratégie que le think tank ne préconise pas. « Une telle mainmise de lEtat sur nos données créerait une bureaucratie diamétralement opposée à la culture de lInternet, et donnerait au pouvoir central des moyens de contrôle extravagants ».

Peut-être. Mais à la question de l’exploitation et la rémunération de nos données, il existe donc une réponse qui s’inscrit dans une logique plus égalitaire que celle proposée par les libéraux ; une solution qui n’accentuerait pas les inégalités, avec d’un côté les plus riches qui auraient les moyens de protéger leurs données, et de l’autre côté les plus pauvres incités à vendre leurs données pour obtenir un gain financier.

Cette solution permettrait une meilleure répartition de la richesse créée par nos données, sachant que leur production infinie ne fait pas baisser leur valeur, au contraire elle l’augmente. Un constat partagé par Badr Boussabat, économiste, auteur et expert en intelligence artificielle (5) : « chaque jour, nous créons des données dont le volume et la valeur augmentent continuellement. Ces deux augmentations ne démontrant aucune corrélation négative, contrairement au constat avec la monnaie. »

De leur côté, les trois auteurs du livre Data démocratie, être un citoyen libre à l’ère du numérique  (6) proposent de créer une Haute Autorité à la donnée chargée de centraliser tous les sujets liés à la donnée en France, mais aussi d’instaurer une redevance nationale de la donnée payée par les sociétés du digital, « à l’image d’une SACEM de la data ». Un rôle que pourrait assurer la CNIL avec pour objectif principal de rassembler et de chiffrer l’ensemble des données.

Pour de nombreux observateurs, cette nouvelle ressource financière permettrait, par exemple, de doter d’un capital de départ tous les Français à leur majorité ou la mise en place d’un revenu universel de base équivalent au seuil de pauvreté mensuel, soit 1102 euros. Cette nouvelle ressource pour l’Etat pourrait également financer de nouveaux programmes en faveur de l’environnement ou de la santé. Un optimisme que ne partage pas tous les économistes. Au vu des ordres de grandeurs, il est très improbable selon eux qu’on puisse tirer un revenu universel significatif à partir de la monétisation de nos données, comme l’avance par exemple Andrew Yang. Pour eux, une imposition des GAFAM dans les règles apporteraient un complément de revenu fiscal significatif, estimé environ à 1 milliard d’euros, mais qui reste limité en comparaison du budget général de l’État.

La nécessité d’une stratégie européenne

Se poser la question de la protection et la valorisation de nos données, c’est aussi s’interroger sur la puissance des entreprises technologiques qui les utilisent et du modèle de société digitale qu’elles imposent, dans un contexte de compétition internationale.

Si la législation européenne s’est améliorée, l’exploitation de nos données personnelles représente de nouvelles menaces qui seront autant de défis pour l’Europe dans les prochaines années. Parmi ceux-ci, le Cloud Act américain, adopté en 2018 et qui permet aux États-Unis d’exploiter librement des données personnelles n’appartenant pas à des citoyens américains, rentre en conflit direct avec le RGPD européen.

Max Schrems, activiste et fondateur de l’organisation à but non lucratif « None of your business », réagissait en octobre dernier (7) sur le nouveau cadre fixé pour le transfert des données personnelles de l’Union européenne vers les Etats-Unis : « nous allons vraisemblablement attaquer le texte en justice ». Une menace prise très au sérieux puisque Max Schrems a déjà réussi à casser deux accords passés en 2015 et 2020 entre les Etats-Unis et l’Europe. Ces derniers visaient notamment à simplifier les échanges de données personnelles entre les deux continents. « La surveillance de masse va continuer (…) A la fin, lopinion de la Cour de justice de lUnion Européenne lemportera et tuera une nouvelle fois cet accord », prédit-il, optimiste.

Pour se prémunir des tentatives de domination sur le marché stratégique de l’hébergement des données en ligne, le couple franco-allemand a lancé en 2020 un embryon de cloud européen prénommé Gaia-X. Si ce dernier permet de réelles avancées, comme l’imposition aux hébergeurs de l’interopérabilité et la portabilité des données, il n’est toutefois pas de taille pour rivaliser avec les GAFAM.

Dans ce contexte, comment la France et l’Europe peuvent concurrencer les géants américains et chinois ? Tout d’abord, la culture européenne du numérique pourrait être celle qui instaure l’utilisation de systèmes d’exploitation et de logiciels libres, comme Linux, et promeut un Internet de l’entraide et du partage. Elle pourrait également voter des lois anti-trust plus restrictives qui limiteraient les monopoles, comme le font les États-Unis, en limitant le niveau de certains marchés à 70%, voire moins, pour une seule entreprise. L’Europe pourrait aussi stimuler la création de plateformes collectives, semblables à celles que l’on connaît, dont les services seraient offerts en tant que service public, et sans exploiter les données personnelles à des fins commerciales. L’Europe pourrait enfin promouvoir le concept « d’Etat-plateforme » pour faciliter la relation du citoyen à l’administration d’une part, puis constituer une réponse au capitalisme de plateforme d’autre part. Son but serait de créer un nouveau modèle de société qui faciliterait les échanges ainsi que la production de biens et de services, tout en stimulant les partenariats avec le secteur privé. Là aussi l’Europe pourrait constituer une aide précieuse. Elle pourrait, par exemple, doter les entreprises de l’argent nécessaire à la recherche et au développement de nouvelles technologies en mutualisant entre les pays membres les sommes nécessaires pour concurrencer les États-Unis et la Chine dans les domaines clés du futur que sont l’intelligence artificielle, les superordinateurs, les nanotechnologies et l’informatique quantique.

La nationalisation des données personnelles pour mieux les protéger n’est plus un tabou aujourd’hui, alors que leur valorisation financière interroge de plus en plus au sein de la société. Qui profite réellement de leur monétisation automatisée par l’intelligence artificielle ? Les législations françaises et européennes sont-elles suffisantes pour apporter les réponses nécessaires aux préoccupations des citoyens ? Les différents scandales observés ces dernières années sont de nature à faire de la protection de nos données un sujet majeur du débat politique à l’avenir, alors qu’un vrai clivage entre la gauche et la droite se met actuellement en place sur ce sujet.

Références

(1)https://www.ladn.eu/tech-a-suivre/christopher-wylie-cambridge-analytica-menaces-democraties/

(2)https://www.larevuedudigital.com/tiktok-veut-rassurer-leurope-en-hebergeant-localement-ses-donnees/

(3)https://www.lopinion.fr/economie/la-californie-envisage-daccorder-un-dividende-aux-internautes-sur-leurs-donnees-personnelles

(4)https://www.generationlibre.eu/wp-content/uploads/2018/01/2018-01-generationlibre-patrimonialite-des-donnees.pdf

(5)https://www.journaldunet.com/management/direction-generale/1497101-revenu-universel-par-la-donnee-10-raisons-pour-un-espoir-social/

(6)Thomas Jamet, Florian Freyssenet et Lionel Dos Santos De Sousa. « Data démocratie, être un citoyen libre à l’ère du numérique ». Editions Diateino (2022).

(7)https://www.solutions-numeriques.com/donnees-ue-usa-max-schrems-juge-tres-probable-une-nouvelle-action-en-justice/

Lire aussi...

La faillite intellectuelle d’Emmanuel Todd (2/2)
The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)

Les nouveaux oracles : comment les algorithmes prédisent le crime ?

L'État et les grandes transitions

Les nouveaux oracles : comment les algorithmes prédisent le crime ?

Entretien avec Vincent Berthet et Léo Amsellem
Comment établit-on des modèles prédictifs ? Comment les algorithmes sont-ils utilisés dans les domaines de la justice, de la police et du renseignement ? Quels sont les biais et les risques inhérents à une telle utilisation ? Enfin, quel impact les algorithmes prédictifs ont-ils sur notre système démocratique ? C’est à toutes ces questions que tente de répondre l’excellent ouvrage de Vincent Berthet et Léo Amsellem “Les nouveaux oracles, comment les algorithmes prédisent le crime ?”. Pour Le Temps des Ruptures, ils reviennent sur tous ces enjeux et tracent un nouveau compromis entre utilisation efficace et protection des libertés publiques.
LTR : A la lecture de votre ouvrage, la prégnance du champ lexical de la mythologie saute rapidement aux yeux. Vous parlez effectivement de nouveaux oracles, de différenciation entre mythe et réalité, de devins, etc… Considérez-vous que votre première tâche en tant que chercheurs et auteurs consistent à déconstruire le sensationnalisme qui peut entourer l’intelligence artificielle ?
L.Amsellem :

Absolument. On a joué autour de cet aspect littéraire. La volonté qui nous anime lors de l’écriture de cet ouvrage c’est de déconstruire l’ensemble des mythes qui existent autour des algorithmes. Il s’agissait de démystifier. C’est le rôle d’un chercheur, de celui qui veut s’inscrire dans un cadre de débat sérieux et sain. Et finalement on s’est rendu compte que les nouveaux oracles représentaient en réalité la crainte de ceux qui les rejettent de voir se former des “boules de cristal” prédictives. On a cherché à descendre d’un cran, à dégonfler cette bulle qui entoure l’IA pour regarder la réalité des systèmes qui y sont liés et leurs effets concrets.

LTR : L’axiome principal de la justice prédictive est de considérer que les comportements humains sont essentiellement prévisibles. N’y-a-t-il pas une forme de réductionnisme là-dedans ? Par ailleurs, cela s’oppose fondamentalement à l’idée démocratique selon laquelle les individus sont souverains et responsables de leurs actions.
V.Berthet :

Tout à fait. Les algorithmes prédictifs réveillent un vieux projet qui relève à la fois des sciences sociales et des sciences physiques qui est celui de la prédiction. Dans le livre nous parlons notamment de l’école de sociologie de Chicago et qui est l’exemple même de ce rêve. Leur approche des comportements humains passe par une quantification de ces derniers afin de mieux les prévoir. Les algorithmes prédictifs réactivent cette idée en exploitant la formidable opportunité que constitue le big data et la disponibilité des données massives. Or la question aujourd’hui est de savoir si le big data introduit un changement de degré ou un changement de rupture par rapport à ce projet de prédiction. A l’heure actuelle, étant donné les limites mentionnées plus haut, on peut dire qu’il y a uniquement un changement de degré dans le sens où les imperfections sont encore trop grandes pour parler de véritable rupture. On est très loin d’une prédiction parfaite et heureusement. Cela permet de préserver le libre arbitre du citoyen. Adolphe Quetelet au XIXe siècle avait déjà ce projet de quantifier les comportements humains.

LTR : Cette déconstruction du mythe vous la menez également sur le terrain de la critique technique. L’idée selon laquelle l’ère de l’IA et du big data se manifeste par la toute puissance des algorithmes en matière de prédiction vous semble fausse. Pouvez-vous revenir sur ce point ? Quelles sont les critiques régulièrement admises à ce sujet ?
V.Berthet :

Exactement. Aujourd’hui, on survend les capacités des algorithmes prédictifs. Les études publiées dans la revue Science notamment montrent qu’en réalité des modèles statistiques simples font aussi bien que les modèles prédictifs considérés comme complexes. L’exemple le plus patent de cela c’est une étude publiée en 2018 dans Science advances a décortiqué le fameux logiciel Compas utilisé dans de nombreuses juridictions américaines afin de prédire le risque de récidive de détenus et de non-comparution. En réalité, la société privée qui commercialise ce logiciel met en avant les capacités de ce dernier à analyser 137 facteurs. Mais dans les faits, l’étude de Science montre qu’un simple modèle d’analyse de 2 facteurs atteint le même niveau de précision que Compas. Ces algorithmes n’échappent donc pas à la règle de Pareto : l’essentiel de la performance prédictive relève en réalité de modèles statistiques très simples, notamment de régression, qui existaient bien avant l’avènement de l’IA. Voilà la première limite technique.

La deuxième limite est celle des potentiels biais qui peuvent affecter ces algorithmes. C’est en effet la base de données renseignée qui va alimenter les prédictions. C’est ce que résume la formule “Garbage in garbage out”. Aujourd’hui, quand ces logiciels sont vendus par des sociétés privées, rien ne garantit les conditions éthiques des bases de données qui sont exploitées.

LTR : C’est ce que vous dites également au sujet de Cambridge Analytica. Par ailleurs, aux Etats-Unis, la police utilisait l’IA (notamment le logiciel Predictive Police) afin de prévenir les crimes et délits. L’utilisation de ce logiciel a été interdite en raison des nombreux biais qu’il introduisait. Loin de prévenir les crimes et délits comme il était censé le faire, Predictive Police a participé à discriminer certains quartiers et certaines populations et à les prédisposer à commettre des délits et des crimes, permettant la réalisation d’une “prophétie autoréalisatrice”. Comment peut-on expliquer l’apparition de tels biais et comment les éviter ?
L.Amsellem :

Le logiciel dont il est question est celui qu’on appelle généralement PredPol. On ne peut pas dire que PredPol introduit des biais, en revanche il s’en nourrit à travers la base de données qui l’alimente. Ce qui signifie qu’à l’origine des données enregistrées il y a une action de police qui est biaisée ou bien une façon de récolter les statistiques de la délinquance qui l’est. En construisant un algorithme basé sur ces éléments de données on aboutit à une situation qui est discriminatoire. C’est une critique émise notamment par la chercheuse Cathy O’Neil dans son ouvrage Weapons of math destruction. Elle montre qu’avec la construction d’un algorithme sur des données biaisées, le risque n’est pas seulement de reproduire le biais mais bien de le répliquer à grande échelle. C’est ce qu’on constate aux Etats-Unis, notamment du fait de la ségrégation socio-spatiale qui existe dans ce pays.

PredPol n’a en revanche pas été interdit. Ce sont certaines villes qui ont décidé (notamment Los Angeles) de rompre leur contrat avec la société privée qui le commercialise. La question de savoir comment on évite l’apparition de tels biais est très compliquée. Cela nécessite de mettre en place un filet de sécurité tout au long du développement de l’algorithme : dès l’enregistrement des données. C’est ce que montre Aurélie Jean
(1)
, qui rappelle deux moyens de répondre à cette situation : toujours accompagner l’algorithme d’une expertise humaine (“human in the loop”), promue par Sara Hooker ; mettre en place un système d’autoévaluation tout au long de l’utilisation et du développement, voire dès le codage de l’algorithme, permettant d’identifier le plus tôt possible les biais.

LTR : Vous évoquez également dans votre ouvrage l’idée selon laquelle l’usage d’algorithmes prédictifs au sein de l’appareil judiciaire peut venir remettre en cause le principe d’individualisation de la peine. A l’inverse, il accentue la subsomption de cas particuliers sous une règle générale.
V.Berthet :

C’est effectivement une des questions de fond que pose l’utilisation de statistiques dans le cadre de la justice. Il y a un paradoxe : au début du XXe siècle, l’approche quantitative a été mise en oeuvre afin d’éclairer les décisions de justice et l’un des motifs donnés était justement de mieux connaître le criminel. Les statistiques pouvaient venir éclairer le cas individuel. D’ailleurs c’est ce que font les assurances dans la logique actuarielle. Paradoxalement, une fois qu’on utilise ces statistiques afin d’éclairer un cas d’espèce, on a l’impression que cette pratique contrevient au principe fondamental d’individualisation de la peine. Ce qui est vrai dans une certaine mesure. On a l’écueil possible de faire tomber chaque cas individuel dans la règle statistique. D’un autre côté, cette dernière peut éclairer des cas individuels.

Il y a néanmoins une limite de fond que présenteront toujours les outils statistiques : c’est ce qu’on appelle la critique de la jambe cassée. Dans les années 1960, un chercheur américain qui s’appelle Paul Meehl nous dit que si on utilise une règle mécanique (par exemple : tous les mardis tel individu se rend au cinéma), celle-ci peut se révéler vraie la plupart du temps ; mais si un jour l’individu en question se casse une jambe et ne peut pas aller au cinéma, la règle devient fausse. En d’autres termes, la règle statistique est statique, elle ne peut pas s’adapter au cas d’espèce. L’humain à l’inverse sera moins régulier que la règle statistique mais il peut s’adapter aux particularités lorsqu’elles se produisent. L’enjeu est donc de trouver le bon équilibre: avoir d’un côté la consistance de la règle statistique et de l’autre la capacité d’adaptation de l’être humain. Et donc dans le cas de la justice d’arriver à individualiser le cas que l’on traite.

LTR : Est-ce qu’il n’y a pas néanmoins une limite à la complémentarité entre algorithmes et raisonnements humains ? Les magistrats en France doivent remplir des tableaux statistiques, notamment le juge pénal, permettant d’évaluer leur activité. Quid d’une situation où des magistrats jugeraient dans un sens opposé à celui de l’algorithme et commettraient une erreur ?
V.Berthet :

Je cite cette collègue de droit privé à l’université de Lorraine qui nous dit “de la recommandation algorithmique à la justice algorithmique il n’y a qu’un pas qu’il est difficile de ne pas franchir dès lors que l’autorité de l’algorithme est difficilement contestable” (Florence G’Shell). La précision et la performance de ces algorithmes vont aller de manière croissante au cours de l’histoire et cela pose la question de la place de l’expertise humaine. Dans l’exemple que l’on prend il y a une complémentarité dans la mesure où l’algorithme est utilisé comme un outil d’aide à la décision. Mais la décision in fine est humaine. Si la plus value de l’appréciation humaine n’est plus significative cela veut dire qu’on se dirige vers une justice actuarielle. C’est-à-dire une justice dans laquelle, pour certains litiges, il n’y a plus d’intervention humaine. C’est l’ombre qui plane sur le futur de la justice.

LTR : Dans le cas de la justice civile ce n’est pas tant l’imperium du juge qui est remis en cause que la décision d’aller au contentieux. On voit les premières legaltechs, comme Case law analytics, qui fournissent au justiciable un service lui permettant de déterminer les chances qu’il a, en fonction des caractéristiques de son dossier, d’obtenir gain de cause devant le juge. Le risque est donc celui d’une déjudiciarisation. Cela entraîne également un recours accru à la médiation, or dans ce champ aussi des starts-up fournissent des solutions algorithmiques permettant de déterminer les chances qu’une médiation aboutisse. on met le doigt dans un engrenage dangereux pour l’accès a la justice.
V.Berthet :

Oui cela va dans le sens d’une déjudiciarisation. C’est précisément la consécration du principe “Minority Report”. C’est-à-dire le principe qui consiste à agir le plus en amont possible à partir d’une prédiction. Si je suis justiciable et que je veux intenter une action en justice, je sais, avec un intervalle de confiance précis, quelles sont mes chances d’échouer dans cette tentative. Je suis donc totalement désinciter à aller devant un tribunal.

Néanmoins on est encore au début de cette tendance. Les services proposés par les Legaltechs concernant la justice prédictive ont les mêmes défauts que ceux mentionnés plus haut pour les algorithmes. Ils sont aussi soumis à l’effet de Pareto.

LTR : Le salon Milipol s’est récemment tenu aux Etats-Unis. C’est un salon consacré aux innovations dans le domaine de l’intelligence artificielle. L’idée de ce salon est de pouvoir prévenir les délinquances du quotidien jusqu’aux attentats terroristes. Est-ce qu’il n’y pas finalement une course à l’IA autour du thème de la sécurité ?
L.Amsellem :

Le salon Milipol est un bon exemple de ce qui se fait en termes d’Intelligence Artificielle mais également de marketing autour de l’IA. Ce sont des entreprises privées qui présentent leurs solutions de la façon la plus avantageuse possible. Dans notre ouvrage, nous avons analysé système par système et logiciel par logiciel le niveau d’efficacité. Ce qu’on nous présente à Milipol doit encore faire l’objet de nombreux tests.

Il y a effectivement une demande de sécurité forte et un sentiment d’insécurité prégnant. On voit l’influence du continuum de sécurité : c’est-à-dire de l’imbrication entre les différentes mesures de prévention et de correction des délits et des crimes. Cela pose la question de la proportionnalité des outils que l’on doit utiliser en fonction du spectre où on se situe (petite délinquance ou attaque terroriste).

Il n’y a en revanche pas de toute puissance du renseignement technique dans la mesure où le renseignement humain continue d’être une source d’informations de grande qualité et qui présente une complémentarité. On observe une tendance à l’augmentation des budgets des agences de renseignement qui permet de ne pas démunir les services de leurs compétences traditionnelles.

LTR : Pouvez-vous revenir sur ce que vous appelez le compromis efficacité-liberté et la façon dont vous voulez en sortir ?
V.Berthet :

Le compromis efficacité-liberté c’est l’enjeu essentiel quand on essaye de mettre en perspective la question technologique dans le champ des libertés. Cet équilibre, c’est ce qu’on essaye d’expliquer dans le livre, il est difficile à trouver pour l’exécutif et le législateur, car ce n’est pas une question technique mais éminemment politique, un choix de société. L’épisode Covid a montré à quel point ces choix sont politiques : les pays du monde entier ont fait des choix différents, ceux de la France sont d’ailleurs révélateurs de son histoire. En matière de sécurité, il y a deux erreurs qu’on souhaite minimiser, que ce soit dans le cadre de la sécurité intérieure ou les attentats :

  • les faux positifs : quand on pense qu’une personne va commettre un acte criminel alors qu’elle ne l’aurait pas fait ;
  • les faux négatifs : une personne qui a priori ne passerait pas à l’acte mais qui le fait.

Ces deux erreurs ont des conséquences différentes. Des faux positifs, c’est un danger pour les libertés individuelles, les faux négatifs, c’est un danger pour la sécurité publique. La question c’est où on met le curseur, quelles erreurs on souhaite minimiser. Voltaire disait “mieux vaut se hasarder à libérer un coupable que condamner un innocent”. La technologie peut potentiellement nous permettre d’échapper à ce compromis et à cette idée que si on améliore l’efficacité c’est au détriment des libertés. L’exemple qu’on donne, même si il n’est pas parfait, est celui de la 1ère version de stop covid (devenue tous anti-covid). Le projet était d’avoir ce système bluetooth permettant de détecter les chaînes de contamination pour enrayer la vague épidémique. Cet outil respectait les législations RGPD et il pouvait apporter toutes les garanties en termes de respect des données individuelles. L’efficacité de stop covid a été limitée par le faible nombre de Français qui l’ont téléchargé et mis en œuvre. Si les citoyens français avaient fortement utilisé cet outil, il n’aurait pas présenté de risques pour les libertés et aurait contribué à enrayer l’épidémie. C’est le message de Peter Thiel, bien que figure controversée aux Etats-Unis : il est possible de concilier avec la technologie respect des libertés et efficacité. Pour converger vers des solutions qui satisfont ces deux conditions il faut expérimenter.

L.Amsellem :

La distinction qu’il importe de mettre en œuvre c’est de considérer que ce ne sont ni les algorithmes ni les nouvelles technologies qui permettront de sortir du compromis de  l’efficacité, mais ce qu’Aurélie Jean appelle la “pratique algorithmique”. Il ne faut pas penser que la technologie va nous sauver, mais sélectionner les bons algorithmes, au service d’un objectif fixé de manière commune avec un accord politique fort, assorti de l’encadrement juridique nécessaire et des contrôles a posteriori nécessaires. D’où l’importance d’associer la population civile pour trouver cet équilibre : ce n’est pas un sujet de chercheurs ni de technocrates, cela ne se décide pas dans un cabinet ministériel, c’est un contrat social 2.0 pour atteindre les buts politiquement visés, pour le faire de la manière la plus sécurisée possible et limiter les risques.

LTR :
Au-delà du compromis liberté-sécurité, cela pose la question de notre capacité, en tant que Français et Européens, à développer des outils souverains. Nous sommes dans cette espèce de course qui a une tendance à s‘accélérer, deux blocs, avec d’un côté les Etats-Unis et la Chine qui connaissent des avancées technologiques gigantesques et de l’autre le continent européen qui a du mal à se faire entendre sur ces enjeux, tant sur l’arbitrage entre libertés et sécurité que sur les libertés publiques. Une IA souveraine est-elle encore possible ou doit-on la considérer comme chimérique ?
L.Amsellem :

Des blocs se constituent et effectivement l’Europe pèse peu géopolitiquement sur ces sujets. C’est un problème, qui fait qu’on ne protège pas nos libertés. On s’interdit l’utilisation de certaines technologies, ce qui mène à ne pas développer d’outils souverains et une fois que l’urgence apparaît on finit par utiliser les outils des autres, qui sont déjà efficaces. Comme lors des attentats de 2015 et l’utilisation de Palantir pour l’analyse des métadonnées du renseignement intérieur ; ce qui est regrettable quand on sait que cela a été financé par le fonds capital risque de la CIA. A noter que l’Union européenne ou la France d’ailleurs ont une capacité, on a un gigantesque marché, des capacités importantes en termes de formation et capital humain, il n’y a pas de raison pour lesquelles on échouerait pourvu qu’on s’y mette tôt et qu’on ne bride pas l’innovation. Alors comment faire ?

Il y a la question du financement. En France un fonds, Definvest, a été créé en 2017 réunissant la BPI et le Ministère des Armées, similaire à ce que font les Américains, pour investir très tôt dans les pépites de la tech, tout en étant conscient que cela serait plus efficace de le faire au niveau européen, mais quand c’est un sujet souverain, cela reste encore difficile de le traiter à cette échelle. La France pourra peut-être profiter de la présidence de l’Union européenne pour mettre ces sujets sur la table. L’UE doit assumer son ambition d’Europe puissance. Elle a aussi un avantage comparatif fort sur le soft power normatif, sur la régulation : c‘est ce qu’on a vu avec le RGPD. On pensait que cela allait contraindre les entreprises européennes, mais c’est faux. Cela a permis d’encadrer les données, les libertés des citoyens, cela n’a pas bridé l’innovation ni bloqué les entreprises européennes. Cela a même été répliqué en Californie avec le CCPA. Dans ce cadre-là, que peut faire l’Union Européenne pour réguler sans obérer l’innovation ? La Commission européenne a identifié les algorithmes présentant un risque inacceptable, comme l’utilisation de la reconnaissance faciale à des fins de notation sociale. Pour le reste des algorithmes dans le domaine de la sécurité elle estime qu’il existe un risque élevé, dont l’utilisation doit être soumise à des conditions restrictives, afin de trouver un équilibre, comme la présence de systèmes d’évaluation et d’atténuation des risques, la qualité des bases de données utilisées, la traçabilité des résultats, l’information des gens que cela vise, un contrôle humain approprié pour réduire les risques. La Commission souhaite encadrer, contrôler, réguler mais pas brider l’innovation.

Pour un compromis efficacité-liberté il faut connaître l’efficacité. Pour cela il faut expérimenter et encadrer en proportionnant cela aux fins poursuivies afin de ne pas nous trouver vassalisés par des puissances étrangères plus avancées.

LTR : Finalement, l’Artificial Intelligence Act du 21 avril 2021 proposé par la Commission, rejoint beaucoup de points évoqués dans le livre.
L.Amsellem :

Absolument, on trouve qu’il y a une continuité entre la position que l’on développe dans le livre qui appelle à une vision pragmatique sur ces sujets-là, rigoureuse pour autant et celle de la Commission. Cela rejoint aussi un rapport remis en septembre par le député Jean-Michel Mis qui présente aussi cette vision du compromis efficacité-liberté qui est pragmatique tout en sachant que lorsqu’on souhaite légaliser un système il faut toujours créer des contrôles nouveaux, plus sérieux, ambitieux. On retrouve un équilibre déjà ébauché par la loi antiterroriste du 24 juillet 2015 qui encadre les pratiques d’analyse des métadonnées par les services de renseignement. Le fait d’encadrer des pratiques déjà existantes, cela évite de laisser un vide juridique. On crée également un organe permettant de contrôler les techniques de renseignement, la CNCTR donc on arrive à préserver le secret défense, contrôler l’action des services de renseignement et les encadrer par le droit.

LTR : L’exemple de 2015, démontre la logique d’encadrement-régulation : on légalise une situation de fait et on met en place un organe de contrôle s’assurant que le bornage mis en œuvre est respecté. Lorsqu’on arrive dans cette situation, cela pose la question de l’impossibilité de revenir en arrière.
L. Amsellem :

Il est vrai qu’il existe des effets de cliquet, quand on les met en œuvre on a du mal à revenir dessus, quand on abandonne une liberté c’est rare de la retrouver, à quelques exceptions près qui sont celles des systèmes peu efficaces. Par exemple pour PredPol, ce logiciel, bien qu’il continue à être utilisé et rentable pour certaines villes américaines, a été tué par deux facteurs à Los Angeles. D’abord, le facteur des biais raciaux que la recherche a largement couvert et qui a subi une pression politique suffisante pour l’interdire. Le deuxième facteur est un audit de mars 2019 de l’inspecteur général du LAPD qui n’arrive pas à conclure à l’efficacité du logiciel. A partir de ce moment-là, le concept efficacité-liberté est compromis : c’est une décision pragmatique prise par la ville de Los Angeles d’arrêter d’utiliser ce logiciel. On a eu aussi ce retour en arrière dans l’Oise ou la police utilisait aussi PredPol qui a été remplacé par Paved un simple logiciel de gestion, de cartes de chaleur, de représentation du crime plutôt qu’un logiciel d’intelligence artificielle prédictive. Il y a donc eu quelques retours en arrière.

Pour le renseignement, les effets de cliquet sont toutefois encore importants, car il est difficile d’évaluer l’efficacité de ces systèmes. D’où l’utilité d’avoir des inspections qui sont très fortes, soit la CNCTR (Commission nationale de contrôle des techniques de renseignement) soit en France l’ISR (Inspection des services de renseignement) qui sert à cela également. Mais il n’y a pas suffisamment de contrôles parlementaires. Il existe la Délégation parlementaire au renseignement (DPR). Mais elle est limitée. Par rapport aux Etats-Unis, il y a certains pouvoirs qu’elle ne possède pas. Par exemple, elle n’a pas accès aux rapports des inspections. La DPR peut auditionner des responsables des services de renseignement mais uniquement des responsables. Mais entre ce que déclarent le directeur des services informatiques, le directeur d’une administration centrale, le directeur du renseignement, et ce que déclare l’agent dans la réalité de son quotidien il peut y avoir des différences. Le Senate Select Committee on Intelligence au Sénat américain possède ce pouvoir d’enquête et d’audition qui est total. C’est un contrôle parlementaire fort. En comparaison, la DPR demeure modeste. C’est aussi lié à sa naissance, elle a une dizaine d’années, aux Etats-Unis elle existe depuis le Watergate.

LTR : Cela pose la question du rapport entre technique et droit, dans quelle mesure le recours à des algorithmes dans des domaines régaliens est acceptable car ce sont des objets difficilement régulés par le droit. Quand il faut mettre le doigt dans le fonctionnement d’un algorithme, beaucoup de juristes en sont incapables car ce n’est pas leur domaine de spécialité. Comment réguler l’usage d’ un algorithme quand celui qui régule n’est pas celui qui produit ?
L.Amsellem :

On touche ici à l’essence même des algorithmes. Effectivement, le juriste n’a pas de prise sur le fonctionnement concret des algorithmes, ni sur leur évaluation. Il faut différencier techniquement les algorithmes explicites et implicites. Quand l’algorithme est explicite, il suffit de regarder l’arbre de décision, demander à l’ingénieur, c’est assez simple à réguler. Mais les algorithmes fonctionnent de plus en plus avec du deep learning ou du machine learning. C’est plus complexe car on ne sait pas quel raisonnement l’algorithme a utilisé, à partir de la base de données, pour arriver à une solution. Comment encadrer par le droit un raisonnement qui est une boîte noire ? Comment rectifier ce défaut essentiel des algorithmes ? Il existe des façons de le faire, imparfaites et encore à l’étude.

Une réponse est de respecter le principe de proportionnalité dans l’usage des algorithmes. A quelles fins on utilise un algorithme et jusqu’où on le raffine, on ajoute des données ? Ajouter des données rend l’algorithme moins lisible, c’est difficile de faire de la rétro-ingénierie, d’analyser quels ont pu être les raisonnements présidant à la décision. Google a montré lors d’une étude en 2016, qu’en doublant les données d’une base déjà importante, sur un algorithme fonctionnant correctement, cela n’améliore que de 3% l’efficacité. On ajoute donc une grande quantité de données, on complexifie l’algorithme, pour un gain d’efficacité marginal.

L’un des moyens à notre disposition pour encadrer l’algorithme est l’ »explainability by design”, qui revient à ne mettre en place des algorithmes que lorsque on a conçu des moyens de les évaluer pendant leur conception. En d’autres termes, l’algorithme fonctionne en suivant des raisonnements jusqu’à atteindre un point nodal où il doit envoyer un rapport sur la manière dont il est arrivé à une décision intermédiaire. La Commission européenne, par exemple, y est très attentive. Par ailleurs, nous encourageons le dialogue entre les juristes, les décideurs publics, et les scientifiques qui effectuent des recherches en IA ou conçoivent les algorithmes.

nos autres entretiens...

La faillite intellectuelle d’Emmanuel Todd (2/2)
The Golden Notebook (Le carnet d’or) de Doris Lessing
Que signifierait une victoire de la Russie sur l’Ukraine ?
La faillite intellectuelle d’Emmanuel Todd (1/2)
Un tout petit effort pour ne rien rater …

Inscrivez-vous à notre newsletter