ChatGPT : le diable s’habille-t-il en data ?

L'État et les grandes transitions

ChatGPT : le diable s’habille-t-il en data ?

Depuis quelques semaines, le monde s’émerveille devant les capacités quasi-magiques de l’agent conversationnel ChatGPT. Très puissant, l’outil a été développé par la jeune société OpenAI créée entre autres par Elon Musk qui finira par prendre ses distances avec la startup, inquiet de voir l’intelligence artificielle devenir un « risque fondamental pour la civilisation humaine ». Si ChatGPT représente une nouvelle étape dans l’évolution et la démocratisation de l’intelligence artificielle, au point de concurrencer Google, les conséquences potentielles et avérées sur son utilisation interrogent dans la société jusqu’au législateur. Plus largement, faut-il encadrer les capacités exponentielles de l’intelligence artificielle ? Si oui, quels garde-fous mettre en place pour en limiter les conséquences ?
A l’origine était l’algorithme

Tout a été dit ou presque sur les capacités incroyables de ChatGPT. Mais pour bien les comprendre, il faut remonter à l’origine de l’intelligence artificielle et de la création des algorithmes. Selon Serge Abiteboul, chercheur et informaticien à l’Institut national de recherche en sciences et technologies du numérique (INRIA), « un algorithme est une séquence d’instructions utilisée pour résoudre un problème ». Sans forcément le savoir, nous en utilisons chaque jour quand nous cuisinons à l’aide d’une recette : nous respectons un ordre précis d’instructions pour créer un plat, c’est le principe même d’un algorithme. Si nous remontons le temps, les premiers algorithmes servaient à calculer l’impôt alors que, dans le champ mathématique, le premier remonte à -300 avant notre ère. Nous le devons à Euclide qui inventa l’algorithme qui calcule le plus grand commun diviseur de deux entiers. C’est Alan Turing, considéré comme le père fondateur de l’informatique, qui donna en 1936 le premier support formel aux notions d’algorithmiques avec sa célèbre machine considérée encore aujourd’hui comme un modèle abstrait de l’ordinateur moderne.

A partir du XXème siècle, la grande nouveauté dans l’exploitation des algorithmes a résidé dans l’utilisation d’ordinateurs aux capacités de calculs décuplées. Après les années 50, leur développement s’est accéléré grâce au machine learning ou apprentissage automatique. Cette technologie d’intelligence artificielle permet aux ordinateurs d’apprendre à générer des réponses et résultats sans avoir été programmés explicitement pour le faire. Autrement dit, le machine learning apprend aux ordinateurs à apprendre, à la différence d’une programmation informatique qui consiste à exécuter des règles prédéterminées à l’avance. Pour y arriver, les algorithmes d’intelligence artificielle doivent consommer des volumes considérables de données et utiliser des probabilités statistiques. Les plus célèbres d’entre eux, nous les utilisons tous les jours. Le premier est PageRank, l’algorithme de Google qui établit avec pertinence un classement des pages web quand nous effectuons une recherche sur son moteur. Les fils d’actualité de Facebook ou Twitter sont également de puissants algorithmes utilisés chaque jour par des centaines de millions d’utilisateurs. Les algorithmes sont devenus tellement efficaces qu’ils sont à l’origine d’un enrichissement des plateformes, sans commune mesure avec celui des entreprises d’autres secteurs. Ces plateformes, nous les connaissons bien. Elles nous accompagnent dans les actes de notre vie quotidienne : elles nous permettent de regarder une série ou un film, d’écouter de la musique, de faire nos courses, de voyager, de partir en vacances ou encore de trouver un logement ou l’amour. Grâce au perfectionnement de l’intelligence artificielle, les plateformes exploitent toujours plus de données, ce qui rend possible un meilleur apprentissage des algorithmes. Ce modèle économique basé sur la donnée leur permet de créer des nouveaux services qui recueillent encore plus de données et alimentent ainsi la croissance de leurs revenus. La capitalisation boursière des GAFAM n’a pas fini d’atteindre des sommets dans les années à venir. 

Aujourd’hui, c’est la technique du deep learning – apprentissage profond – sous-domaine du machine learning qui attire le plus l’attention après avoir été boudée pendant longtemps. Son retour en grâce, on le doit notamment à un Français, Yann Le Cun, actuellement chercheur en intelligence artificielle chez Facebook et lauréat du prix Turing en 2019. La technique du deep learning utilise des réseaux neuronaux artificiels, calqués sur ceux des humains, pour obtenir un résultat. Les champs d’applications sont nombreux (médecine, robotique, sécurité informatique, création de contenus…). Ils intéressent beaucoup les géants technologiques qui investissent massivement dans le développement de cette technique. ChatGPT interprète ainsi les données qui l’ont nourri – on parle quand même de plus de 500 milliards de textes et vidéos – en s’appuyant sur des algorithmes d’apprentissage automatique et de traitement du langage, mais aussi sur des techniques d’apprentissage profond. Les réseaux de neurones artificiels utilisés lui permettant ainsi de mieux comprendre les relations entre les mots dans une phrase et de les utiliser plus efficacement pour générer des phrases cohérentes et pertinentes. 

Un succès fulgurant et jamais vu par le passé

L’efficacité de ChatGPT est à l’origine de son succès auprès du grand public. Il n’aura fallu que cinq jours à l’outil développé par OpenAI lancé en novembre 2022 pour atteindre un million d’utilisateurs. Instagram aura mis un peu plus de deux mois pour atteindre ce résultat, Spotify cinq mois, Facebook dix mois et Netflix plus de trois ans. Un succès fulgurant qui a fait vaciller Google de son piédestal, pour le plus grand bonheur de Microsoft, propriétaire du moteur de recherche Bing, qui a investi un milliard de dollars dans ChatGPT. Aux USA, Google représente 88% du marché des moteurs de recherche contre 6,5% pour Bing. En France, Google représente même plus de 90% du marché. Très prochainement, Microsoft va lancer une version améliorée de Bing dopée à l’intelligence artificielle ChatGPT. En seulement 48 heures, plus d’un million d’internautes se sont déjà inscrits sur la liste d’attente pour l’essayer. Une occasion unique pour Microsoft, acteur mineur du marché des moteurs de recherche, de concurrencer Alphabet, la maison-mère de Google. La présentation catastrophique de Bard, le concurrent de ChatGPT, par le vice-président de Google, Prabhakar Raghavan, début février n’a rien arrangé. En une journée, Google a perdu plus de cent milliards de dollars de capitalisation boursière à cause d’une simple erreur factuelle commise en direct par le nouvel outil d’intelligence artificielle. Une bourde reprise en boucle sur les réseaux sociaux et sur les chaînes d’information en continue. Pour la première fois dans son histoire, Google semble menacé par une technologie développée par un concurrent. De son côté, l’action de Microsoft se porte comme un charme depuis le début de l’année. La firme devrait même investir plus de 10 milliards de dollars dans OpenAI dans les années à venir, notamment pour obtenir l’exclusivité de certaines fonctions du chatbot. 

Sommes-nous aux prémices d’une simple recomposition du marché des moteurs de recherche ou le succès de ChatGPT représente-il bien plus que celui d’un simple agent conversationnel ?  Techniquement, l’outil développé par OpenAI ne représente pas une rupture technologique, même si ChatGPT bénéficie de véritables innovations concernant par exemple le contrôle des réponses apportées aux internautes grâce à un logiciel dédié. Ce dernier lui a permis jusqu’à présent de ne pas tomber dans le piège de la dérive raciste comme d’autres intelligences artificielles avant elle. En 2016, l’intelligence artificielle Tay, développée par Microsoft, était devenue la risée d’internet en tweetant des messages nazis, 24 heures seulement après son lancement. Capable d’apprendre de ses interactions avec les internautes, elle avait fini par tweeter plus rapidement que son ombre des propos racistes ou xénophobes très choquants. « Hitler a fait ce qu’il fallait, je hais les juifs », « Bush a provoqué le 11 septembre et Hitler aurait fait un meilleur travail que le singe que nous avons actuellement », « je hais les féministes, elles devraient toutes brûler en enfer. », font partis des pires tweets qu’elle a diffusé avant que son compte, qui comptabilise toujours plus de 100 000 abonnés, ne passe en mode privé. 

Avec ChatGPT, les moteurs de recherche devraient rapidement évoluer pour devenir de vrais moteurs de solution. Plutôt que d’afficher des pages et des pages de résultats pour une simple recherche, les prochains moteurs proposeront directement une réponse précise et argumentée en se nourrissant des sites mis à leur disposition. Un constat qui a récemment mis en émoi plusieurs écoles new-yorkaises qui ont littéralement interdit à leurs élèves d’utiliser l’outil. Une décision qui sera de plus en plus difficile à tenir quand on sait que ChatGPT va rapidement devenir encore plus efficace. La version actuelle dispose de 175 milliards de paramètres alors que la version précédente de ChatGPT n’en possédait seulement que 1,5 milliard. 

Au-delà des capacités exponentielles de l’intelligence artificielle développée par OpenAI, c’est son adoption rapide par les internautes qui impressionne. Accessible à tous et gratuit, l’outil a démocratisé le recourt à l’intelligence artificielle dans de nombreux aspects de la vie quotidienne et professionnelle, ce qui n’avait pas vraiment réussi avant ses principaux concurrents. Selon Microsoft : « le nouveau Bing est à la fois un assistant de recherche, un planificateur personnel et un partenaire créatif. » De quoi aiguiser la curiosité du plus grand nombre et en faire un outil incontournable, sachant que ChatGPT a réussi là où les autres chatbots ont toujours échoué : soutenir une conversation en se souvenant des réponses précédentes que l’internaute lui a fournies. Selon les prédictions de Kevin Roose, journaliste technologique au New York Times et auteur de trois livres sur l’intelligence artificielle et l’automatisation, l’intelligence artificielle pourrait également à terme être utilisée comme un thérapeute personnalisé… Au risque de faire disparaitre le métier de psychologue ?

Et demain ? 

Il semblerait que ce ne soit pas le seul métier que cette intelligence artificielle menace, même si les prévisions dans ce domaine se sont souvent avérées fausses. Dans un premier temps, ce sont les métiers d’assistants qui sont le plus menacés. Depuis 2016, Ross travaille pour le cabinet d’avocats américain Baker & Hostetler. Il a plus de 900 collègues qui lui demandent de l’assister dans leur travail au quotidien. Surdoué — il est capable de traiter un milliard de documents par seconde — Ross est spécialisé dans l’étude des faillites d’entreprises. Il n’est pas un employé comme les autres, c’est un “avocat robot” doté d’une intelligence artificielle développée par la société IBM, à partir de la célèbre technologie Watson. Son efficacité est telle qu’il vient concurrencer directement les jeunes avocats chargés jusqu’à présent d’assister leurs collègues et de rechercher les documents liés aux questions légales qui se posent. D’autres solutions encore plus efficaces que celles développées par IBM feront leur apparition dans les prochaines années, au fur et à mesure que la technologie se développera et que les algorithmes peaufineront leur apprentissage. D’autres secteurs d’activités seront impactés en profondeur par l’efficacité des agents conversationnels. Dans un premier temps, il est plus que probable que les intelligences artificielles d’OpenAI soient déployées dans tous les logiciels de Microsoft, l’entreprise ayant déjà annoncé qu’elle utiliserait DALL-E, générateur d’images et petit frère de ChatGPT, dans PowerPoint pour créer des images uniques. Plus globalement, les métiers créatifs, comme ceux de la communication ou du journalisme, devraient subir une mutation profonde et rapide. Dans les années à venir, ChatGPT sera aussi un outil précieux pour répondre à des commandes vocales ou encore lire des courriels, ce qui sera d’une grande aide pour les personnes souffrant par exemple de cécité. 

Mais l’utilisation en masse de ChatGPT soulève d’autres interrogations, d’ordre moral et éthique. Selon une enquête réalisée par le magazine Time, si le logiciel permettant à l’outil de ne pas sombrer dans le raciste et la xénophobie est si efficace c’est grâce au travail de modérateurs kenyans payés seulement 2 euros de l’heure. Leur quotidien ? Trier les informations pour réduire le risque de réponses discriminantes ou encore haineuses. Certains s’estimeront même traumatisés par le contenu lu pendant des semaines. Un autre scandale interroge la responsabilité de l’entreprise dans le respect du droit d’auteur. Des centaines de milliards de données ont été utilisées pour entrainer l’intelligence artificielle sans s’interroger en amont sur le consentement de tous ceux qui ont nourri ChatGPT. Se pose alors la question de la transparence sur les données et les sources utilisées par l’intelligence artificielle. A l’avenir, elles devront apparaître clairement lors de la délivrance d’une réponse à une question posée. Se pose également la question de la transparence sur les contenus générés par une intelligence artificielle. En effet, à l’heure des deep fakes, il est de plus en plus difficile de distinguer le faux du vrai. Comme le souligne Julien Deslangle, auteur et prospectiviste, dans une tribune (1) mise en ligne sur le site Uzbek & Rica le 10 janvier dernier : « bien sûr, l’Homme n’a pas attendu l’IA générative pour créer et diffuser de fausses informations, mais les algorithmes peuvent le faire de façon plus convaincante, comme en témoignent les hypertrucages (ou deep fakes), ces enregistrements qui peuvent prêter à une personnalité des propos qu’elle n’a jamais tenus. En mars dernier, des pirates ont ainsi diffusé sur des sites ukrainiens un deep fake dans lequel le président Volodymyr Zelensky demandait à ses soldats de déposer les armes face à la Russie… ». 

Le législateur devra alors trouver les réponses adéquates, sans tomber dans la censure systématique, alors que le débat se déplace aujourd’hui sur le terrain de la sécurité. Comme le soulignait Danny Gagné, chercheur à l’Université du Québec à Montréal, sur son blog (2) le 31 janvier dernier : « des chatbots utilisant l’IA peuvent générer, de manière autonome, du code propre à mener des attaques au rançongiciel. Fini le temps où ce type d’entreprise était réservé aux génies de l’informatique : les équipes de recherche de la firme de cybersécurité israélienne Check Point ont démontré que des cybercriminels avec peu ou pas d’expérience étaient en mesure d’utiliser ChatGPT pour encoder des courriels d’hameçonnage contenant des logiciels espions. »

Certains politiques s’interrogent de leur côté sur l’idéologie développée par ChatGPT. A droite, certains estiment que l’outil fait preuve de censure en ne répondant pas expressément à certaines questions ou alors privilégie des réponses qui promeuvent une idéologie très progressiste. Le mercredi 15 janvier, Sonia Mabrouk s’est prêtée une nouvelle fois à l’exercice de l’interview politique sur Europe 1 mais cette fois-ci en interrogeant ChatGPT, dans une mise en scène très travaillée (3), pour savoir si l’intelligence artificielle « a une matrice idéologique, un corpus de valeurs ». A la question sur son objectivité, ChatGPT répond : « je suis programmé pour être le plus objectif possible dans mes réponses. Cependant il est important de noter que les algorithmes qui me contrôlent sont basés sur les données d’apprentissage sur lesquelles j’ai été formé. Et ces données peuvent refléter les biais et les opinions de ceux qui ont créé ces données. Mon objectivité dépend donc de la qualité et de l’objectivité des données d’entrainement qui m’ont été fournies (…) » La journaliste lui demande ensuite de créer un poème féministe, ce qu’il fait, avant de lui demander d’en créer un second antiféministe et misogyne, ce qu’il refuse de faire. La démonstration est implacable : ChatGPT semble répondre, comme le souligne la journaliste, en fonction « de valeurs qui lui ont été inculqués. On vous a dit ce qui était bien ou mal ? » Elle lui posera ensuite des questions sur l’immigration ou encore sur l’identité de genre, dénonçant au passage le « catéchisme de la théorie du genre » soi-disant développé par l’intelligence artificielle. « Ce sont des adeptes du woke qui vous ont inculqués ses valeurs ? » Si les réponses de ChatGPT n’ont pas rassuré la journaliste, une chose est sûre : l’intelligence artificielle est bien de gauche !

Et à plus long terme ? A quoi pourrait ressembler notre vie en cohabitation avec une intelligence artificielle de plus en plus sophistiquée ? Avec – pourquoi pas – le concours de l’informatique quantique et ses capacités hors norme de calcul, l’efficacité de l’intelligence artificielle sera décuplée. Elle accompagnera les citoyens dans leur vie quotidienne en prenant des décisions à leur place. De nombreuses sociétés spécialisées dans la personnification de l’intelligence artificielle verront le jour. Il n’existera plus comme aujourd’hui une intelligence artificielle faible et abstraite, mais des intelligences artificielles paramétrables et ultra-performantes.

Références

(1) https://usbeketrica.com/fr/article/pour-une-obligation-de-transparence-sur-les-contenus-generes-par-l-ia

(2) https://dandurand.uqam.ca/publication/chatgpt-co-le-cote-obscur-de-lintelligence-artificielle/

(3) https://www.europe1.fr/societe/chatgpt-est-il-woke-4167109

Lire aussi...

Contrainte ou consentement, quelques réflexions sur la définition pénale du viol
« Favoriser la mixite sociale et scolaire » Entretien avec la sénatrice Colombe Brossel
Mariage dès 9 ans en Irak : Quand la loi de Dieu s’impose, les droits des femmes reculent
Situation au Soudan : Nous ne pouvons pas continuer à baisser les yeux

Comment l’intelligence artificielle va accélérer la concentration des richesses et accroître les inégalités

L'État et les grandes transitions

Comment l’intelligence artificielle va accélérer la concentration des richesses et accroître les inégalités

Le succès de ChatGPT a représenté une nouvelle étape dans la démocratisation et le perfectionnement de l’intelligence artificielle. En rendant l’économie toujours plus dépendante à l’intelligence artificielle, ne risque-t-on pas d’avantager les pays riches et les Big Tech, seuls capables d’investir les sommes nécessaires à son perfectionnement ? Et en entrant en concurrence directe avec le travail fourni par les pays qui disposent d’une main d’œuvre peu ou pas qualifiée, l’intelligence artificielle ne va-t-elle pas accélérer la concentration des richesses et accroître les inégalités ?
L’avènement d’une nouvelle société digitale

Pour répondre aux enjeux de continuité opérationnelle pendant la pandémie de Covid-19, nous avons accéléré soudainement la digitalisation de l’économie et plus généralement celle de notre société. Les outils numériques, plus performants, se sont diffusés largement dans les entreprises et au sein de la population, permettant ainsi d’organiser le télétravail à l’échelle d’un pays tout entier. Selon une étude (1) réalisée par le Ministère du travail, de l’emploi et de l’insertion sur l’activité professionnelle des Français pendant le premier confinement, 70% des actifs ont télétravaillé au moins partiellement quand 45% d’entre eux ont télétravaillé à temps complet.

Plusieurs secteurs d’activité ont également profité de cette accélération de la digitalisation. Le premier étant celui de la télémédecine, qui n’avait jamais réellement décollé en France. Il a vu le nombre des consultations à distance faire un bond historique en 2020. Ainsi, selon la CNAM (2), plus de 19 millions d’actes médicaux remboursés ont été réalisés, avec un pic de 4,5 millions de téléconsultations en avril 2020, contre seulement 40 000 en février 2020. Aujourd’hui, la télémédecine est en voie de généralisation.

Autre secteur d’activité ayant tiré son épingle du jeu depuis 2020, celui des loisirs numériques, alors que la culture souffre encore des suites de la crise sanitaire. Les plateformes de streaming ont vu le nombre de leurs abonnés augmenter de façon fulgurante ces trois dernières années. Les six plus connues d’entre elles cumulent aujourd’hui près d’un milliard d’abonnés à travers le monde. En France, leur succès est tel qu’il a poussé le gouvernement à revoir la chronologie des médias, ce système spécifiquement français qui permet de programmer l’exploitation des films en salles avant leur diffusion à la télévision et sur les plateformes.

Plus discrètement, les Français ont également plébiscité les jeux vidéo. Selon un sondage réalisé par le Credoc, à la demande du ministère de la Culture, la France comptait 53% de joueurs pendant le premier confinement contre 44% en 2018. Cette augmentation a concerné toutes les catégories sociales qui portent désormais un regard plus positif sur cette pratique culturelle. 

Cette accélération de la digitalisation s’inscrit dans un mouvement plus ancien entamé au milieu des années 90 avec l’arrivée d’internet. Cette révolution technologique, qui n’a pas fini de produire ses effets et d’influencer nos comportements, a non seulement modifié notre façon de consommer, mais elle a aussi transformé en profondeur nos systèmes économiques. Plus récemment, la digitalisation a connu une étape de développement majeure avec l’apparition de nouveaux empires numériques globalisés comme les GAFAM (3), les NATU (4) et leurs équivalents chinois, les BATX (5). Mais pour continuer à croître, ces géants technologiques ont besoin d’une ressource essentielle que nous avons tacitement accepté de céder : nos données personnelles. Selon l’article 4 du RGPD (6), les données personnelles peuvent être « un nom, un numéro d’identification, des données de localisation, un identifiant en ligne, (…) un ou plusieurs éléments spécifiques propres à son identité physique, physiologique, génétique, psychique, économique, culturelle ou sociale ». Les plateformes qui utilisent nos données personnelles, nous les connaissons bien. Elles sont désormais partout et elles nous accompagnent dans les actes de notre vie quotidienne : elles nous permettent de regarder une série, d’écouter de la musique, de faire nos courses, de partir en vacances ou encore de trouver l’amour. 

En plus de nos données personnelles, les plateformes sont également dépendantes des algorithmes d’intelligence artificielle, véritable bras armé de ce nouveau capitalisme et indispensables pour monétiser nos données à des niveaux inédits. Pour répondre le plus efficacement possible à nos requêtes, les plateformes recourent à des algorithmes de plus en plus puissants qui apprennent seuls de leurs erreurs. Pour y arriver, les algorithmes d’intelligence artificielle doivent consommer des volumes considérables de données et utiliser des probabilités statistiques. Le plus célèbre d’entre eux, nous l’utilisons tous les jours : il s’agit de PageRank, l’algorithme de Google qui établit un classement des pages web quand nous effectuons une recherche sur son moteur.

Actuellement, les algorithmes sont devenus tellement efficaces qu’ils sont à l’origine d’un enrichissement sans commune mesure de certains acteurs de l’économie. Grâce au perfectionnement de l’intelligence artificielle, les plateformes exploitent toujours plus de données, ce qui rend possible un meilleur apprentissage des algorithmes et la création de nouveaux services qui recueillent encore plus de données et alimentent ainsi la croissance de leurs revenus. Aujourd’hui, c’est la technique du deep learning (apprentissage profond), sous-domaine du machine learning, qui attire le plus l’attention, tant ses promesses d’efficacité sont nombreuses. Son retour en grâce, on le doit notamment à un Français, Yann Le Cun, chercheur en intelligence artificielle chez Facebook et lauréat du prix Turing en 2019. La technique du deep learning utilise des réseaux neuronaux artificiels, calqués sur ceux des humains, pour obtenir un résultat. Les champs d’applications sont nombreux et concernent de nombreux secteurs comme la médecine, le juridique, la robotique, la sécurité informatique…

Des salariés déjà plus pauvres à cause de l’intelligence artificielle

Avec la démocratisation et le perfectionnement en continu de l’intelligence artificielle, le capitalisme de plateforme va muter, entraînant avec lui l’économie dans une nouvelle ère ou les algorithmes seront devenus une ressource vitale pour toutes les entreprises engagées dans la compétition économique mondiale. En 2022, une étude menée par IBM (7) indiquait que 35% des entreprises sondées utilisaient l’IA et 77% exploraient ses potentialités.

Mais les pays riches, parmi les seuls à pouvoir investir les sommes nécessaires pour innover dans le domaine de l’intelligence artificielle, seront une nouvelle fois favorisés par rapport aux pays pauvres, alors que le cabinet McKinsey Global Institute chiffrait en 2018 à 13 000 milliards de dollars la richesse additionnelle que générerait globalement d’ici à 2030 l’adoption de l’IA. Soit un surplus de croissance de 1,2% par an sur douze ans. Dans une autre étude (8) parue en 2020 et intitulée « Will the AI Révolution Cause a Great Divergence ? », le FMI explique comment les nouvelles technologies, qui se basent notamment sur le développement de l’intelligence artificielle et l’automatisation, risquent à l’avenir d’avantager les pays riches par rapport aux autres pays en orientant les investissements et la création de richesse vers les pays où ces technologies sont déjà maitrisées.

Grâce aux nouveaux gains de productivité qu’elles vont engendrer, le rapport entre le capital et le travail va évoluer au détriment du second, faisant peser de nouvelles menaces sur les pays qui disposent d’une main d’œuvre peu ou pas qualifiée. Comme le notent les auteurs de l’étude, « (…) le capital, s’il est mobile à l’échelle internationale, est tiré vers le haut, ce qui entraîne une baisse transitoire du PIB dans le pays en développement ». Ce constat rejoint celui de l’économiste Gilles Saint-Paul qui a échafaudé pour le compte du CNRS en 2018 six scénarios (9) d’un monde sans travail à cause de l’automatisation et de l’intelligence artificielle. En préambule, il prévient : « supposons que dans cent ou cent cinquante ans, le travail des humains devienne moins compétitif que celui des robots, peu chers, corvéables à merci et parfaitement acceptés par la population. Dans ce cas, il faut bien comprendre que l’on quitte le régime qui fonctionne depuis la révolution industrielle. Dans celui-ci, la machine-outil améliore la productivité de l’ouvrier sans le remplacer ; cette productivité accrue permet à l’entreprise d’embaucher et d’augmenter les salaires. Finalement, elle profite à l’ouvrier et à la société en général », explique l’économiste.

Mais si la machine travaille seule, grâce au recours à l’intelligence artificielle, elle entre directement en concurrence avec le travailleur humain. On passe alors à un régime où le capital se substitue irrémédiablement au travail ; le salaire étant fixé par la productivité des robots et leur coût de fabrication. « Imaginons en effet que vous empaquetez des colis et que vous en faites vingt par heure. Si un robot qui coûte 10 euros de l’heure en fait le double, votre salaire horaire s’élève à 5 euros. ». Pire encore : « si ce robot se perfectionne et passe à quatre-vingts colis de l’heure, votre salaire sera divisé par deux. » Jusqu’à atteindre zéro ? C’est ce que pense Sam Altman, cofondateur de la société OpenAI à l’origine de la création de ChatGPT. En mars 2021, il écrivait sur son blog (10) : « cette révolution va créer une richesse phénoménale. Le prix de nombreux types de travail (qui détermine le coût des biens et des services) tombera à zéro lorsque des IA suffisamment puissantes rejoindront la population active ».

Avec des conséquences que l’on commence déjà à mesurer. Selon un rapport publié en 2021 par le National Bureau of Economic Research (10), l’automatisation et les algorithmes d’intelligence artificielle sont à l’origine de 50 à 70 % des variations des salaires américains depuis les années 80. Un constat partagé par le Forum économique mondial qui note dans un rapport (11) paru la même année que « les revenus réels des hommes sans diplôme universitaire sont aujourd’hui inférieurs de 15% à ce qu’ils étaient en 1980 ». Au cours des quinze dernières années, les plateformes ont concouru activement à ce phénomène négatif. Toujours plus précaire, les emplois qu’elles proposent représentent déjà selon Eurofund plus de 17% de ceux des indépendants en Europe (12).

Les travailleurs de ces plateformes seraient déjà 200 000 en France, selon le Ministère du Travail. Pour tenir leurs objectifs de rendement, les plateformes ont mis en place un management algorithmique qui se traduit par une surveillance renforcée de l’activité des travailleurs et une évaluation quotidienne de leurs performances. Cette “ubérisation” souvent dénoncée par les travailleurs eux-mêmes pose un réel problème de paupérisation des salariés et menace notre modèle social. Dans leur livre “Désubérisation, reprendre le contrôle(13), les auteurs s’interrogent : « ces plateformes ont-elles réellement réinventé le travail en offrant de nouvelles opportunités aux personnes qui en étaient éloignées ou, au contraire, n’ont-elles pas dégradé le travail en créant de nouvelles formes de précarité et des relations de travail altérées ? » Les livreurs ne bénéficient toujours pas de la protection du statut de salarié, n’ont pas le droit au retrait, ne jouissent pas des actions de prévention et des protections de la santé que les employeurs sont normalement tenus de mener. Ils sont également très exposés et très peu protégés face au risque économique.

Une croissance qui creuse les inégalités ? Rien de nouveau sous le soleil du capitalisme mondiale, surtout depuis l’avènement de l’économie du numérique qui a organisé à grande échelle un transfert de pouvoir à son avantage ou les gentilles startups se sont peu à peu transformées en véritables prédatrices sur des marchés où règne la règle du « winner takes it all ». Selon cette dernière, les entreprises ayant réussi à prendre un avantage sur leurs concurrentes se transforment vite en monopoles, entraînant une concentration des richesses sans précédent et l’apparition de multimilliardaires. Ce n’est d’ailleurs pas un hasard si, parmi les dix hommes les plus riches au monde, six travaillent dans la nouvelle économie et le numérique. Le surplus de croissance et de richesse grâce à l’intelligence artificielle et son perfectionnement perpétuel dans les vingt prochaines années devraient d’ailleurs engendrer une nouvelle vague de milliardaires. 

Paradoxalement, c’est le plus souvent sur le capital que portent les réformes les plus ambitieuses, accentuant par ricochet les inégalités. Par exemple en France, l’impôt de solidarité sur la fortune est devenu un simple impôt sur la fortune immobilière, le prélèvement forfaitaire unique a été fixé à 30 % sur les revenus du capital, le taux de l’impôt sur les sociétés a été abaissé de 33% à 25%, les impôts de production ont été diminués de 10 milliards, les règles d’indemnisation du chômage ont été durcis, les APL amputées de 5€… Si toutes ces mesures ont eu un coût budgétaire élevé, privant au passage l’État et les collectivités de ressources nécessaires, elles n’ont pas non plus permis de baisser significativement le taux de prélèvements obligatoires, ce qui représentait le but premier de leur adoption. Ce dernier est passé d’après l’Insee de 44,7 % en 2018 à 44,3 % en 2021. 

Abondance et inégalités seront donc toujours les deux faces d’une même pièce, représentant un véritable casse-tête pour le législateur souvent démuni face à des géants technologiques aux ressources quasi illimitées et qui concurrencent l’Etat jusque dans ses missions régaliennes. En plus d’accentuer les inégalités économiques, l’intelligence artificielle représente une multitude de nouveaux enjeux dont il faut dès aujourd’hui corriger les excès. 

Des solutions existent déjà

Tout d’abord, le système fiscal qui fait la part belle à toutes les solutions d’exemption fiscale des géants technologiques, et qui ne permet pas à l’ensemble de la population de bénéficier pleinement de cette révolution technologique, doit être réformé en profondeur. En Europe, certains pays ont été complices des GAFAM pour minimiser au maximum l’imposition sur les bénéfices des entreprises. Ainsi, le bénéfice sur une vente à un client français ne sera pas imposé à 25%, qui est le taux d’impôt en vigueur en France pour les entreprises, mais à 12,5% si le siège de la société est en Irlande. C’est tout le combat de l’économiste Gabriel Zucman qui milite pour une taxation des entreprises en fonction du lieu où leur chiffre d’affaires est réalisé. Autres pistes : l’instauration d’une taxe spécifique sur le capital ou encore sur les superprofits, à l’instar de la « taxe GAFA » qui n’arrive toutefois pas à dépasser le stade des négociations à l’OCDE.

D’autres solutions émergent dans les débats à gauche pour gommer les excès de la concentration des richesses. Le premier concerne les données personnelles. La solution consisterait à nationaliser nos données utilisées par les entreprises. Comment ? En élargissant le rôle de la CNIL pour rassembler et chiffrer l’ensemble des données de la population pour les mettre ensuite à disposition des entreprises, sous certaines conditions.

Pour de nombreux observateurs, cette nouvelle ressource financière permettrait, par exemple, à l’Etat de financer de nouveaux programmes en faveur de la santé ou de l’environnement, de doter d’un capital de départ tous les Français à leur majorité ou encore de mettre en place un revenu universel de base équivalent au seuil de pauvreté mensuel. Un scénario qui n’est pas nouveau mais que l’intelligence artificielle, par son impact supposé sur les emplois et l’accroissement des richesses, rend possible.

Utopique ? Sans doute. Mais même les gourous de la Silicon Valley y croient de plus en plus. Toujours selon Sam Altman (14), l’intelligence artificielle va créer suffisamment de richesse dans les dix années à venir pour permettre de verser 13 500 dollars par an à chaque adulte aux États-Unis. Il propose à l’Etat de créer l’« American Equity Fund » en instaurant sur les grandes entreprises, dont le chiffre d’affaires dépasse un milliard de dollars, une taxe de 2,5% sur leur valeur boursière sous forme d’actions et 2,5% de la valeur de toutes leurs terres en dollars. Ce nouveau revenu serait ensuite versé à chaque citoyen américain de plus de 18 ans.

Au-delà des inégalités économiques, la généralisation de l’intelligence artificielle comporte d’autres carences qu’il faudra corriger. La première d’entre elles est d’ordre démocratique. De sérieux doutes planent sur l’ingérence russe dans la victoire de Donald Trump en 2016. Tout comme des doutes subsistent encore sur la victoire du camp du « Leave » lors du référendum pour ou contre le Brexit. Le scandale de « Cambridge Analytica » a mis en lumière le rôle de cette entreprise spécialisée dans l’exploitation des données dans le résultat final du référendum avec l’utilisation illégale de plus d’un million de comptes Facebook. Ancienne cadre de l’entreprise, Brittany Kaiser a révélé dans son livre « l’Affaire Cambridge Analytica” comment l’entreprise avait créé à dessein des publicités politiques utilisant la peur pour manipuler les masses. Pour y remédier, une meilleure régulation des réseaux sociaux est indispensable, en ciblant en priorité les fakes news, les commentaires haineux et les théories du complot, sans affaiblir la liberté d’expression et le droit à l’information.

La seconde carence est d’ordre sociétal. Les algorithmes que certains réseaux sociaux utilisent ont tendance à reproduire, voire aggraver, le racisme ou encore l’homophobie dans la société en mettant en avant les contenus les plus négatifs. Les propres chercheurs de Facebook l’ont d’ailleurs admis dans un document interne rendu public par le Wall Street Journal (15). « 64% de toutes les adhésions à des groupes extrémistes ont pour origine nos propres outils de recommandations. (…) Nos algorithmes exploitent l’attrait du cerveau humain pour la discorde ». Ces conclusions rejoignent celles déjà dressées par Cathy O’Neil, mathématicienne et data scientist, dans son livre « Algorithmes, la bombe à retardement » (16). Elle y met en évidence les dérives de l’industrie des algorithmes qu’elle qualifie « d’armes de destruction mathématiques qui se développent grâce à l’ultra-connexion, leur puissance de calcul exponentielle (…) et font le jeu du profit ».

Au travers de plusieurs exemples, l’auteure démontre comment les algorithmes reproduisent les inégalités dans les domaines de la justice, l’éducation, l’accès à l’emploi ou au crédit financier. En cause : les biais algorithmiques. Ces derniers apparaissent quand les données utilisées pour entraîner l’intelligence artificielle reflètent les valeurs implicites des humains qui les collectent, les sélectionnent et les utilisent. Autrement dit, les algorithmes ne nous libéreraient pas d’idéologies racistes ou homophobes, d’opinions nocives ou de préjugés sexistes… Au contraire, elles nous y enfermeraient !

Comment se prémunir de ces biais ? Cathy O’Neil semble avoir trouvé la solution. Elle milite pour la réalisation d’audits algorithmiques indépendants. Elle a même fondé son propre cabinet spécialisé dans ce domaine. De leur côté, les Etats pourraient rédiger des lois obligeant les entreprises qui réalisent un certain chiffre d’affaires à soumettre leurs algorithmes à une batterie de contrôles pour déceler d’éventuels biais et les “réparer”.

Enfin, la troisième carence est environnementale. Les algorithmes sont une nouvelle source d’exploitation des ressources, de pollution et d’émission de CO2. Selon les travaux de chercheurs du MIT, l’entraînement d’un modèle d’intelligence artificielle peut générer environ 282 tonnes d’équivalent CO2, soit cinq fois plus qu’une voiture américaine durant tout son cycle de vie. Plus globalement, le secteur numérique représente déjà à lui seul près de 4% des émissions totales de gaz à effet de serre. Des solutions existent pourtant pour diminuer l’empreinte écologique de l’intelligence artificielle : limiter le nombre de calculs et donc la consommation énergétique des algorithmes, utiliser une électricité décarbonée lors de leur apprentissage et généraliser les « green data centers », créer de nouveaux processeurs moins énergivores…

Pour finir, j’ai laissé à l’intelligence artificielle ChatGPT le soin d’écrire la conclusion de cet article, après l’avoir nourri avec plusieurs données essentielles pour sa compréhension des enjeux liés à la concentration des richesses et à l’accroissement des inégalités. J’ai décidé de mettre des guillemets à sa prise de parole, comme s’il s’agissait d’une personne à part entière.

Selon elle, « bien que l’intelligence artificielle puisse offrir des avantages et des opportunités pour l’ensemble de la société, il est de plus en plus évident qu’elle va accroître les inégalités et accélérer la concentration des richesses. Les entreprises et les individus les plus riches et les mieux équipés pour exploiter les avancées technologiques bénéficieront des avantages de l’IA, tandis que ceux qui n’ont pas les moyens de suivre le rythme seront laissés pour compte. Cette disparité pourrait entraîner une fracture sociale et économique de plus en plus importante et mettre en danger les perspectives d’un développement durable et équitable. Il est donc impératif que les gouvernements et les organisations travaillent ensemble pour élaborer des politiques et des initiatives qui garantissent que les avantages de l’IA soient distribués de manière équitable et que les inégalités soient réduites plutôt qu’accentuées. »

Références

(1)https://travail-emploi.gouv.fr/actualites/l-actualite-du-ministere/article/teletravail-resultats-d-une-etude-sur-l-activite-professionnelle-des-francais

(2)https://www.mutualite.fr/actualites/19-millions-nombre-de-teleconsultations-remboursees-par-lassurance-maladie-en-2020/

(3)GAFAM : Google, Amazon, Facebook, Apple et Microsoft

(4)NATU : Netflix, Airbnb, Tesla et Uber

(5)BATX : Baidu, Alibaba, Tencent et Xiaomi

(6)https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre1

(7)https://www.lesnumeriques.com/pro/pourquoi-l-intelligence-artificielle-redevient-la-priorite-des-geants-de-la-tech-a206335.html

(8)https://www.imf.org/en/Publications/WP/Issues/2020/09/11/Will-the-AI-Revolution-Cause-a-Great-Divergence-49734

(9)https://lejournal.cnrs.fr/articles/six-scenarios-dun-monde-sans-travail

(10)https://moores.samaltman.com

(11)https://fr.weforum.org/reports?year=2021#filter

(12)http://www.senat.fr/rap/r19-452/r19-452_mono.html

(13)https://editionsdufaubourg.fr/livre/desuberiser-reprendre-le-controle

(14)https://moores.samaltman.com

(15)https://www.wsj.com/articles/facebook-knows-it-encourages-division-top-executives-nixed-solutions-11590507499

(16)https://www.lemonde.fr/pixels/article/2018/11/07/cathy-o-neil-les-algorithmes-exacerbent-les-inegalites_5380202_4408996.html

Lire aussi...

Contrainte ou consentement, quelques réflexions sur la définition pénale du viol
« Favoriser la mixite sociale et scolaire » Entretien avec la sénatrice Colombe Brossel
Mariage dès 9 ans en Irak : Quand la loi de Dieu s’impose, les droits des femmes reculent
Situation au Soudan : Nous ne pouvons pas continuer à baisser les yeux

Faut-il nationaliser nos données personnelles pour les protéger ?

Le Retour de la question stratégique

Faut-il nationaliser nos données personnelles pour les protéger ?

Nos données personnelles enrichissent les géants technologiques et font triompher le capitalisme de plateforme. Depuis quelques mois, un nouveau débat émerge : faut-il nationaliser nos données pour les protéger ? Cette protection est devenue un enjeu majeur de société alors que leur monétisation en fait le pétrole du XXIème siècle. Selon Facebook, chaque utilisateur européen lui rapporte tous les ans 32 euros de revenus publicitaires. Une vraie mine d’or. Pourtant, l’exploitation de nos données par l’intelligence artificielle et la création de richesse qui en résulte ne profitent pas aux citoyens, bien au contraire, alors que le marché de la don-née en Europe est estimé à plus de 1000 milliards d’euros. Une situation qui oblige à nous interroger sur notre souveraineté numérique et à reposer la question de l’exploitation de nos données dans un sens plus politique.
Trois modèles différents de société numérique basés sur l’exploitation des données personnelles

Une nouvelle société digitale, construite sur un modèle économique et social inédit, émerge actuellement. Elle trouve son origine dans l’accélération de la digitalisation de l’économie entamée avec l’arrivée d’internet dans les années 90. Tous les secteurs de l’économie et de la société sont désormais concernés par cette révolution, caractérisée par une montée en puissance des plateformes de services, qui utilisent nos données personnelles, et l’intelligence artificielle pour s’enrichir. En trente ans seulement d’existence, trois modèles différents de société numérique sont apparus.

Le premier est américain. Pour s’imposer, il a besoin d’utiliser les capacités d’innovation des entreprises, mais aussi d’exploiter la puissance de l’imaginaire et du récit entourant leurs créateurs. Le second modèle est chinois. Il mise tout sur le capitalisme de surveillance (crédit social, reconnaissance faciale…) pour assurer la stabilité de son parti/Etat. Enfin, le troisième modèle est européen. Depuis trois décennies, le vieux Continent subit une « colonisation » technologique. Il réagit principalement en protégeant ses citoyens avec des mesures comme le désormais célèbre Règlement Général sur la Protection des Données (RGPD), faisant de la souveraineté numérique une question majeure du débat en Europe et plus particulièrement en France ; bien plus qu’aux USA ou en Chine.

La stratégie européenne s’explique par les nombreux scandales liés à l’utilisation licite des données personnelles des utilisateurs des plateformes, à l’international mais aussi en France. Depuis 2013 et les révélations d’Edward Snowden, il est de notoriété publique que l’Agence Nationale de Sécurité américaine, la NSA, a massivement collecté et détenu des données personnelles de citoyens américains et étrangers. En 2016, de sérieux doutes ont plané sur l’ingérence du pouvoir russe dans la victoire de Donald Trump après que des manipulations pour influencer les résultats du vote ont été mises en évidence sur Facebook. Tout comme des doutes subsistent encore sur la victoire du camp du « Leave » lors du référendum pour ou contre le Brexit.

Le scandale de « Cambridge Analytica » a mis en lumière le rôle de cette entreprise spécialisée dans l’exploitation des données dans le résultat final du référendum, avec l’utilisation illégale de plus d’un million de comptes Facebook et la diffusion de publicités politiques utilisant la peur pour manipuler les utilisateurs. Au total, ce sont plus de 87 millions de données qui ont été utilisées à des fins électorales par l’entreprise londonienne. Dans une interview(1) à L’ADN, le lanceur d’alerte Christopher Wylie, à l’origine de la révélation du scandale, expliquait en septembre 2020 que “tout est en germe pour une nouvelle affaire Cambridge Analytica.

En France, d’autres scandales ont fait la Une des médias. Le premier concerne la plateforme « Health Data Hub » recensant les données médicales des Français, d’une ampleur inédite et officialisée par la loi santé du 24 juillet 2019. Toutes les informations liées aux actes remboursés par l’assurance-maladie, mais aussi celles des hôpitaux, des centres spécialisés ainsi que celles du dossier spécialisé partagé des patients y sont stockées. L’hébergement de cette mégabase, ouverte aux chercheurs et aux informaticiens, a  été confiée sans appel d’offres à Microsoft, un acteur américain, laissant de nombreuses interrogations quant aux lacunes de la France en matière de souveraineté numérique. Une situation d’autant problématique que l’accès aux informations aurait pu être autorisé à des acteurs privés alors que ces dernières étaient stockées à différents endroits sur le globe (Pays-Bas notamment).

Alertée par la situation, une quinzaine d’associations a saisi le Conseil d’Etat. En 2022, l’Etat a retiré auprès de la CNIL sa demande d’autorisation qui était pourtant une condition indispensable pour que le Health Data Hub fonctionne de manière opérationnelle. Encore plus récemment, l’application StopCovid a également été dénoncée par de nombreuses associations. Parmi les critiques formulées, il y avait notamment celle de la collecte des données personnelles de ses utilisateurs. Le 15 juin 2020, dans un article publié par Mediapart, le chercheur en cryptologie de l’Inria, Gaëtan Leurent, indiquait que les données collectées étaient plus nombreuses que ce qui était prévu initialement ; bien plus que la version de l’application validée par la CNIL.

Les données personnelles sont devenues une denrée stratégique et indispensable pour de nombreux secteurs de l’économie comme la banque ou encore les télécommunications. A tel point qu’un retour en arrière semble impossible et provoquerait même un choc sans précédent sur notre économie. Le marché de la data était estimé en 2020 à plus de 1000 milliards d’euros rien qu’en Europe, alors qu’en parallèle le vol de données est en passe de devenir la nouvelle criminalité de masse du XXIème siècle. Entre 2021 et 2022, le nombre de rançongiciels a augmenté de plus de 300 % pour atteindre un montant de 456,8 millions de dollars, touchant aussi bien les hôpitaux, les petites comme les grandes entreprises.

Toujours en 2022, la CNIL a prononcé 21 sanctions pour un montant total de 101,2 millions d’euros. Depuis l’entrée en vigueur du RGPD, plus de 2,5 milliards d’euros d’amendes ont été versés à l’Union européenne. A la première place des plus fortes amendes infligées on retrouve Google pour un montant de 250 millions d’euros, loin devant les autres géants technologiques que sont Méta et Microsoft qui ont écopé chacun d’une amende de 60 millions d’euros.

Cette situation inédite est pourtant prise en compte par le législateur depuis 2016 et la première loi dite « Lemaire » qui prévoyait une protection accrue pour les données personnelles des internautes. Mais c’est la loi relative à la protection des données personnelles de 2018 qui marquera une montée en puissance dans la protection des citoyens. Elle adapte la loi « Informatique et libertés » du 6 janvier 1978 au « paquet européen de protection des données » qui comprendra le désormais célèbre Règlement général sur la protection des données (RGPD), directement applicable dans tous les pays européens au 25 mai 2018.

Pour mieux protéger les données utilisés, des solutions innovantes sont explorées par certains pays. La première d’entre elles consisterait à imposer aux services de cloud, comme ceux utilisés par les GAFAM, d’être stockés dans des datas centers situés dans le pays d’émission des données. En 2018, afin de se conformer à la loi chinoise sur la cybersécurité, Apple s’est vu imposer le transfert de toutes les données des utilisateurs de l’iCloud chinois à un partenaire local.

Selon l’association professionnelle « The Information Technology Industry Council », une douzaine de pays s’est engagée comme la Chine à la géolocalisation des données de leurs concitoyens. C’est la voie empruntée par l’application chinoise TikTok, alors que les menaces d’interdiction pèsent de plus en plus sur elle. Ses dirigeants viennent de décider le stockage des données de ses 150 millions d’utilisateurs européens dans trois data centers situés en Irlande et en Norvège. Dans une communication en date du 8 mars dernier (2), Théo Bertram, vice-président de l’application, précisait les contours du projet « Clover » censé rassurer les autorités américaines et européennes. « Nous commencerons à stocker localement les données des utilisateurs européens de TikTok cette année, et la migration se poursuivra jusquen 2024 (…) Une fois achevé, ces trois centres seront le lieu de stockage par défaut des données des utilisateurs européens de TikTok. Ils représentent un investissement annuel total de 1,2 milliard d’euros ».

Ce stockage sur les terres européennes sera intégralement vérifié par un prestataire européen tiers de confiance. TikTok s’est également engagé à pseudonymiser les données personnelles ; une technique qui consiste à remplacer les données directement identifiantes (nom, prénom…) par des données indirectement identifiantes (alias…).

Au-delà du débat fondamental sur la protection des données, celui-ci s’est déplacé ces derniers mois sur leur valorisation financière qui échappe totalement au politique et à la société toute entière, accélérant les inégalités de richesse.

Vers une nationalisation des données, synonyme de revenu universel ?

Le 3 novembre 2020, les Américains n’ont pas seulement voté pour élire leur nouveau Président Joe Biden. Ils ont également participé à de nombreux scrutins locaux organisés dans les 3141 comtés des Etats-Unis. L’un des scrutins organisés en Californie portait sur l’opportunité de créer une CNIL locale ou encore de rémunérer les internautes pour l’exploitation de leurs données. 56% des électeurs ayant voté en faveur du texte soumis à référendum, il entrera en vigueur en 2023.

Depuis plusieurs mois, un débat de fond s’installe dans la société américaine quant à la juste rémunération de ce nouveau pétrole que représentent nos données personnelles. En 2019, le gouverneur californien Gavin Newsom proposait déjà le versement d’un dividende digital. « Les consommateurs californiens devraient également pouvoir partager la richesse créée à partir de leurs données », déclara-t-il lors d’une interview (3). Deux ans plus tôt, en 2017, l’État du Minnesota présentait un projet de loi qui obligeait les fournisseurs de services de télécommunications et d’internet à payer les consommateurs pour l’utilisation de leurs informations.

Enfin, lors des primaires démocrates de 2020, le candidat Andrew Yang, créateur du « Data Dividend Project », promettait de rendre à chaque citoyen l’équivalent de 1000 dollars par mois. Après tout, les entreprises de la Silicon Valley ne se gênent pas pour s’enrichir grâce à nos données, alors pourquoi ne partageraient-elles pas le fruit de cette richesse avec nous ?

Cette vision de la monétisation des données est portée en France par le think tank de Gaspard Koenig, Génération Libre. Dans le rapport « Mes data sont à moi » publié en 2018 (4), le think tank propose ainsi l’instauration d’un droit de propriété sur nos données personnelles. « Inspiré par le raisonnement déployé par le chercheur américain Jaron Lanier, lobjectif est de rendre lindividu juridiquement propriétaire de ses données personnelles. Chacun pourrait ainsi vendre ses données aux plateformes, ou au contraire payer pour le service rendu et conserver ses données privées », peut-on lire en introduction du rapport. Vendre ses données. Le mot est lâché ! Sachant que les limites juridiques à cette solution existent et qu’elle n’a été mise en place dans aucun pays dans le monde… Sauf chez Amazon qui a proposé à certains clients du service Prime de les rémunérer pour avoir accès à leurs données de navigation. Les volontaires se voient ainsi verser la somme de 2 dollars par mois. Une paille !

Pourtant, une autre stratégie est possible. Elle est même évoquée dans le rapport de Génération Libre. Elle repose sur une nationalisation des données à laquelle s’ajouterait la création d’une « agence nationale (…), rassemblant, mutualisant et chiffrant lensemble des données de la population, pour les mettre ensuite à disposition, sous certaines conditions, des entreprises les mieux à même de les utiliser ». Une stratégie que le think tank ne préconise pas. « Une telle mainmise de lEtat sur nos données créerait une bureaucratie diamétralement opposée à la culture de lInternet, et donnerait au pouvoir central des moyens de contrôle extravagants ».

Peut-être. Mais à la question de l’exploitation et la rémunération de nos données, il existe donc une réponse qui s’inscrit dans une logique plus égalitaire que celle proposée par les libéraux ; une solution qui n’accentuerait pas les inégalités, avec d’un côté les plus riches qui auraient les moyens de protéger leurs données, et de l’autre côté les plus pauvres incités à vendre leurs données pour obtenir un gain financier.

Cette solution permettrait une meilleure répartition de la richesse créée par nos données, sachant que leur production infinie ne fait pas baisser leur valeur, au contraire elle l’augmente. Un constat partagé par Badr Boussabat, économiste, auteur et expert en intelligence artificielle (5) : « chaque jour, nous créons des données dont le volume et la valeur augmentent continuellement. Ces deux augmentations ne démontrant aucune corrélation négative, contrairement au constat avec la monnaie. »

De leur côté, les trois auteurs du livre Data démocratie, être un citoyen libre à l’ère du numérique  (6) proposent de créer une Haute Autorité à la donnée chargée de centraliser tous les sujets liés à la donnée en France, mais aussi d’instaurer une redevance nationale de la donnée payée par les sociétés du digital, « à l’image d’une SACEM de la data ». Un rôle que pourrait assurer la CNIL avec pour objectif principal de rassembler et de chiffrer l’ensemble des données.

Pour de nombreux observateurs, cette nouvelle ressource financière permettrait, par exemple, de doter d’un capital de départ tous les Français à leur majorité ou la mise en place d’un revenu universel de base équivalent au seuil de pauvreté mensuel, soit 1102 euros. Cette nouvelle ressource pour l’Etat pourrait également financer de nouveaux programmes en faveur de l’environnement ou de la santé. Un optimisme que ne partage pas tous les économistes. Au vu des ordres de grandeurs, il est très improbable selon eux qu’on puisse tirer un revenu universel significatif à partir de la monétisation de nos données, comme l’avance par exemple Andrew Yang. Pour eux, une imposition des GAFAM dans les règles apporteraient un complément de revenu fiscal significatif, estimé environ à 1 milliard d’euros, mais qui reste limité en comparaison du budget général de l’État.

La nécessité d’une stratégie européenne

Se poser la question de la protection et la valorisation de nos données, c’est aussi s’interroger sur la puissance des entreprises technologiques qui les utilisent et du modèle de société digitale qu’elles imposent, dans un contexte de compétition internationale.

Si la législation européenne s’est améliorée, l’exploitation de nos données personnelles représente de nouvelles menaces qui seront autant de défis pour l’Europe dans les prochaines années. Parmi ceux-ci, le Cloud Act américain, adopté en 2018 et qui permet aux États-Unis d’exploiter librement des données personnelles n’appartenant pas à des citoyens américains, rentre en conflit direct avec le RGPD européen.

Max Schrems, activiste et fondateur de l’organisation à but non lucratif « None of your business », réagissait en octobre dernier (7) sur le nouveau cadre fixé pour le transfert des données personnelles de l’Union européenne vers les Etats-Unis : « nous allons vraisemblablement attaquer le texte en justice ». Une menace prise très au sérieux puisque Max Schrems a déjà réussi à casser deux accords passés en 2015 et 2020 entre les Etats-Unis et l’Europe. Ces derniers visaient notamment à simplifier les échanges de données personnelles entre les deux continents. « La surveillance de masse va continuer (…) A la fin, lopinion de la Cour de justice de lUnion Européenne lemportera et tuera une nouvelle fois cet accord », prédit-il, optimiste.

Pour se prémunir des tentatives de domination sur le marché stratégique de l’hébergement des données en ligne, le couple franco-allemand a lancé en 2020 un embryon de cloud européen prénommé Gaia-X. Si ce dernier permet de réelles avancées, comme l’imposition aux hébergeurs de l’interopérabilité et la portabilité des données, il n’est toutefois pas de taille pour rivaliser avec les GAFAM.

Dans ce contexte, comment la France et l’Europe peuvent concurrencer les géants américains et chinois ? Tout d’abord, la culture européenne du numérique pourrait être celle qui instaure l’utilisation de systèmes d’exploitation et de logiciels libres, comme Linux, et promeut un Internet de l’entraide et du partage. Elle pourrait également voter des lois anti-trust plus restrictives qui limiteraient les monopoles, comme le font les États-Unis, en limitant le niveau de certains marchés à 70%, voire moins, pour une seule entreprise. L’Europe pourrait aussi stimuler la création de plateformes collectives, semblables à celles que l’on connaît, dont les services seraient offerts en tant que service public, et sans exploiter les données personnelles à des fins commerciales. L’Europe pourrait enfin promouvoir le concept « d’Etat-plateforme » pour faciliter la relation du citoyen à l’administration d’une part, puis constituer une réponse au capitalisme de plateforme d’autre part. Son but serait de créer un nouveau modèle de société qui faciliterait les échanges ainsi que la production de biens et de services, tout en stimulant les partenariats avec le secteur privé. Là aussi l’Europe pourrait constituer une aide précieuse. Elle pourrait, par exemple, doter les entreprises de l’argent nécessaire à la recherche et au développement de nouvelles technologies en mutualisant entre les pays membres les sommes nécessaires pour concurrencer les États-Unis et la Chine dans les domaines clés du futur que sont l’intelligence artificielle, les superordinateurs, les nanotechnologies et l’informatique quantique.

La nationalisation des données personnelles pour mieux les protéger n’est plus un tabou aujourd’hui, alors que leur valorisation financière interroge de plus en plus au sein de la société. Qui profite réellement de leur monétisation automatisée par l’intelligence artificielle ? Les législations françaises et européennes sont-elles suffisantes pour apporter les réponses nécessaires aux préoccupations des citoyens ? Les différents scandales observés ces dernières années sont de nature à faire de la protection de nos données un sujet majeur du débat politique à l’avenir, alors qu’un vrai clivage entre la gauche et la droite se met actuellement en place sur ce sujet.

Références

(1)https://www.ladn.eu/tech-a-suivre/christopher-wylie-cambridge-analytica-menaces-democraties/

(2)https://www.larevuedudigital.com/tiktok-veut-rassurer-leurope-en-hebergeant-localement-ses-donnees/

(3)https://www.lopinion.fr/economie/la-californie-envisage-daccorder-un-dividende-aux-internautes-sur-leurs-donnees-personnelles

(4)https://www.generationlibre.eu/wp-content/uploads/2018/01/2018-01-generationlibre-patrimonialite-des-donnees.pdf

(5)https://www.journaldunet.com/management/direction-generale/1497101-revenu-universel-par-la-donnee-10-raisons-pour-un-espoir-social/

(6)Thomas Jamet, Florian Freyssenet et Lionel Dos Santos De Sousa. « Data démocratie, être un citoyen libre à l’ère du numérique ». Editions Diateino (2022).

(7)https://www.solutions-numeriques.com/donnees-ue-usa-max-schrems-juge-tres-probable-une-nouvelle-action-en-justice/

Lire aussi...

Contrainte ou consentement, quelques réflexions sur la définition pénale du viol
« Favoriser la mixite sociale et scolaire » Entretien avec la sénatrice Colombe Brossel
Mariage dès 9 ans en Irak : Quand la loi de Dieu s’impose, les droits des femmes reculent
Situation au Soudan : Nous ne pouvons pas continuer à baisser les yeux
Un tout petit effort pour ne rien rater …

Inscrivez-vous à notre newsletter