Comment l’intelligence artificielle va accélérer la concentration des richesses et accroître les inégalités

L'État et les grandes transitions

Comment l’intelligence artificielle va accélérer la concentration des richesses et accroître les inégalités

Le succès de ChatGPT a représenté une nouvelle étape dans la démocratisation et le perfectionnement de l’intelligence artificielle. En rendant l’économie toujours plus dépendante à l’intelligence artificielle, ne risque-t-on pas d’avantager les pays riches et les Big Tech, seuls capables d’investir les sommes nécessaires à son perfectionnement ? Et en entrant en concurrence directe avec le travail fourni par les pays qui disposent d’une main d’œuvre peu ou pas qualifiée, l’intelligence artificielle ne va-t-elle pas accélérer la concentration des richesses et accroître les inégalités ?
L’avènement d’une nouvelle société digitale

Pour répondre aux enjeux de continuité opérationnelle pendant la pandémie de Covid-19, nous avons accéléré soudainement la digitalisation de l’économie et plus généralement celle de notre société. Les outils numériques, plus performants, se sont diffusés largement dans les entreprises et au sein de la population, permettant ainsi d’organiser le télétravail à l’échelle d’un pays tout entier. Selon une étude (1) réalisée par le Ministère du travail, de l’emploi et de l’insertion sur l’activité professionnelle des Français pendant le premier confinement, 70% des actifs ont télétravaillé au moins partiellement quand 45% d’entre eux ont télétravaillé à temps complet.

Plusieurs secteurs d’activité ont également profité de cette accélération de la digitalisation. Le premier étant celui de la télémédecine, qui n’avait jamais réellement décollé en France. Il a vu le nombre des consultations à distance faire un bond historique en 2020. Ainsi, selon la CNAM (2), plus de 19 millions d’actes médicaux remboursés ont été réalisés, avec un pic de 4,5 millions de téléconsultations en avril 2020, contre seulement 40 000 en février 2020. Aujourd’hui, la télémédecine est en voie de généralisation.

Autre secteur d’activité ayant tiré son épingle du jeu depuis 2020, celui des loisirs numériques, alors que la culture souffre encore des suites de la crise sanitaire. Les plateformes de streaming ont vu le nombre de leurs abonnés augmenter de façon fulgurante ces trois dernières années. Les six plus connues d’entre elles cumulent aujourd’hui près d’un milliard d’abonnés à travers le monde. En France, leur succès est tel qu’il a poussé le gouvernement à revoir la chronologie des médias, ce système spécifiquement français qui permet de programmer l’exploitation des films en salles avant leur diffusion à la télévision et sur les plateformes.

Plus discrètement, les Français ont également plébiscité les jeux vidéo. Selon un sondage réalisé par le Credoc, à la demande du ministère de la Culture, la France comptait 53% de joueurs pendant le premier confinement contre 44% en 2018. Cette augmentation a concerné toutes les catégories sociales qui portent désormais un regard plus positif sur cette pratique culturelle. 

Cette accélération de la digitalisation s’inscrit dans un mouvement plus ancien entamé au milieu des années 90 avec l’arrivée d’internet. Cette révolution technologique, qui n’a pas fini de produire ses effets et d’influencer nos comportements, a non seulement modifié notre façon de consommer, mais elle a aussi transformé en profondeur nos systèmes économiques. Plus récemment, la digitalisation a connu une étape de développement majeure avec l’apparition de nouveaux empires numériques globalisés comme les GAFAM (3), les NATU (4) et leurs équivalents chinois, les BATX (5). Mais pour continuer à croître, ces géants technologiques ont besoin d’une ressource essentielle que nous avons tacitement accepté de céder : nos données personnelles. Selon l’article 4 du RGPD (6), les données personnelles peuvent être « un nom, un numéro d’identification, des données de localisation, un identifiant en ligne, (…) un ou plusieurs éléments spécifiques propres à son identité physique, physiologique, génétique, psychique, économique, culturelle ou sociale ». Les plateformes qui utilisent nos données personnelles, nous les connaissons bien. Elles sont désormais partout et elles nous accompagnent dans les actes de notre vie quotidienne : elles nous permettent de regarder une série, d’écouter de la musique, de faire nos courses, de partir en vacances ou encore de trouver l’amour. 

En plus de nos données personnelles, les plateformes sont également dépendantes des algorithmes d’intelligence artificielle, véritable bras armé de ce nouveau capitalisme et indispensables pour monétiser nos données à des niveaux inédits. Pour répondre le plus efficacement possible à nos requêtes, les plateformes recourent à des algorithmes de plus en plus puissants qui apprennent seuls de leurs erreurs. Pour y arriver, les algorithmes d’intelligence artificielle doivent consommer des volumes considérables de données et utiliser des probabilités statistiques. Le plus célèbre d’entre eux, nous l’utilisons tous les jours : il s’agit de PageRank, l’algorithme de Google qui établit un classement des pages web quand nous effectuons une recherche sur son moteur.

Actuellement, les algorithmes sont devenus tellement efficaces qu’ils sont à l’origine d’un enrichissement sans commune mesure de certains acteurs de l’économie. Grâce au perfectionnement de l’intelligence artificielle, les plateformes exploitent toujours plus de données, ce qui rend possible un meilleur apprentissage des algorithmes et la création de nouveaux services qui recueillent encore plus de données et alimentent ainsi la croissance de leurs revenus. Aujourd’hui, c’est la technique du deep learning (apprentissage profond), sous-domaine du machine learning, qui attire le plus l’attention, tant ses promesses d’efficacité sont nombreuses. Son retour en grâce, on le doit notamment à un Français, Yann Le Cun, chercheur en intelligence artificielle chez Facebook et lauréat du prix Turing en 2019. La technique du deep learning utilise des réseaux neuronaux artificiels, calqués sur ceux des humains, pour obtenir un résultat. Les champs d’applications sont nombreux et concernent de nombreux secteurs comme la médecine, le juridique, la robotique, la sécurité informatique…

Des salariés déjà plus pauvres à cause de l’intelligence artificielle

Avec la démocratisation et le perfectionnement en continu de l’intelligence artificielle, le capitalisme de plateforme va muter, entraînant avec lui l’économie dans une nouvelle ère ou les algorithmes seront devenus une ressource vitale pour toutes les entreprises engagées dans la compétition économique mondiale. En 2022, une étude menée par IBM (7) indiquait que 35% des entreprises sondées utilisaient l’IA et 77% exploraient ses potentialités.

Mais les pays riches, parmi les seuls à pouvoir investir les sommes nécessaires pour innover dans le domaine de l’intelligence artificielle, seront une nouvelle fois favorisés par rapport aux pays pauvres, alors que le cabinet McKinsey Global Institute chiffrait en 2018 à 13 000 milliards de dollars la richesse additionnelle que générerait globalement d’ici à 2030 l’adoption de l’IA. Soit un surplus de croissance de 1,2% par an sur douze ans. Dans une autre étude (8) parue en 2020 et intitulée « Will the AI Révolution Cause a Great Divergence ? », le FMI explique comment les nouvelles technologies, qui se basent notamment sur le développement de l’intelligence artificielle et l’automatisation, risquent à l’avenir d’avantager les pays riches par rapport aux autres pays en orientant les investissements et la création de richesse vers les pays où ces technologies sont déjà maitrisées.

Grâce aux nouveaux gains de productivité qu’elles vont engendrer, le rapport entre le capital et le travail va évoluer au détriment du second, faisant peser de nouvelles menaces sur les pays qui disposent d’une main d’œuvre peu ou pas qualifiée. Comme le notent les auteurs de l’étude, « (…) le capital, s’il est mobile à l’échelle internationale, est tiré vers le haut, ce qui entraîne une baisse transitoire du PIB dans le pays en développement ». Ce constat rejoint celui de l’économiste Gilles Saint-Paul qui a échafaudé pour le compte du CNRS en 2018 six scénarios (9) d’un monde sans travail à cause de l’automatisation et de l’intelligence artificielle. En préambule, il prévient : « supposons que dans cent ou cent cinquante ans, le travail des humains devienne moins compétitif que celui des robots, peu chers, corvéables à merci et parfaitement acceptés par la population. Dans ce cas, il faut bien comprendre que l’on quitte le régime qui fonctionne depuis la révolution industrielle. Dans celui-ci, la machine-outil améliore la productivité de l’ouvrier sans le remplacer ; cette productivité accrue permet à l’entreprise d’embaucher et d’augmenter les salaires. Finalement, elle profite à l’ouvrier et à la société en général », explique l’économiste.

Mais si la machine travaille seule, grâce au recours à l’intelligence artificielle, elle entre directement en concurrence avec le travailleur humain. On passe alors à un régime où le capital se substitue irrémédiablement au travail ; le salaire étant fixé par la productivité des robots et leur coût de fabrication. « Imaginons en effet que vous empaquetez des colis et que vous en faites vingt par heure. Si un robot qui coûte 10 euros de l’heure en fait le double, votre salaire horaire s’élève à 5 euros. ». Pire encore : « si ce robot se perfectionne et passe à quatre-vingts colis de l’heure, votre salaire sera divisé par deux. » Jusqu’à atteindre zéro ? C’est ce que pense Sam Altman, cofondateur de la société OpenAI à l’origine de la création de ChatGPT. En mars 2021, il écrivait sur son blog (10) : « cette révolution va créer une richesse phénoménale. Le prix de nombreux types de travail (qui détermine le coût des biens et des services) tombera à zéro lorsque des IA suffisamment puissantes rejoindront la population active ».

Avec des conséquences que l’on commence déjà à mesurer. Selon un rapport publié en 2021 par le National Bureau of Economic Research (10), l’automatisation et les algorithmes d’intelligence artificielle sont à l’origine de 50 à 70 % des variations des salaires américains depuis les années 80. Un constat partagé par le Forum économique mondial qui note dans un rapport (11) paru la même année que « les revenus réels des hommes sans diplôme universitaire sont aujourd’hui inférieurs de 15% à ce qu’ils étaient en 1980 ». Au cours des quinze dernières années, les plateformes ont concouru activement à ce phénomène négatif. Toujours plus précaire, les emplois qu’elles proposent représentent déjà selon Eurofund plus de 17% de ceux des indépendants en Europe (12).

Les travailleurs de ces plateformes seraient déjà 200 000 en France, selon le Ministère du Travail. Pour tenir leurs objectifs de rendement, les plateformes ont mis en place un management algorithmique qui se traduit par une surveillance renforcée de l’activité des travailleurs et une évaluation quotidienne de leurs performances. Cette “ubérisation” souvent dénoncée par les travailleurs eux-mêmes pose un réel problème de paupérisation des salariés et menace notre modèle social. Dans leur livre “Désubérisation, reprendre le contrôle(13), les auteurs s’interrogent : « ces plateformes ont-elles réellement réinventé le travail en offrant de nouvelles opportunités aux personnes qui en étaient éloignées ou, au contraire, n’ont-elles pas dégradé le travail en créant de nouvelles formes de précarité et des relations de travail altérées ? » Les livreurs ne bénéficient toujours pas de la protection du statut de salarié, n’ont pas le droit au retrait, ne jouissent pas des actions de prévention et des protections de la santé que les employeurs sont normalement tenus de mener. Ils sont également très exposés et très peu protégés face au risque économique.

Une croissance qui creuse les inégalités ? Rien de nouveau sous le soleil du capitalisme mondiale, surtout depuis l’avènement de l’économie du numérique qui a organisé à grande échelle un transfert de pouvoir à son avantage ou les gentilles startups se sont peu à peu transformées en véritables prédatrices sur des marchés où règne la règle du « winner takes it all ». Selon cette dernière, les entreprises ayant réussi à prendre un avantage sur leurs concurrentes se transforment vite en monopoles, entraînant une concentration des richesses sans précédent et l’apparition de multimilliardaires. Ce n’est d’ailleurs pas un hasard si, parmi les dix hommes les plus riches au monde, six travaillent dans la nouvelle économie et le numérique. Le surplus de croissance et de richesse grâce à l’intelligence artificielle et son perfectionnement perpétuel dans les vingt prochaines années devraient d’ailleurs engendrer une nouvelle vague de milliardaires. 

Paradoxalement, c’est le plus souvent sur le capital que portent les réformes les plus ambitieuses, accentuant par ricochet les inégalités. Par exemple en France, l’impôt de solidarité sur la fortune est devenu un simple impôt sur la fortune immobilière, le prélèvement forfaitaire unique a été fixé à 30 % sur les revenus du capital, le taux de l’impôt sur les sociétés a été abaissé de 33% à 25%, les impôts de production ont été diminués de 10 milliards, les règles d’indemnisation du chômage ont été durcis, les APL amputées de 5€… Si toutes ces mesures ont eu un coût budgétaire élevé, privant au passage l’État et les collectivités de ressources nécessaires, elles n’ont pas non plus permis de baisser significativement le taux de prélèvements obligatoires, ce qui représentait le but premier de leur adoption. Ce dernier est passé d’après l’Insee de 44,7 % en 2018 à 44,3 % en 2021. 

Abondance et inégalités seront donc toujours les deux faces d’une même pièce, représentant un véritable casse-tête pour le législateur souvent démuni face à des géants technologiques aux ressources quasi illimitées et qui concurrencent l’Etat jusque dans ses missions régaliennes. En plus d’accentuer les inégalités économiques, l’intelligence artificielle représente une multitude de nouveaux enjeux dont il faut dès aujourd’hui corriger les excès. 

Des solutions existent déjà

Tout d’abord, le système fiscal qui fait la part belle à toutes les solutions d’exemption fiscale des géants technologiques, et qui ne permet pas à l’ensemble de la population de bénéficier pleinement de cette révolution technologique, doit être réformé en profondeur. En Europe, certains pays ont été complices des GAFAM pour minimiser au maximum l’imposition sur les bénéfices des entreprises. Ainsi, le bénéfice sur une vente à un client français ne sera pas imposé à 25%, qui est le taux d’impôt en vigueur en France pour les entreprises, mais à 12,5% si le siège de la société est en Irlande. C’est tout le combat de l’économiste Gabriel Zucman qui milite pour une taxation des entreprises en fonction du lieu où leur chiffre d’affaires est réalisé. Autres pistes : l’instauration d’une taxe spécifique sur le capital ou encore sur les superprofits, à l’instar de la « taxe GAFA » qui n’arrive toutefois pas à dépasser le stade des négociations à l’OCDE.

D’autres solutions émergent dans les débats à gauche pour gommer les excès de la concentration des richesses. Le premier concerne les données personnelles. La solution consisterait à nationaliser nos données utilisées par les entreprises. Comment ? En élargissant le rôle de la CNIL pour rassembler et chiffrer l’ensemble des données de la population pour les mettre ensuite à disposition des entreprises, sous certaines conditions.

Pour de nombreux observateurs, cette nouvelle ressource financière permettrait, par exemple, à l’Etat de financer de nouveaux programmes en faveur de la santé ou de l’environnement, de doter d’un capital de départ tous les Français à leur majorité ou encore de mettre en place un revenu universel de base équivalent au seuil de pauvreté mensuel. Un scénario qui n’est pas nouveau mais que l’intelligence artificielle, par son impact supposé sur les emplois et l’accroissement des richesses, rend possible.

Utopique ? Sans doute. Mais même les gourous de la Silicon Valley y croient de plus en plus. Toujours selon Sam Altman (14), l’intelligence artificielle va créer suffisamment de richesse dans les dix années à venir pour permettre de verser 13 500 dollars par an à chaque adulte aux États-Unis. Il propose à l’Etat de créer l’« American Equity Fund » en instaurant sur les grandes entreprises, dont le chiffre d’affaires dépasse un milliard de dollars, une taxe de 2,5% sur leur valeur boursière sous forme d’actions et 2,5% de la valeur de toutes leurs terres en dollars. Ce nouveau revenu serait ensuite versé à chaque citoyen américain de plus de 18 ans.

Au-delà des inégalités économiques, la généralisation de l’intelligence artificielle comporte d’autres carences qu’il faudra corriger. La première d’entre elles est d’ordre démocratique. De sérieux doutes planent sur l’ingérence russe dans la victoire de Donald Trump en 2016. Tout comme des doutes subsistent encore sur la victoire du camp du « Leave » lors du référendum pour ou contre le Brexit. Le scandale de « Cambridge Analytica » a mis en lumière le rôle de cette entreprise spécialisée dans l’exploitation des données dans le résultat final du référendum avec l’utilisation illégale de plus d’un million de comptes Facebook. Ancienne cadre de l’entreprise, Brittany Kaiser a révélé dans son livre « l’Affaire Cambridge Analytica” comment l’entreprise avait créé à dessein des publicités politiques utilisant la peur pour manipuler les masses. Pour y remédier, une meilleure régulation des réseaux sociaux est indispensable, en ciblant en priorité les fakes news, les commentaires haineux et les théories du complot, sans affaiblir la liberté d’expression et le droit à l’information.

La seconde carence est d’ordre sociétal. Les algorithmes que certains réseaux sociaux utilisent ont tendance à reproduire, voire aggraver, le racisme ou encore l’homophobie dans la société en mettant en avant les contenus les plus négatifs. Les propres chercheurs de Facebook l’ont d’ailleurs admis dans un document interne rendu public par le Wall Street Journal (15). « 64% de toutes les adhésions à des groupes extrémistes ont pour origine nos propres outils de recommandations. (…) Nos algorithmes exploitent l’attrait du cerveau humain pour la discorde ». Ces conclusions rejoignent celles déjà dressées par Cathy O’Neil, mathématicienne et data scientist, dans son livre « Algorithmes, la bombe à retardement » (16). Elle y met en évidence les dérives de l’industrie des algorithmes qu’elle qualifie « d’armes de destruction mathématiques qui se développent grâce à l’ultra-connexion, leur puissance de calcul exponentielle (…) et font le jeu du profit ».

Au travers de plusieurs exemples, l’auteure démontre comment les algorithmes reproduisent les inégalités dans les domaines de la justice, l’éducation, l’accès à l’emploi ou au crédit financier. En cause : les biais algorithmiques. Ces derniers apparaissent quand les données utilisées pour entraîner l’intelligence artificielle reflètent les valeurs implicites des humains qui les collectent, les sélectionnent et les utilisent. Autrement dit, les algorithmes ne nous libéreraient pas d’idéologies racistes ou homophobes, d’opinions nocives ou de préjugés sexistes… Au contraire, elles nous y enfermeraient !

Comment se prémunir de ces biais ? Cathy O’Neil semble avoir trouvé la solution. Elle milite pour la réalisation d’audits algorithmiques indépendants. Elle a même fondé son propre cabinet spécialisé dans ce domaine. De leur côté, les Etats pourraient rédiger des lois obligeant les entreprises qui réalisent un certain chiffre d’affaires à soumettre leurs algorithmes à une batterie de contrôles pour déceler d’éventuels biais et les “réparer”.

Enfin, la troisième carence est environnementale. Les algorithmes sont une nouvelle source d’exploitation des ressources, de pollution et d’émission de CO2. Selon les travaux de chercheurs du MIT, l’entraînement d’un modèle d’intelligence artificielle peut générer environ 282 tonnes d’équivalent CO2, soit cinq fois plus qu’une voiture américaine durant tout son cycle de vie. Plus globalement, le secteur numérique représente déjà à lui seul près de 4% des émissions totales de gaz à effet de serre. Des solutions existent pourtant pour diminuer l’empreinte écologique de l’intelligence artificielle : limiter le nombre de calculs et donc la consommation énergétique des algorithmes, utiliser une électricité décarbonée lors de leur apprentissage et généraliser les « green data centers », créer de nouveaux processeurs moins énergivores…

Pour finir, j’ai laissé à l’intelligence artificielle ChatGPT le soin d’écrire la conclusion de cet article, après l’avoir nourri avec plusieurs données essentielles pour sa compréhension des enjeux liés à la concentration des richesses et à l’accroissement des inégalités. J’ai décidé de mettre des guillemets à sa prise de parole, comme s’il s’agissait d’une personne à part entière.

Selon elle, « bien que l’intelligence artificielle puisse offrir des avantages et des opportunités pour l’ensemble de la société, il est de plus en plus évident qu’elle va accroître les inégalités et accélérer la concentration des richesses. Les entreprises et les individus les plus riches et les mieux équipés pour exploiter les avancées technologiques bénéficieront des avantages de l’IA, tandis que ceux qui n’ont pas les moyens de suivre le rythme seront laissés pour compte. Cette disparité pourrait entraîner une fracture sociale et économique de plus en plus importante et mettre en danger les perspectives d’un développement durable et équitable. Il est donc impératif que les gouvernements et les organisations travaillent ensemble pour élaborer des politiques et des initiatives qui garantissent que les avantages de l’IA soient distribués de manière équitable et que les inégalités soient réduites plutôt qu’accentuées. »

Références

(1)https://travail-emploi.gouv.fr/actualites/l-actualite-du-ministere/article/teletravail-resultats-d-une-etude-sur-l-activite-professionnelle-des-francais

(2)https://www.mutualite.fr/actualites/19-millions-nombre-de-teleconsultations-remboursees-par-lassurance-maladie-en-2020/

(3)GAFAM : Google, Amazon, Facebook, Apple et Microsoft

(4)NATU : Netflix, Airbnb, Tesla et Uber

(5)BATX : Baidu, Alibaba, Tencent et Xiaomi

(6)https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre1

(7)https://www.lesnumeriques.com/pro/pourquoi-l-intelligence-artificielle-redevient-la-priorite-des-geants-de-la-tech-a206335.html

(8)https://www.imf.org/en/Publications/WP/Issues/2020/09/11/Will-the-AI-Revolution-Cause-a-Great-Divergence-49734

(9)https://lejournal.cnrs.fr/articles/six-scenarios-dun-monde-sans-travail

(10)https://moores.samaltman.com

(11)https://fr.weforum.org/reports?year=2021#filter

(12)http://www.senat.fr/rap/r19-452/r19-452_mono.html

(13)https://editionsdufaubourg.fr/livre/desuberiser-reprendre-le-controle

(14)https://moores.samaltman.com

(15)https://www.wsj.com/articles/facebook-knows-it-encourages-division-top-executives-nixed-solutions-11590507499

(16)https://www.lemonde.fr/pixels/article/2018/11/07/cathy-o-neil-les-algorithmes-exacerbent-les-inegalites_5380202_4408996.html

Lire aussi...

Huit ans après le référendum, le Royaume-Uni et l’Europe à l’aube des élections 2024
La Moldavie et le projet européen
Entretien avec l’ambassadeur de France en Moldavie
La faillite intellectuelle d’Emmanuel Todd (2/2)
The Golden Notebook (Le carnet d’or) de Doris Lessing

Faut-il nationaliser nos données personnelles pour les protéger ?

Le Retour de la question stratégique

Faut-il nationaliser nos données personnelles pour les protéger ?

Nos données personnelles enrichissent les géants technologiques et font triompher le capitalisme de plateforme. Depuis quelques mois, un nouveau débat émerge : faut-il nationaliser nos données pour les protéger ? Cette protection est devenue un enjeu majeur de société alors que leur monétisation en fait le pétrole du XXIème siècle. Selon Facebook, chaque utilisateur européen lui rapporte tous les ans 32 euros de revenus publicitaires. Une vraie mine d’or. Pourtant, l’exploitation de nos données par l’intelligence artificielle et la création de richesse qui en résulte ne profitent pas aux citoyens, bien au contraire, alors que le marché de la don-née en Europe est estimé à plus de 1000 milliards d’euros. Une situation qui oblige à nous interroger sur notre souveraineté numérique et à reposer la question de l’exploitation de nos données dans un sens plus politique.
Trois modèles différents de société numérique basés sur l’exploitation des données personnelles

Une nouvelle société digitale, construite sur un modèle économique et social inédit, émerge actuellement. Elle trouve son origine dans l’accélération de la digitalisation de l’économie entamée avec l’arrivée d’internet dans les années 90. Tous les secteurs de l’économie et de la société sont désormais concernés par cette révolution, caractérisée par une montée en puissance des plateformes de services, qui utilisent nos données personnelles, et l’intelligence artificielle pour s’enrichir. En trente ans seulement d’existence, trois modèles différents de société numérique sont apparus.

Le premier est américain. Pour s’imposer, il a besoin d’utiliser les capacités d’innovation des entreprises, mais aussi d’exploiter la puissance de l’imaginaire et du récit entourant leurs créateurs. Le second modèle est chinois. Il mise tout sur le capitalisme de surveillance (crédit social, reconnaissance faciale…) pour assurer la stabilité de son parti/Etat. Enfin, le troisième modèle est européen. Depuis trois décennies, le vieux Continent subit une « colonisation » technologique. Il réagit principalement en protégeant ses citoyens avec des mesures comme le désormais célèbre Règlement Général sur la Protection des Données (RGPD), faisant de la souveraineté numérique une question majeure du débat en Europe et plus particulièrement en France ; bien plus qu’aux USA ou en Chine.

La stratégie européenne s’explique par les nombreux scandales liés à l’utilisation licite des données personnelles des utilisateurs des plateformes, à l’international mais aussi en France. Depuis 2013 et les révélations d’Edward Snowden, il est de notoriété publique que l’Agence Nationale de Sécurité américaine, la NSA, a massivement collecté et détenu des données personnelles de citoyens américains et étrangers. En 2016, de sérieux doutes ont plané sur l’ingérence du pouvoir russe dans la victoire de Donald Trump après que des manipulations pour influencer les résultats du vote ont été mises en évidence sur Facebook. Tout comme des doutes subsistent encore sur la victoire du camp du « Leave » lors du référendum pour ou contre le Brexit.

Le scandale de « Cambridge Analytica » a mis en lumière le rôle de cette entreprise spécialisée dans l’exploitation des données dans le résultat final du référendum, avec l’utilisation illégale de plus d’un million de comptes Facebook et la diffusion de publicités politiques utilisant la peur pour manipuler les utilisateurs. Au total, ce sont plus de 87 millions de données qui ont été utilisées à des fins électorales par l’entreprise londonienne. Dans une interview(1) à L’ADN, le lanceur d’alerte Christopher Wylie, à l’origine de la révélation du scandale, expliquait en septembre 2020 que “tout est en germe pour une nouvelle affaire Cambridge Analytica.

En France, d’autres scandales ont fait la Une des médias. Le premier concerne la plateforme « Health Data Hub » recensant les données médicales des Français, d’une ampleur inédite et officialisée par la loi santé du 24 juillet 2019. Toutes les informations liées aux actes remboursés par l’assurance-maladie, mais aussi celles des hôpitaux, des centres spécialisés ainsi que celles du dossier spécialisé partagé des patients y sont stockées. L’hébergement de cette mégabase, ouverte aux chercheurs et aux informaticiens, a  été confiée sans appel d’offres à Microsoft, un acteur américain, laissant de nombreuses interrogations quant aux lacunes de la France en matière de souveraineté numérique. Une situation d’autant problématique que l’accès aux informations aurait pu être autorisé à des acteurs privés alors que ces dernières étaient stockées à différents endroits sur le globe (Pays-Bas notamment).

Alertée par la situation, une quinzaine d’associations a saisi le Conseil d’Etat. En 2022, l’Etat a retiré auprès de la CNIL sa demande d’autorisation qui était pourtant une condition indispensable pour que le Health Data Hub fonctionne de manière opérationnelle. Encore plus récemment, l’application StopCovid a également été dénoncée par de nombreuses associations. Parmi les critiques formulées, il y avait notamment celle de la collecte des données personnelles de ses utilisateurs. Le 15 juin 2020, dans un article publié par Mediapart, le chercheur en cryptologie de l’Inria, Gaëtan Leurent, indiquait que les données collectées étaient plus nombreuses que ce qui était prévu initialement ; bien plus que la version de l’application validée par la CNIL.

Les données personnelles sont devenues une denrée stratégique et indispensable pour de nombreux secteurs de l’économie comme la banque ou encore les télécommunications. A tel point qu’un retour en arrière semble impossible et provoquerait même un choc sans précédent sur notre économie. Le marché de la data était estimé en 2020 à plus de 1000 milliards d’euros rien qu’en Europe, alors qu’en parallèle le vol de données est en passe de devenir la nouvelle criminalité de masse du XXIème siècle. Entre 2021 et 2022, le nombre de rançongiciels a augmenté de plus de 300 % pour atteindre un montant de 456,8 millions de dollars, touchant aussi bien les hôpitaux, les petites comme les grandes entreprises.

Toujours en 2022, la CNIL a prononcé 21 sanctions pour un montant total de 101,2 millions d’euros. Depuis l’entrée en vigueur du RGPD, plus de 2,5 milliards d’euros d’amendes ont été versés à l’Union européenne. A la première place des plus fortes amendes infligées on retrouve Google pour un montant de 250 millions d’euros, loin devant les autres géants technologiques que sont Méta et Microsoft qui ont écopé chacun d’une amende de 60 millions d’euros.

Cette situation inédite est pourtant prise en compte par le législateur depuis 2016 et la première loi dite « Lemaire » qui prévoyait une protection accrue pour les données personnelles des internautes. Mais c’est la loi relative à la protection des données personnelles de 2018 qui marquera une montée en puissance dans la protection des citoyens. Elle adapte la loi « Informatique et libertés » du 6 janvier 1978 au « paquet européen de protection des données » qui comprendra le désormais célèbre Règlement général sur la protection des données (RGPD), directement applicable dans tous les pays européens au 25 mai 2018.

Pour mieux protéger les données utilisés, des solutions innovantes sont explorées par certains pays. La première d’entre elles consisterait à imposer aux services de cloud, comme ceux utilisés par les GAFAM, d’être stockés dans des datas centers situés dans le pays d’émission des données. En 2018, afin de se conformer à la loi chinoise sur la cybersécurité, Apple s’est vu imposer le transfert de toutes les données des utilisateurs de l’iCloud chinois à un partenaire local.

Selon l’association professionnelle « The Information Technology Industry Council », une douzaine de pays s’est engagée comme la Chine à la géolocalisation des données de leurs concitoyens. C’est la voie empruntée par l’application chinoise TikTok, alors que les menaces d’interdiction pèsent de plus en plus sur elle. Ses dirigeants viennent de décider le stockage des données de ses 150 millions d’utilisateurs européens dans trois data centers situés en Irlande et en Norvège. Dans une communication en date du 8 mars dernier (2), Théo Bertram, vice-président de l’application, précisait les contours du projet « Clover » censé rassurer les autorités américaines et européennes. « Nous commencerons à stocker localement les données des utilisateurs européens de TikTok cette année, et la migration se poursuivra jusquen 2024 (…) Une fois achevé, ces trois centres seront le lieu de stockage par défaut des données des utilisateurs européens de TikTok. Ils représentent un investissement annuel total de 1,2 milliard d’euros ».

Ce stockage sur les terres européennes sera intégralement vérifié par un prestataire européen tiers de confiance. TikTok s’est également engagé à pseudonymiser les données personnelles ; une technique qui consiste à remplacer les données directement identifiantes (nom, prénom…) par des données indirectement identifiantes (alias…).

Au-delà du débat fondamental sur la protection des données, celui-ci s’est déplacé ces derniers mois sur leur valorisation financière qui échappe totalement au politique et à la société toute entière, accélérant les inégalités de richesse.

Vers une nationalisation des données, synonyme de revenu universel ?

Le 3 novembre 2020, les Américains n’ont pas seulement voté pour élire leur nouveau Président Joe Biden. Ils ont également participé à de nombreux scrutins locaux organisés dans les 3141 comtés des Etats-Unis. L’un des scrutins organisés en Californie portait sur l’opportunité de créer une CNIL locale ou encore de rémunérer les internautes pour l’exploitation de leurs données. 56% des électeurs ayant voté en faveur du texte soumis à référendum, il entrera en vigueur en 2023.

Depuis plusieurs mois, un débat de fond s’installe dans la société américaine quant à la juste rémunération de ce nouveau pétrole que représentent nos données personnelles. En 2019, le gouverneur californien Gavin Newsom proposait déjà le versement d’un dividende digital. « Les consommateurs californiens devraient également pouvoir partager la richesse créée à partir de leurs données », déclara-t-il lors d’une interview (3). Deux ans plus tôt, en 2017, l’État du Minnesota présentait un projet de loi qui obligeait les fournisseurs de services de télécommunications et d’internet à payer les consommateurs pour l’utilisation de leurs informations.

Enfin, lors des primaires démocrates de 2020, le candidat Andrew Yang, créateur du « Data Dividend Project », promettait de rendre à chaque citoyen l’équivalent de 1000 dollars par mois. Après tout, les entreprises de la Silicon Valley ne se gênent pas pour s’enrichir grâce à nos données, alors pourquoi ne partageraient-elles pas le fruit de cette richesse avec nous ?

Cette vision de la monétisation des données est portée en France par le think tank de Gaspard Koenig, Génération Libre. Dans le rapport « Mes data sont à moi » publié en 2018 (4), le think tank propose ainsi l’instauration d’un droit de propriété sur nos données personnelles. « Inspiré par le raisonnement déployé par le chercheur américain Jaron Lanier, lobjectif est de rendre lindividu juridiquement propriétaire de ses données personnelles. Chacun pourrait ainsi vendre ses données aux plateformes, ou au contraire payer pour le service rendu et conserver ses données privées », peut-on lire en introduction du rapport. Vendre ses données. Le mot est lâché ! Sachant que les limites juridiques à cette solution existent et qu’elle n’a été mise en place dans aucun pays dans le monde… Sauf chez Amazon qui a proposé à certains clients du service Prime de les rémunérer pour avoir accès à leurs données de navigation. Les volontaires se voient ainsi verser la somme de 2 dollars par mois. Une paille !

Pourtant, une autre stratégie est possible. Elle est même évoquée dans le rapport de Génération Libre. Elle repose sur une nationalisation des données à laquelle s’ajouterait la création d’une « agence nationale (…), rassemblant, mutualisant et chiffrant lensemble des données de la population, pour les mettre ensuite à disposition, sous certaines conditions, des entreprises les mieux à même de les utiliser ». Une stratégie que le think tank ne préconise pas. « Une telle mainmise de lEtat sur nos données créerait une bureaucratie diamétralement opposée à la culture de lInternet, et donnerait au pouvoir central des moyens de contrôle extravagants ».

Peut-être. Mais à la question de l’exploitation et la rémunération de nos données, il existe donc une réponse qui s’inscrit dans une logique plus égalitaire que celle proposée par les libéraux ; une solution qui n’accentuerait pas les inégalités, avec d’un côté les plus riches qui auraient les moyens de protéger leurs données, et de l’autre côté les plus pauvres incités à vendre leurs données pour obtenir un gain financier.

Cette solution permettrait une meilleure répartition de la richesse créée par nos données, sachant que leur production infinie ne fait pas baisser leur valeur, au contraire elle l’augmente. Un constat partagé par Badr Boussabat, économiste, auteur et expert en intelligence artificielle (5) : « chaque jour, nous créons des données dont le volume et la valeur augmentent continuellement. Ces deux augmentations ne démontrant aucune corrélation négative, contrairement au constat avec la monnaie. »

De leur côté, les trois auteurs du livre Data démocratie, être un citoyen libre à l’ère du numérique  (6) proposent de créer une Haute Autorité à la donnée chargée de centraliser tous les sujets liés à la donnée en France, mais aussi d’instaurer une redevance nationale de la donnée payée par les sociétés du digital, « à l’image d’une SACEM de la data ». Un rôle que pourrait assurer la CNIL avec pour objectif principal de rassembler et de chiffrer l’ensemble des données.

Pour de nombreux observateurs, cette nouvelle ressource financière permettrait, par exemple, de doter d’un capital de départ tous les Français à leur majorité ou la mise en place d’un revenu universel de base équivalent au seuil de pauvreté mensuel, soit 1102 euros. Cette nouvelle ressource pour l’Etat pourrait également financer de nouveaux programmes en faveur de l’environnement ou de la santé. Un optimisme que ne partage pas tous les économistes. Au vu des ordres de grandeurs, il est très improbable selon eux qu’on puisse tirer un revenu universel significatif à partir de la monétisation de nos données, comme l’avance par exemple Andrew Yang. Pour eux, une imposition des GAFAM dans les règles apporteraient un complément de revenu fiscal significatif, estimé environ à 1 milliard d’euros, mais qui reste limité en comparaison du budget général de l’État.

La nécessité d’une stratégie européenne

Se poser la question de la protection et la valorisation de nos données, c’est aussi s’interroger sur la puissance des entreprises technologiques qui les utilisent et du modèle de société digitale qu’elles imposent, dans un contexte de compétition internationale.

Si la législation européenne s’est améliorée, l’exploitation de nos données personnelles représente de nouvelles menaces qui seront autant de défis pour l’Europe dans les prochaines années. Parmi ceux-ci, le Cloud Act américain, adopté en 2018 et qui permet aux États-Unis d’exploiter librement des données personnelles n’appartenant pas à des citoyens américains, rentre en conflit direct avec le RGPD européen.

Max Schrems, activiste et fondateur de l’organisation à but non lucratif « None of your business », réagissait en octobre dernier (7) sur le nouveau cadre fixé pour le transfert des données personnelles de l’Union européenne vers les Etats-Unis : « nous allons vraisemblablement attaquer le texte en justice ». Une menace prise très au sérieux puisque Max Schrems a déjà réussi à casser deux accords passés en 2015 et 2020 entre les Etats-Unis et l’Europe. Ces derniers visaient notamment à simplifier les échanges de données personnelles entre les deux continents. « La surveillance de masse va continuer (…) A la fin, lopinion de la Cour de justice de lUnion Européenne lemportera et tuera une nouvelle fois cet accord », prédit-il, optimiste.

Pour se prémunir des tentatives de domination sur le marché stratégique de l’hébergement des données en ligne, le couple franco-allemand a lancé en 2020 un embryon de cloud européen prénommé Gaia-X. Si ce dernier permet de réelles avancées, comme l’imposition aux hébergeurs de l’interopérabilité et la portabilité des données, il n’est toutefois pas de taille pour rivaliser avec les GAFAM.

Dans ce contexte, comment la France et l’Europe peuvent concurrencer les géants américains et chinois ? Tout d’abord, la culture européenne du numérique pourrait être celle qui instaure l’utilisation de systèmes d’exploitation et de logiciels libres, comme Linux, et promeut un Internet de l’entraide et du partage. Elle pourrait également voter des lois anti-trust plus restrictives qui limiteraient les monopoles, comme le font les États-Unis, en limitant le niveau de certains marchés à 70%, voire moins, pour une seule entreprise. L’Europe pourrait aussi stimuler la création de plateformes collectives, semblables à celles que l’on connaît, dont les services seraient offerts en tant que service public, et sans exploiter les données personnelles à des fins commerciales. L’Europe pourrait enfin promouvoir le concept « d’Etat-plateforme » pour faciliter la relation du citoyen à l’administration d’une part, puis constituer une réponse au capitalisme de plateforme d’autre part. Son but serait de créer un nouveau modèle de société qui faciliterait les échanges ainsi que la production de biens et de services, tout en stimulant les partenariats avec le secteur privé. Là aussi l’Europe pourrait constituer une aide précieuse. Elle pourrait, par exemple, doter les entreprises de l’argent nécessaire à la recherche et au développement de nouvelles technologies en mutualisant entre les pays membres les sommes nécessaires pour concurrencer les États-Unis et la Chine dans les domaines clés du futur que sont l’intelligence artificielle, les superordinateurs, les nanotechnologies et l’informatique quantique.

La nationalisation des données personnelles pour mieux les protéger n’est plus un tabou aujourd’hui, alors que leur valorisation financière interroge de plus en plus au sein de la société. Qui profite réellement de leur monétisation automatisée par l’intelligence artificielle ? Les législations françaises et européennes sont-elles suffisantes pour apporter les réponses nécessaires aux préoccupations des citoyens ? Les différents scandales observés ces dernières années sont de nature à faire de la protection de nos données un sujet majeur du débat politique à l’avenir, alors qu’un vrai clivage entre la gauche et la droite se met actuellement en place sur ce sujet.

Références

(1)https://www.ladn.eu/tech-a-suivre/christopher-wylie-cambridge-analytica-menaces-democraties/

(2)https://www.larevuedudigital.com/tiktok-veut-rassurer-leurope-en-hebergeant-localement-ses-donnees/

(3)https://www.lopinion.fr/economie/la-californie-envisage-daccorder-un-dividende-aux-internautes-sur-leurs-donnees-personnelles

(4)https://www.generationlibre.eu/wp-content/uploads/2018/01/2018-01-generationlibre-patrimonialite-des-donnees.pdf

(5)https://www.journaldunet.com/management/direction-generale/1497101-revenu-universel-par-la-donnee-10-raisons-pour-un-espoir-social/

(6)Thomas Jamet, Florian Freyssenet et Lionel Dos Santos De Sousa. « Data démocratie, être un citoyen libre à l’ère du numérique ». Editions Diateino (2022).

(7)https://www.solutions-numeriques.com/donnees-ue-usa-max-schrems-juge-tres-probable-une-nouvelle-action-en-justice/

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

Huit ans après le référendum, le Royaume-Uni et l’Europe à l’aube des élections 2024
La Moldavie et le projet européen
Entretien avec l’ambassadeur de France en Moldavie
La faillite intellectuelle d’Emmanuel Todd (2/2)
The Golden Notebook (Le carnet d’or) de Doris Lessing
Un tout petit effort pour ne rien rater …

Inscrivez-vous à notre newsletter