L’intelligence artificielle supplantera-t-elle les femmes au travail ?

Le Retour de la question stratégique

L’intelligence artificielle supplantera-t-elle les femmes au travail ?

L’emploi féminin semble être plus vulnérable face à l’IA que l’emploi masculin, suscitant des préoccupations légitimes quant à l’égalité des sexes sur le marché du travail.
Les conséquences potentielles de l’intelligence artificielle sur l’emploi en général

Au cours de la prochaine décennie, l’impact de l’intelligence artificielle générative (ChatGPT…) sur l’emploi sera significatif et diversifié. Selon les dernières estimations de l’Organisation internationale du Travail (OIT), l’automatisation pourrait potentiellement affecter jusqu’à 50% des emplois existants dans certaines régions du monde. Cette automatisation touchera principalement les emplois impliquant des tâches routinières et répétitives, comme la saisie de données et certaines tâches de production. Toutefois, il est important de noter que l’IA ne se limite pas à la suppression d’emplois, car elle offrira également de nouvelles opportunités. L’OIT estime que d’ici 2030, l’IA pourrait créer jusqu’à 12 millions d’emplois supplémentaires dans les domaines de la gestion de données, de la cybersécurité, et de la maintenance des systèmes d’IA. Toujours selon l’OIT, les implications potentielles de l’IA générative sont toutefois susceptibles de varier considérablement entre les sexes, avec une probabilité de perturbation de l’emploi féminin plus de deux fois supérieure à celle des hommes. Un constat partagé par le cabinet de conseil en stratégie McKinsey qui indique dans une étude parue l’été dernier que, d’ici la fin des années 2020, un tiers des heures de travail aux États-Unis pourraient être automatisées, avec 1,5 fois plus de femmes que d’hommes exposées à l’impact de l’intelligence artificielle. Pour rester pertinents sur le marché du travail, les travailleurs devront s’adapter en acquérant des compétences en numératie(1), en informatique et en résolution de problèmes. Cependant, la manière dont ces changements affecteront les travailleurs dépendra également des politiques gouvernementales et des stratégies des entreprises pour gérer les transitions.

La vulnérabilité des emplois occupés par les femmes

Les emplois traditionnellement occupés par des femmes sont donc les plus exposés à l’automatisation et à l’IA, une réalité confirmée par les données en France et partout dans le monde occidental. Cette vulnérabilité résulte en grande partie de la concentration des femmes dans des secteurs historiquement moins rémunérés et plus susceptibles d’être automatisés. Par exemple, en France, selon l’Institut national de la statistique et des études économiques (INSEE), près de 30 % des femmes occupaient des emplois à temps partiel en 2019, contre seulement 7 % des hommes. Cette disparité dans les types de contrats contribue souvent à la précarité financière des femmes, car les emplois à temps partiel sont généralement moins bien rémunérés et moins stables. De plus, les inégalités salariales persistent en France, avec un écart moyen de rémunération d’environ 25 % en 2020, selon Eurostat. Autrement dit, les femmes gagnent en moyenne 25 % de moins que les hommes pour un travail équivalent. Ces disparités salariales exacerbent la fragilité financière des femmes. De surcroît, les femmes sont davantage susceptibles d’occuper des emplois précaires en France, notamment des contrats à durée déterminée (CDD) ou des emplois temporaires. En 2020, l’INSEE a observé que 88 % des emplois à temps partiel étaient occupés par des femmes, et elles étaient plus nombreuses que les hommes à travailler en CDD. Les femmes sont également fréquemment concentrées dans des secteurs à faible rémunération, tels que les services à la personne et le commerce de détail. Selon l’Observatoire des Inégalités, 84 % des employés dans le secteur de la santé et de l’action sociale sont des femmes, avec des salaires moyens inférieurs à ceux des hommes dans ce domaine. Plusieurs universités renommées s’emploient activement à examiner les interactions entre le genre, l’IA et l’emploi. Par exemple, l’Université de Californie à Berkeley, par le biais de son Centre for Technology, Society & Policy, s’est penché sur l’intersection complexe entre l’IA, le genre et le marché du travail, utilisant des données empiriques pour identifier les écarts de participation et les déséquilibres de rémunération. Leurs recommandations politiques visent à favoriser une plus grande égalité entre les sexes.

L’obstacle des biais de genre dans les données d’entraînement

Un autre facteur crucial à considérer lorsqu’il s’agit de l’impact de l’IA sur l’emploi des femmes est le risque de biais de genre inhérent aux données d’entraînement des systèmes d’IA. Dans ce contexte, les biais font référence à des préjugés ou à des distorsions systématiques qui se manifestent dans les données en raison de discriminations passées ou de stéréotypes de genre. Si ces données contiennent des préjugés existants liés au genre, les systèmes d’IA peuvent perpétuer ces biais et renforcer les inégalités sur le lieu de travail. Les exemples de biais de genre dans les données ne manquent pas. En France, une étude réalisée par le Haut Conseil à l’égalité entre les femmes et les hommes a révélé que les femmes étaient sous-représentées dans les médias, avec seulement 38 % des expert·es interviewé·es dans les émissions d’information en 2018. Cette sous-représentation se traduit par une absence de voix féminines dans la production d’informations et peut influencer la manière dont les systèmes d’IA comprennent et interprètent le rôle des femmes dans la société. Cathy O’Neil, mathématicienne et auteure de « Algorithmes, la bombe à retardement » met en garde contre les conséquences des biais de genre dans les systèmes d’IA. Pour elle, « dans le monde de l’IA, les biais sont comme des miroirs réfléchissant les inégalités profondément enracinées de notre société. Les algorithmes renforcent souvent les préjugés existants au lieu de les atténuer, ce qui peut avoir un impact disproportionné sur les groupes déjà marginalisés. » Autrement dit, lorsque des données historiques sont utilisées pour former des algorithmes de prise de décision, les discriminations passées peuvent être perpétuées, ce qui peut avoir un impact disproportionné sur les femmes et les minorités. Prenons l’exemple d’un algorithme de recrutement qui se base sur des données historiques où les femmes ont été sous-représentées dans certaines professions. Cet algorithme pourrait continuer à favoriser les hommes pour ces emplois, même si les femmes sont tout aussi qualifiées. Non seulement cela perpétue les inégalités existantes sur le marché du travail, mais cela renforce également les stéréotypes de genre qui limitent les opportunités professionnelles des femmes. Il est donc impératif de mettre en place des mécanismes de correction des biais dans le développement des systèmes d’IA. Il est essentiel de veiller à ce que les données utilisées pour l’entraînement soient plus représentatives de la diversité de la main-d’œuvre. Cette approche contribuera à créer des systèmes d’IA plus équitables et à atténuer les inégalités de genre dans le monde du travail.

Le manque de compétences techniques et de formation des femmes

Une autre raison majeure pour laquelle l’emploi des femmes est plus vulnérable à l’IA réside dans le déséquilibre des compétences techniques. On l’a vu, les emplois qui résisteront le mieux à l’automatisation exigent souvent des compétences avancées en informatique, en programmation, en analyse de données et en intelligence artificielle. Malheureusement, les femmes sont encore sous-représentées dans ces domaines, ce qui limite leurs opportunités d’emploi dans des postes liés à l’IA. En France, par exemple, selon le ministère de l’Enseignement supérieur, de la Recherche et de l’Innovation, les femmes étaient largement sous-représentées dans les filières dites STEM(2) en 2020, ne représentant que 27 % des étudiant·es en informatique et 36 % en mathématiques. Cette disparité dans l’accès à l’éducation et à la formation dans des domaines techniques a un impact direct sur la capacité des femmes à accéder à des emplois liés à l’IA, qui requièrent souvent des compétences spécialisées. Pourtant, encourager davantage de femmes à poursuivre des carrières en STEM est essentiel pour réduire cette disparité. L’exemple de la France avec ses initiatives telles que « Elles codent » montre comment des programmes visant à encourager les femmes à s’engager dans les domaines scientifiques et technologiques peuvent avoir un impact positif. Ces initiatives offrent des bourses, des mentorats et des opportunités de formation aux femmes pour les aider à acquérir les compétences nécessaires et à s’épanouir dans ces carrières.

L’influence des normes sociales et culturelles sur les inégalités de genre

Les inégalités de genre dans le domaine de l’intelligence artificielle et de l’emploi résultent aussi des normes sociales et culturelles qui façonnent les attentes et les choix des individus en fonction de leur genre, influençant ainsi les carrières et les opportunités professionnelles. Pendant longtemps, la société a eu des attentes traditionnelles concernant les rôles de genre. Les femmes étaient souvent associées à des responsabilités domestiques, de soins et de soutien, tandis que les hommes étaient considérés comme les principaux pourvoyeurs financiers de la famille. Une étude réalisée par le Pew Research Center a révélé que 50% des Américains estiment que les femmes sont moins bien adaptées aux emplois en technologie. Ces stéréotypes ont influencé les choix de carrière et les aspirations professionnelles des individus. Par exemple, les filles étaient souvent encouragées à poursuivre des emplois dans des secteurs axés sur les soins, tels que l’enseignement, les soins de santé ou le travail social, tandis que les garçons étaient orientés vers des domaines tels que l’ingénierie, la technologie ou les affaires. Ces attentes traditionnelles ont eu un impact significatif sur les choix de carrière et de formation des femmes. Les carrières liées à l’IA et à la technologie sont souvent perçues comme masculines, ce qui peut décourager les femmes de s’engager dans ces domaines. Les données actuelles montrent que les femmes occupent moins de 20% des postes de cadres supérieurs dans les entreprises de technologie aux États-Unis et qu’elles occupent seulement 15% des postes de chercheurs en IA à l’université.

Quelles solutions pertinentes mettre en place ?

L’éducation et la sensibilisation jouent un rôle crucial dans la lutte contre les inégalités de genre dans le domaine de l’IA. Il est impératif de sensibiliser les femmes dès leur plus jeune âge aux opportunités offertes par cette technologie. Les programmes éducatifs, les ateliers et les initiatives de mentorat jouent un rôle central dans cet effort, nécessitant une collaboration entre les écoles, les universités et les entreprises pour encourager davantage de femmes à étudier des domaines liés à l’IA. Cela peut être accompli en mettant en place des programmes de bourses et en fournissant un soutien financier. La lutte contre les biais de genre dans les systèmes d’IA requiert des actions réglementaires volontaristes. Les gouvernements et les institutions doivent élaborer des politiques exigeant la transparence et l’équité tout au long du cycle de vie de l’IA. Cela implique la collecte de données démographiques pour identifier les biais, la création de comités de révision indépendants pour évaluer les systèmes d’IA, et l’établissement de sanctions pour les entreprises ne respectant pas ces normes. Les politiques visant à promouvoir la diversité et l’inclusion au sein des entreprises technologiques doivent également être encouragées et renforcées. Pour atténuer l’impact de l’IA sur l’emploi des femmes, il est essentiel de diversifier les opportunités professionnelles dans le domaine technologique. Cela signifie encourager les femmes à poursuivre des carrières en tant que développeuses de logiciels ou d’algorithmes, mais aussi en tant que leaders, chercheuses, éducatrices et créatrices. Les entreprises peuvent mettre en œuvre des politiques de promotion interne favorisant la diversité aux postes de direction, tandis que les établissements d’enseignement supérieur peuvent développer des programmes encourageant les femmes à explorer divers domaines technologiques. En outre, les employeurs et les gouvernements devraient investir dans des programmes de formation continue pour aider les femmes à acquérir des compétences techniques tout au long de leur carrière. Cela pourrait inclure des programmes de reconversion pour celles qui souhaitent se diriger vers des emplois liés à l’IA, ainsi que des cours de formation en ligne accessibles à tous. Enfin, pour réduire les inégalités, il est crucial de remettre en question les normes sociales et culturelles qui limitent les choix en fonction du genre. Il est essentiel de mettre en avant des modèles de rôle féminins positifs et d’assurer une visibilité accrue des femmes dans ces domaines pour démontrer que les opportunités professionnelles liées à l’IA sont accessibles à tous, indépendamment du genre.

En conclusion, l’essor de l’intelligence artificielle comporte des défis importants pour l’emploi des femmes. Les emplois traditionnellement féminins sont souvent plus vulnérables à l’automatisation, et les femmes sont sous-représentées dans les domaines techniques cruciaux pour l’IA. Les biais de genre dans les données d’entraînement des IA peuvent également perpétuer les inégalités. Pour atténuer ces problèmes, il est essentiel de promouvoir l’éducation et la sensibilisation, d’exiger la transparence et l’équité dans l’utilisation de l’IA, et de renforcer la diversification des carrières technologiques pour les femmes. Les politiques de promotion de la diversité et de l’inclusion sont également cruciales. En résumé, une action coordonnée est nécessaire pour garantir que l’IA bénéficie à tous, quel que soit le genre, et pour créer un avenir professionnel équitable et stable pour les femmes.

Références

(1)Numératie : capacité à utiliser, appliquer, interpréter et communiquer des informations et des idées mathématiques.

(2)STEM est un acronyme en anglais qui désigne les disciplines liées à la science, la technologie, l’ingénierie et les mathématiques. Ces domaines englobent un large éventail de matières et de professions qui sont liées à la résolution de problèmes, à la création de technologies, à l’innovation et à la compréhension des phénomènes scientifiques et mathématiques. Encourager plus de femmes à poursuivre des carrières dans les domaines STEM est important pour favoriser la diversité et l’égalité des sexes dans ces secteurs.

Lire aussi...

Elise Van Beneden : « Anticor est un bien commun dont les citoyens doivent s’emparer »

Entretiens

Elise Van Beneden : « Anticor est un bien commun dont les citoyens doivent s’emparer »

Le vendredi 23 juin dernier, le tribunal administratif de Paris a annulé l’agrément de l’association Anticor créée en 2002 pour lutter contre la corruption et rétablir l’éthique en politique. Une annulation qui constitue selon l’association à « une atteinte grave à la démocratie, ainsi qu’aux libertés associatives ». Où en est Anticor trois mois après la perte de son agrément ? Pour en savoir plus, LTR a rencontré sa présidente, Elise Van Beneden, et son vice-président Paul Cassia.
Le Temps des Ruptures : Pourriez-vous nous expliquer en quoi consiste l’agrément que l’association Anticor a perdu et quelles sont les implications de cette perte pour votre organisation ?
Paul Cassia :

L’agrément anticorruption est le rouage qui manquait à la machine judiciaire pénale. En France, quand on est victime d’un délit, on va porter plainte au commissariat, mais en réalité, en faisant cela, on porte plainte entre les mains du procureur de la République qui est en charge de poursuivre les auteurs présumés d’infractions pénales. En France, le procureur de la République bénéficie de l’opportunité des poursuites ce qui signifie qu’il peut classer sans suite des affaires pénales. Cela ne pose aucun problème en soi, car la victime d’une infraction peut saisir le juge d’instruction si elle souhaite que la procédure continue. Mais en matière de corruption, si nous sommes tous victimes dans les faits, aucun citoyen ne peut se prétendre victime devant un tribunal : le simple citoyen n’a pas d’intérêt à agir contre un élu susceptible d’avoir commis une atteinte à la probité publique. Autre caractéristique du système pénal français : les procureurs de la République, bien qu’ayant le statut de magistrats, ne sont pas indépendants du pouvoir exécutif, car leur carrière – leur nomination, leur évolution, d’éventuelles sanctions – dépend du ministère de la Justice. Et c’est là que la machine se grippe : ceux qui ont le pouvoir de classer sans suite peuvent voir leur carrière réduite à néant s’ils s’attaquent à des proches du gouvernement ou du parti politique en place. C’est le nœud du problème. Cette situation est à l’origine d’un risque intolérable d’impunité. C’est à cause de ce risque que la Justice en 2010, puis le Parlement en 2013, ont donné un pouvoir important à des associations citoyennes, celui de contourner la décision d’un procureur de classer sans suite une affaire politico-financière, en se constituant partie civile. Pour se constituer partie civile, il faut être titulaire du fameux agrément que le Ministère de la Justice rechigne à nous octroyer. La constitution de partie civile consiste à saisir un juge d’instruction, qui est constitutionnellement indépendant donc armé pour au besoin enquêter sur une personnalité politique. Cela ne veut pas dire qu’il ne peut pas subir de pression, mais il ne peut pas perdre son travail pour avoir simplement mis en cause untel ou untel. L’agrément est une arme puissante, citoyenne et démocratique, contre les abus de pouvoir et l’impunité des puissants, ce qui implique évidemment qu’elle doit être maniée avec précaution et discernement. Nous avons perdu cet agrément, pas parce que nous avons manqué de discernement mais parce qu’il a été mal rédigé par son auteur, l’ancien premier ministre Jean Castex. Cela ne nous empêche pas de porter plainte mais cela signifie que nous ne pouvons plus, dorénavant, contourner la décision de classement sans suites d’un procureur. Nous ne pouvons plus nous constituer partie civile. Cela nous fait revenir aux années 2000, dans un contexte où nous ne pouvions pas pallier l’inertie du parquet. 

Le Temps des Ruptures : Vous avez déjà failli perdre votre agrément en 2021. Quelles sont les actions que vous avez mises en place après cette première alerte et pourquoi n’ont-elles pas fonctionné ?
Elise Van Beneden :

L’agrément est octroyé par le Ministère de la Justice pour une durée de trois ans. Nous l’avons obtenu sans problème en 2015 et en 2018. Mais en 2021, la procédure d’agrément a été longue et épuisante. L’association a été mise en cause par le gouvernement car elle refusait de lui donner le nom de ses donateurs, alors même que la CNIL le lui interdisait. Elle a également été mise en cause en interne par des administrateurs sur le motif de manque de démocratie interne. Tout cela est faux bien-sûr, mais ces accusations, amplement médiatisées par leurs auteurs, nous ont mis en difficulté. Toutefois, on dit toujours à Anticor que ce qui ne nous tue pas nous rend plus fort. Le fait est que ces quelques mois de bataille nous ont rendus plus forts. Ils ont fait connaître notre petite association au grand public. Ce petit club de juristes passionnés qu’était Anticor est devenu un contre-pouvoir. Peut-être l’étions nous déjà, mais nous n’en avions pas encore conscience. À travers cette épreuve, nous avons vu s’élever une voix citoyenne puissante. Nous avons aussi compris que pour mener nos combats, nous ne devions avoir aucune faille, pour ne donner prise à aucune critique quelle qu’elle soit. Nous avons donc revu nos fonctionnements, modifié nos statuts, encadré davantage notre vie démocratique, limité les dons des personnes physiques, ceux des personnes morales de droit privé comme de droit public ayant toujours été interdits. Anticor est devenue inattaquable et nous faisons très attention à ce que cela perdure. 

Le Temps des Ruptures : Comment cette décision affecte-t-elle la capacité d’Anticor à agir en justice dans les affaires de corruption actuelles ou futures ?
Paul Cassia :

La perte de notre agrément ne met pas en danger l’existence même des procédures dans lesquelles Anticor a porté plainte ou s’est constituée partie civile. En revanche, elle remet en cause la participation d’Anticor dans de futures procédures puisque sans agrément, il n’est pas possible d’être partie civile. Concrètement, cela nous empêche de demander aux juges d’instruction de faire des actes d’enquête, d’auditionner telle ou telle personne, de remettre aux juges des informations qui nous viennent de lanceurs d’alerte dont nous gardons l’identité secrète. Les procédures suivent leurs cours, mais sans victime pour représenter la voix des citoyens. Cela nous empêche également de jouer un rôle de partie civile à l’audience. En effet, un des aspects de notre travail consiste à plaider à l’audience, faire entendre une voix différente de celle du procureur, qui défend le respect de la loi, et des avocats, qui défendent les personnes mises en cause. Par exemple, lorsqu’un maire a placé un de ses proches à un poste communal, nous expliquons en quoi ce comportement brise le pacte républicain, abîme la confiance des citoyens en leurs élus. Nous expliquons que les citoyens attendent que leurs représentants prennent des décisions dans l’intérêt de la commune et non dans l’intérêt de leurs proches. Nous expliquons que les abus de pouvoir, les baronnies locales, détruisent le vivre ensemble. Nous parlons aussi pour ceux qui auraient dû obtenir ces postes, du fait de leur mérite et du fait que ces traitements de faveur créent des injustices. Nous tenons aussi un discours plus systémique en expliquant que l’égalité d’accès aux emplois publics est un droit qui a longtemps été protégé par l’organisation de concours républicains. Qu’aujourd’hui, par l’effet d’un recours excessif au procédé du contrat, cette égalité d’accès est menacée. Nous plaidons pour les citoyens, pour le bien commun, nous expliquons ce que la corruption abîme, ce qu’elle détruit, les préjudices qu’elle cause au quotidien. 

Le Temps des Ruptures : Pouvez-vous nous donner un aperçu des affaires spécifiques dans lesquelles Anticor est actuellement impliquée et comment cette décision pourrait influencer leur développement ?
Elise Van Beneden :

Il serait trop long de lister toutes les affaires dans lesquelles Anticor est plaignante ou partie civile, nous en avons actuellement 159 au niveau national et 2 à 8 dans chacun de nos 82 groupes locaux. Il y a toutefois des cas de figure différents que nous pouvons expliquer. Dans certains dossiers, nous avons porté plainte, le dossier est actuellement entre les mains d’un procureur de la République. Il peut ouvrir une enquête préliminaire à l’issue de laquelle il peut décider de saisir directement le tribunal correctionnel, ou alors de saisir un juge d’instruction s’il estime que des investigations complémentaires doivent être menées ou, enfin, il peut décider de classer sans suite. Dans cette ultime hypothèse, Anticor ne pourra plus rien faire pour s’opposer au classement sans suite. Le risque est donc que des dossiers politico-financiers connaissent un enterrement de première classe, quand bien même des éléments sérieux auraient justifié que la Justice poursuive les auteurs présumés d’infractions pénales graves.  Dans d’autres dossiers, nous nous sommes déjà constitués partie civile, ce qui signifie qu’un juge d’instruction est déjà saisi. Dans ce cas, seul notre rôle de partie civile est remis en cause, pas l’existence de la procédure. La procédure va continuer, le juge d’instruction va enquêter, à charge et à décharge et rendre une décision. Anticor ne pourra ni apporter des éléments au juge, ni plaider à l’audience, ce qui revient à imposer le silence aux citoyens dans des procédures qui les concernent au plus haut point. Pour les futurs dossiers, tout dépendra de la volonté du gouvernement de renouveler notre agrément afin qu’Anticor puisse continuer à aiguiller la Justice. Nous attendons actuellement une décision suite au dépôt de notre dossier le 23 juin dernier. Si la loi vient un jour à couper le cordon ombilical entre le parquet et le ministère, l’action des associations ne sera peut-être plus nécessaire, mais pour l’instant, elle est essentielle. 

Le Temps des Ruptures : Quel est le contexte politique et juridique qui entoure cette décision, et comment percevez-vous le rôle des associations anticorruption en France ?
Paul Cassia :

Le contexte est très particulier puisque les associations citoyennes de lutte contre la corruption doivent solliciter l’octroi de leur agrément auprès du Ministère de la Justice, c’est-à-dire auprès de l’exécutif. Or, l’exécutif peut se trouver embarrassé ou directement visé par les actions d’une association comme Anticor, ce qui est normal puisque la corruption est un abus de pouvoir. C’est donc dans les lieux de pouvoir que les abus de pouvoir sont possibles et qu’il faut les combattre. Justement, Anticor est partie civile contre plusieurs membres du gouvernement, dont le Garde des Sceaux devant la Cour de justice de la République et contre le secrétaire général de l’Élysée, qui est le « bras droit » d’Emmanuel Macron. Ces affaires mettent en cause des personnes qui comptent parmi les personnages les plus puissants de l’État. Il est donc parfaitement paradoxal qu’une association comme Anticor soit contrainte d’obtenir l’autorisation du gouvernement pour mener à bien ses actions. Il existe des critères pour octroyer l’agrément bien-sûr, mais ces critères sont très vagues et la tentation de l’arbitraire, forte. Le coût de la corruption a été chiffré par la Parlement européen en 2016, à 120 milliards d’euros par an uniquement en France. Il y a d’un côté une reconnaissance officielle de la gravité de la situation, et de l’autre côté, un gouvernement qui accumule les affaires politico-financières et a le pouvoir de faire taire une association comme Anticor, et le fait ! Cela signifie que la lutte anticorruption est entièrement verrouillée par le gouvernement qui peut ne pas adopter de plan pluriannuel de lutte contre la corruption, comme c’est actuellement le cas, sous-financer la Justice anticorruption, ce qui est encore le cas, sanctionner un procureur qui voudrait poursuivre un personnage politique proche du pouvoir, ou encore lier les mains des citoyens qui voudraient saisir un juge indépendant. Cette situation politique est désastreuse et doit mener à une réforme ambitieuse. Parmi toutes les mesures qui font l’objet d’un plaidoyer en accès libre sur le site internet d’Anticor, deux sont particulièrement urgentes. D’abord, il faut augmenter drastiquement les moyens financiers et humains de la Justice en matière de lutte contre la corruption et contre toutes les formes de délinquance économique et financière. Ensuite, il faut libérer les associations anticorruption d’un arbitraire possible du gouvernement en confiant le pouvoir d’octroyer l’agrément à une autorité indépendante comme le Défenseur des Droits. 

Le Temps des Ruptures : Quelles sont les prochaines étapes pour le retour de l’agrément d’Anticor ?
Elise Van Beneden :

Elles sont au nombre de deux. D’une part, nous avons demandé en juin 2023 le renouvellement de notre agrément, et nous attendons la réponse de la Première ministre qui a quatre mois pour prendre sa décision, soit d’ici la fin du mois. D’autre part, nous avons contesté devant le juge d’appel l’annulation de notre agrément de 2021 par le tribunal administratif de Paris le 23 juin 2023. Nous attendons une décision provisoire du juge d’appel d’ici à la fin du mois d’octobre 2023 et une décision définitive en 2024. Dans ce procès, la partie défenderesse officielle est le gouvernement. Mais celui-ci ne défend que mollement notre agrément. Il fait le service minimum ce qui interroge sur la volonté de l’exécutif de voir Anticor continuer ses actions. Nous en revenons toujours au même paradoxe : la volonté officielle de lutter contre la corruption, qui est un fléau pour la démocratie et le désir non assumé du gouvernement de « débrancher » Anticor. Nous attendons de la Première ministre qu’elle joue objectivement le jeu de l’Etat de droit, car les associations de lutte en faveur de la probité publique – au demeurant peu nombreuses – sont devenues d’indispensables contre-pouvoirs citoyens. En représentant l’intérêt général, elles permettent d’éviter que des scandales politiques soient enterrés. Dans ce contexte peu favorable à Anticor, il revient aux citoyens de soutenir l’association, car nous sommes tous, collectivement victimes de la corruption. Nous payons tous les effets de la corruption, en payant plus d’impôts, en bénéficiant de moins de services publics, en subissant des injustices. Anticor est un bien commun dont les citoyens doivent s’emparer en adhérant, en la soutenant, en disant haut et fort qu’ils veulent, eux aussi, une République exemplaire.

Lire aussi...

Justice et intelligence artificielle : l’équation du futur

L'État et les grandes transitions

Justice et intelligence artificielle : l’équation du futur

Au cours de ce siècle, l’utilisation massive des algorithmes va bousculer de nombreux secteurs d’activité, jusqu’au marché de l’emploi. A court terme, le secteur juridique, qui devrait être l’un des plus touchés par la généralisation et le perfectionnement de l’intelligence artificielle, va vivre un véritable moment de bascule historique. Avec une capacité de traitement des données démultipliée, on assiste déjà à une révolution des pratiques dans ce secteur, ainsi qu’à l’apparition de nouveaux métiers. La legaltech, comme on l’appelle désormais, s’organise aussi en France. Elle profite de l’engouement pour l’innovation numérique, alors que les moyens alloués à la Justice sont toujours insuffisants. La France dispose ainsi de trois fois moins de juges par habitant qu’en Allemagne. Dans ce contexte, quel avenir réserve l’intelligence artificielle à la justice ? Comment assurer sa neutralité de traitement ? A l’avenir, doit-on redouter ou souhaiter être jugé par un algorithme ?
Le capitalisme numérique bouscule le secteur juridique

En France, les premiers services juridiques en ligne sont récents : ils ont été créés en 2014 par des startups dont le but est principalement d’apporter une réponse rapide et personnalisée à une question juridique. Depuis, ces services n’ont eu de cesse de se développer, au même rythme que celui des technologies et des algorithmes qui permettent désormais un traitement de masse et une exploitation fine des données juridiques. La justice prédictive, qui repose sur l’exploitation de données et de statistiques basées sur des décisions de justice, est en plein développement grâce à l’intelligence artificielle. Les avantages de cette nouvelle forme de justice sont nombreux. Elle apporte une aide précieuse et facilite le travail des juges, dans un contexte de raréfaction des moyens et d’engorgement des tribunaux. Elle permettrait aussi d’uniformiser le droit et donc de renforcer le principe d’égalité des citoyens devant le droit. Par contre, la justice prédictive n’encourage pas la prise en compte des situations particulières, ni l’émergence de jurisprudences qu’elle risque d’uniformiser. C’est ce que démontre une étude réalisée en 2016 par des chercheurs anglais et américains : « un juge humain prend en considération certains éléments que la machine ne traite pas, issus de son intuition et de sa propre sensibilité. » Pire, la justice prédictive est accusée de porter atteinte à certains droits fondamentaux, comme le droit au respect de la vie privée, la liberté d’expression, la protection des données, ou encore au principe de non-discrimination comme on le verra plus tard.

Cette prise en compte de l’innovation technologique au service des représentants de la loi, mais aussi des justiciables, c’est la promesse de la startup Doctrine, première plateforme d’information juridique dans l’hexagone. A l’origine de sa création en 2016, un simple constat : la difficulté, même pour les professionnels du droit d’accéder simplement aux sources du droit et en particulier à la jurisprudence. Avec le temps, la plateforme a mis en ligne des millions de décisions de justice, avant de créer un moteur de recherche puis d’autres produits permettant d’accéder facilement à l’ensemble des sources du droit. Malgré son développement rapide, son utilisation fait encore débat aujourd’hui parmi les avocats et les magistrats. Après des accusations de typosquatting en 2018, et la supposée utilisation d’adresses mails très ressemblantes à celles de professionnels ou de sociétés existantes pour récupérer des décisions de justice auprès des greffes de différentes juridictions, le Conseil national des barreaux et le Barreau de Paris ont déposé plainte en 2019 contre la startup. A l’origine de leur courroux : l’utilisation des données personnelles des avocats — manipulées à leur insu selon eux — et la constitution d’un fichier dans lequel il est possible de retrouver toutes les décisions de justice et le nom des clients, même ceux dont la procédure est toujours en cours.

Ce débat rejoint au fond celui sur la protection des données personnelles, dans un contexte de fort développement du capitalisme numérique. Jusqu’en 2018, leur utilisation reposait sur un consentement plus ou moins tacite entre l’utilisateur et l’entreprise qui souhaitait les utiliser. Mais les différents scandales associés à leur exploitation ont fait prendre conscience aux utilisateurs que leurs données personnelles font l’objet d’un commerce, très rentable pour certains. Devant la pression citoyenne, l’Union européenne (UE) a créé il y a cinq ans le Règlement général sur la protection des données, plus connu sous l’acronyme RGPD. Ce nouveau règlement s’inscrit dans la continuité de la loi française Informatique et Libertés datant de 1978 renforçant le contrôle par les citoyens de l’utilisation de leurs données. Son premier atout : il harmonise les règles en Europe en offrant un cadre juridique unique aux professionnels. De plus, il permet de développer leurs activités numériques au sein de l’UE en se fondant sur la confiance des utilisateurs. Enfin, en plus du « consentement explicite », les autorités de protection des données peuvent prononcer des sanctions à hauteur de 20 millions d’euros ou équivalentes à 4% du chiffre d’affaires mondial de la société visée et, pour les pousser à agir fermement, elles pourront être saisies par des plaintes collectives. Mais le RGPD, s’il cadre fortement l’utilisation de nos données personnelles, ne les interdit pas : il autorise toute entreprise à les collecter et les utiliser si elle y trouve un « intérêt légitime » (économique, structurel…) et que la poursuite de cet intérêt ne porte pas une « atteinte disproportionnée » aux intérêts des personnes concernées. Depuis la création du RGPD, 5 milliards d’euros d’amendes ont été prononcés par les différentes autorités européennes de protection des données. Très efficace pour inciter les petites entreprises à se mettre en conformité avec la loi, le règlement se révèle toutefois moins efficace concernant les géants de la Tech. En mai dernier, Méta, la maison mère de Facebook, Instagram et WhatsApp a été condamnée à une amende record de 1,2 milliard d’euros par le CNIL irlandais.

Schumpeter au pays des algorithmes

Depuis 2016, Ross travaille pour le cabinet d’avocats américain Baker & Hostetler. Il a plus de 900 collègues qui lui demandent de l’assister dans leur travail au quotidien. Surdoué — il est capable de traiter un milliard de documents par seconde — il est spécialisé dans l’étude des faillites d’entreprises. Ross n’est pas un employé comme les autres, c’est un “avocat robot” doté d’une intelligence artificielle développée par la société IBM, à partir de la célèbre technologie Watson. Son efficacité est telle qu’il vient concurrencer directement les jeunes avocats chargés jusqu’à présent d’assister leurs collègues et de rechercher les documents liés aux questions légales qui se posent. D’autres solutions encore plus efficaces que celles développées par IBM feront leur apparition dans les prochaines années, au fur et à mesure que la technologie se développera et que les algorithmes peaufineront leur apprentissage. D’ailleurs, le modèle GPT-4 développé par OpenAI a réussi au printemps dernier l’examen du barreau aux États-Unis, démontrant que l’IA peut aujourd’hui rivaliser avec les avocats humains. L’intelligence artificielle a réussi 76 % des questions à choix multiples, contre environ 50 % pour le modèle d’IA précédent, surpassant de plus de 7 % le résultat d’un candidat humain moyen.

Avec l’intelligence artificielle, des métiers disparaîtront, des nouveaux feront leur apparition, comme ceux récemment créés pour accompagner le développement de ces nouvelles plateformes : juristes codeurs, juristes data ou encore juristes privacy. Une nouvelle fois, c’est le principe de destruction créatrice si cher à Joseph Schumpeter, célèbre économiste américain du début du XXème siècle, qui fait la démonstration de sa pertinence. Selon lui, les cycles économiques et industriels s’expliquent par le progrès technique et les innovations qui en découlent. De nouveaux emplois viennent ainsi remplacer les anciens devenus obsolètes. C’est ce phénomène que l’on observe actuellement dans le secteur juridique avec l’intelligence artificielle. Un nouveau cycle économique restructurant se met en place et les bouleversements en cours, mais aussi ceux à venir, risquent de s’accélérer. Même si les conséquences de l’automatisation et de l’utilisation de l’intelligence artificielle sur l’emploi sont encore mal connues, quasiment tous les secteurs de l’économie devraient être bousculés par leur généralisation. Selon une étude réalisée par Citygroup réalisée sur la base des données de la Banque mondiale, 57% des emplois de l’OCDE sont menacés. Dans des pays comme l’Inde ou la Chine, ce sont respectivement 69% et 77% des emplois qui risquent d’être automatisés. Sur l’exemple du secteur juridique, d’autres connaissent déjà des changements notables, comme le secteur médical avec une mise en application de l’intelligence artificielle pour établir des diagnostics plus efficaces, ou encore le secteur bancaire et financier avec des algorithmes capables de gérer en masse des ordres d’achat et de vente d’actions de manière automatisée.

Le biais, talon d’Achille de l’intelligence artificielle

Si le secteur juridique doit être l’un des premiers touchés par les bouleversements liés à l’utilisation massive de l’intelligence artificielle, comment être certain que celle-ci se fera sans aggraver les inégalités et reproduire les discriminations déjà présentes dans nos sociétés et, par ricochet, dans les décisions de justice ?

La première à avoir alerté sur les dangers de la surexploitation des données pour nourrir les algorithmes est la mathématicienne Cathy O’Neil. Elle démontre dans son livre “Algorithmes, la bombe à retardement” comment ils exacerbent les inégalités dans notre société. En cause : les biais algorithmiques. Ces derniers apparaissent quand les données utilisées pour entraîner l’intelligence artificielle reflètent les valeurs implicites des humains qui les collectent, les sélectionnent et les utilisent. Autrement dit, les algorithmes ne nous libéreraient pas d’idéologies racistes ou homophobes, d’opinions nocives ou de préjugés sexistes… Au contraire, elles nous y enfermeraient ! Dans ce contexte, quelle valeur apportée à la justice prédictive qui utilise des algorithmes ? Surtout que des précédents existent déjà. En 2016, une enquête de l’ONG ProPublica a mis en évidence l’existence d’un biais raciste dans l’algorithme utilisé par la société Northpointe qui se base sur les réponses à 137 questions d’un prévenu pour évaluer son risque de récidive. Ses concepteurs affirmaient pourtant ne pas prendre directement en compte ce « critère ». Toujours selon l’ONG, le logiciel avait largement surévalué le risque de récidive des Afro-Américains, qui se sont vus attribuer un risque deux fois plus important que les Blancs. A l’origine de cette situation, un codage mathématique reposant sur une interprétation des données et des choix qui sont eux bien humains.

Alors, comment se prémunir de ces biais ? Quelle stratégie la legaltech peut-elle mettre en place pour rendre vraiment neutre la technologie ? Cathy O’Neil semble avoir trouvé la solution. Elle milite depuis longtemps pour la réalisation d’audits algorithmiques indépendants. Elle a même fondé son propre cabinet spécialisé dans ce domaine.

L’intelligence artificielle requiert une réglementation adaptée aux enjeux d’éthique liée à son utilisation. C’est dans ce cadre que la Commission européenne a proposé en 2021 le premier cadre réglementaire la concernant. Elle propose que des systèmes d’IA qui peuvent être utilisés dans différentes applications soient analysés et classés en fonction du risque qu’ils présentent pour les utilisateurs ; les différents niveaux de risque impliquant un degré différent de réglementation. Le 14 juin dernier, les députés européens ont adopté leur position de négociation sur la loi sur l’IA. Les négociations vont maintenant commencer avec les pays de l’Union au sein du Conseil sur la forme finale de la loi. Ce cadre réglementaire fait suite à la publication en 2018 d’une une charte éthique européenne sur l’utilisation de l’IA dans les systèmes juridiques. Celle-ci est composée de cinq principes fondamentaux : assurer une conception et une mise en œuvre des outils et des services d’intelligence artificielle qui soient compatibles avec les droits fondamentaux, prévenir spécifiquement la création ou le renforcement de discriminations entre individus ou groupes d’individus, utiliser des sources certifiées et des données intangibles, rendre accessibles et compréhensibles les méthodologies de traitement des données et, enfin, bannir une approche prescriptive et permettre à l’usager d’être un acteur éclairé et maître de ses choix. Aux USA, où les enjeux liés à l’intelligence artificielle font l’objet d’un intérêt croissant, deux projets de loi bipartisans distincts sur l’intelligence artificielle ont été présentés en juin dernier. Le premier a pour but d’obliger le gouvernement américain à faire preuve d’une transparence totale lorsqu’il utilise l’intelligence artificielle pour interagir avec les citoyens. Cette loi leur permettrait également de faire appel de toute décision prise par l’intelligence artificielle. Le second projet de loi vise quant à lui à créer un nouveau bureau chargé de veiller à ce que les USA restent compétitifs dans la course aux nouvelles technologies, notamment par rapport à la Chine, son grand rival dans ce domaine. D’autres solutions existent également pour lutter contre les biais algorithmiques : l’adoption de principes éthiques qui restent malgré tout difficilement codables ; l’invention d’un serment d’Hippocrate réservés aux datascientists qui prendrait la forme d’un code de conduite comprenant des principes moraux incontournables, etc.

Demain, des « juges-robots » ?

Une fois débarrassés de leurs biais, les algorithmes pourraient-ils modifier la façon dont la justice est rendue dans nos démocraties ? Dans quel contexte sociétal s’inscrirait une utilisation massive de l’intelligence artificielle au service du droit ? Verrons-nous émerger des « juges-robots » pour rendre la justice ? Autant de questions qui posent avant tout celle de la puissance d’exécution et de traitement des ordinateurs actuels.  

A moyen terme, pour nous aider, l’intelligence artificielle devra tout d’abord pouvoir traiter beaucoup de données en un temps record, bien plus rapidement qu’elle ne réussit à le faire actuellement, à l’image de notre cerveau, qui dispose d’une puissance de calcul de 1 zettaflop, ce qui lui permet de réaliser 1 000 milliards de milliards d’opérations par seconde ! Dans un ordinateur, le processeur est la pièce équivalente à notre cerveau. C’est lui qui effectue tous les calculs. Pour y arriver, il travaille sur les données stockées en mémoire, et tout ce que l’on voit à l’écran, sur le réseau ou sur le disque dur, constitue le résultat de ces travaux. Jusqu’à très récemment, les ordinateurs savaient traiter beaucoup de données mais pas suffisamment pour rivaliser avec notre cerveau. Pour obtenir une puissance de calcul inégalée, certains États comme la Chine ou des entreprises comme Google, Intel ou IBM se sont alors tournées vers les supercalculateurs comme Frontier, le plus puissant au monde, qui traite plus d’un milliard de milliards d’opérations par seconde. Mais pour beaucoup d’ingénieurs et d’informaticiens, l’avenir est désormais aux ordinateurs qui utilisent les propriétés quantiques de la matière pour repousser encore plus leurs capacités d’analyse et de traitement. L’informatique quantique repose notamment sur l’un des principes de la physique quantique appelé superposition. Selon cette mécanique, un objet peut avoir deux états en même temps. Ainsi, une pièce de monnaie peut être à la fois pile et face, alors que dans le monde « classique », elle ne peut être que l’un ou l’autre à la fois. Cet ordinateur quantique serait capable de réaliser des opérations sans équivalent et de faire plusieurs calculs à la fois, contrairement aux ordinateurs actuels qui doivent les réaliser les uns après les autres, aussi rapides soient-ils. Ces nouveaux ordinateurs pourraient bien révolutionner de nombreux secteurs industriels en permettant de passer d’une intelligence artificielle faible — celle que nous connaissons finalement actuellement — à une intelligence artificielle plus forte, capable de raisonner presque comme un humain. Les métiers d’avocats, de magistrats et de juges devraient alors disparaître, dépassés par les capacités d’exécution des algorithmes du futur. Il n’est donc pas impossible qu’à long terme des « avocats-robots » défendent leurs clients face à des « juges-robots » dans des tribunaux qui ont évolué vers un format digital. Dystopique ? Sans doute. C’est pourtant la voie empruntée par l’Estonie dont le gouvernement a développé une intelligence artificielle capable de rendre de façon autonome des jugements dans des délits mineurs, dont les dommages sont inférieurs à 7.000 euros. Comment ? Tout simplement grâce à une plateforme en ligne dédiée sur laquelle chaque partie renseigne les données nécessaires aux algorithmes du logiciel pour rendre leur verdict, comme les informations personnelles ou les preuves éventuelles.

En conclusion, l’essor de l’intelligence artificielle dans le secteur juridique est incontestable, apportant des avantages significatifs en termes d’efficacité et d’accessibilité à la justice. Cependant, les préoccupations concernant les biais algorithmiques et la protection des données personnelles exigent une réglementation rigoureuse et des audits indépendants pour garantir l’équité et la neutralité. À long terme, l’idée de « juges-robots » pourrait devenir une réalité, mais elle devra être abordée avec précaution pour préserver les valeurs essentielles de notre système judiciaire. En somme, l’avenir de la justice sera le fruit d’un équilibre entre la technologie et les principes éthiques.

Lire aussi...

Yellowstone : la complexité des enjeux politique américains en série

Culture

Yellowstone : la complexité des enjeux politique américains en série

Depuis ses débuts en 2018, la série télévisée « Yellowstone », est devenue un incontournable du paysage médiatique américain. À première vue, « Yellowstone » peut sembler représenter un point de vue conservateur en raison de certains sujets abordés et de la personnalité virile de ses héros. Cependant, une analyse plus approfondie révèle une série qui transcende les catégories politiques traditionnelles pour offrir un portrait nuancé, mais réaliste, des divisions politiques aux États-Unis et invite à une réflexion plus profonde sur l’Amérique contemporaine.

Depuis ses débuts en 2018, la série télévisée « Yellowstone », qui vient d’achever sa cinquième saison devant plus de 8 millions de téléspectateurs, est devenue un incontournable du paysage médiatique américain. Cependant, ce qui rend cette série vraiment captivante, c’est sa complexité politique. À première vue, « Yellowstone » peut sembler représenter un point de vue conservateur en raison de certains sujets abordés et de la personnalité virile de ses héros. Cependant, une analyse plus approfondie révèle une série qui transcende les catégories politiques traditionnelles pour offrir un portrait nuancé, mais réaliste, des divisions politiques aux États-Unis. Cette série, qui s’inscrit dans la tradition du western moderne, explore les conflits politiques et culturels dans le décor des vastes étendues du Montana, tout en remettant en question les stéréotypes et en invitant à une réflexion plus profonde sur l’Amérique contemporaine.

Une lutte acharnée pour les ressources et le contrôle des terres

Au cœur de « Yellowstone », se trouve une bataille épique pour les ressources et le contrôle du Yellowstone Dutton Ranch, un thème central qui éclaire les complexités politiques de la série. Le personnage de John Dutton, incarné magistralement par Kevin Costner, est le patriarche incontesté de la famille Dutton et incarne une vision classique de la propriété privée et de la tradition. Sa détermination à maintenir le ranch familial, coûte que coûte, est un reflet des valeurs souvent associées à la droite américaine. Il représente l’archétype du propriétaire foncier traditionnel qui défend avec acharnement ses droits de propriété et résiste aux pressions extérieures. Cependant, la série ne se contente pas de présenter John Dutton comme le héros incontesté de cette lutte pour les ressources. Le personnage de Thomas Rainwater, un chef amérindien, apporte une perspective complexe et nuancée à ce conflit. Rainwater incarne une voix en faveur de la préservation de l’environnement et des droits des peuples autochtones, illustrant ainsi les tensions entre la conservation des ressources naturelles et la protection de l’environnement. Une préoccupation que ne partage pas John Dutton, lui qui ira jusqu’à faire sauter à la dynamite un flanc de montagne pour détourner le cours d’une rivière et ainsi empêcher un autre rival, le californien Dan Jenkins, développeur immobilier, d’y avoir accès. En présentant ces deux perspectives « Yellowstone » engage le spectateur dans une réflexion plus profonde sur des enjeux complexes et actuels, tout en évitant de prendre clairement position en faveur de l’un ou l’autre de ces conflits politiques.

La politique locale et la nécessité du compromis

Au cœur de « Yellowstone », les interactions complexes entre la famille Dutton et les autorités locales sont longuement explorées. Cette dynamique politique met en lumière les dilemmes auxquels sont confrontés les responsables politiques locaux qui doivent jongler entre la préservation de la stabilité de la région et les intérêts privés, parfois en étant contraints de faire des compromis difficiles. L’un des personnages clefs de cette thématique est le gouverneur Lynelle Perry, un personnage politique influent, obligée de choisir entre les demandes de John Dutton, , et celles de Thomas Rainwater, le chef amérindien,. Cette situation reflète la réalité politique des régions rurales américaines, où les responsables politiques sont souvent pris entre le désir de favoriser le développement économique local, la protection de l’environnement et les droits des peuples autochtones. La série montre également l’influence significative des entreprises et les lobbys sur la politique locale. le personnage de Dan Jenkins qui tente d’exploiter les terres du ranch pour ses propres intérêts en est un bon exemple. Les relations entre les acteurs économiques, les responsables politiques locaux et les propriétaires fonciers créent un paysage politique complexe où les enjeux économiques, environnementaux et politiques sont étroitement entrelacés.

Le nationalisme et la famille, deux thèmes au coeur de la série

Dans « Yellowstone », deux sujets essentiels se démarquent, chacun apportant une dimension profonde à l’histoire et à la caractérisation des personnages : le nationalisme et la famille. Au cœur de l’intrigue, le nationalisme et le patriotisme américains sont incarnés de manière puissante par certains protagonistes. Ils défendent ardemment leurs valeurs et leur mode de vie, tout en percevant les menaces extérieures comme des atteintes à l’intégrité de l’Amérique et de leur propre vision de la nation. John Dutton, en particulier, incarne ce sentiment. En tant que patriarche du Yellowstone Dutton Ranch, il est prêt à utiliser des moyens légaux et illégaux pour protéger sa terre, sa famille et ses traditions. Cette disposition à tout sacrifier pour défendre ce qu’il considère comme sa patrie personnelle peut être interprétée comme une réflexion sur les divisions politiques aux États-Unis, où le nationalisme peut être utilisé pour justifier des actions extrêmes au nom de la protection de l’identité culturelle et territoriale. Cependant, « Yellowstone » ne se contente pas de glorifier le nationalisme. La série présente également les opposants de John Dutton comme ayant des motivations valables pour leurs actions. Thomas Rainwater lutte pour la justice et les droits de sa communauté, tout en plaidant pour la préservation de l’environnement. Ces personnages ne sont pas dépeints comme des ennemis dénués de raisons valables, mais comme des acteurs engagés qui ont eux aussi une vision profondément patriotique de l’Amérique, mais qui diffère de celle de John Dutton.

La famille et sa place au sein de la société est également un thème abordé. Pour John, la famille est bien plus qu’une simple unité sociale ; elle est le fondement de son identité et de ses convictions. Son attachement profond à ses enfants – même s’il est incapable de le leur montrer – et à la préservation du ranch familial est un élément clé de son caractère. Son obsession de la famille se manifeste parfois de manière extrême, car il est prêt à tout pour protéger son héritage et ses proches, allant même jusqu’à recourir à la violence lorsque cela est nécessaire. Cette vision de la famille en tant que pilier sacré de la vie du patriarche évoque des valeurs conservatrices traditionnelles souvent associées à la droite, tout en ajoutant une dimension personnelle puissante à son personnage. Le conflit entre la protection de la famille et les défis extérieurs est un autre thème récurrent de la série, offrant une réflexion sur l’importance de la famille dans le contexte complexe de la politique et de la société contemporaine.

Un virilisme assumé ?

« Yellowstone » présente un virilisme omniprésent parmi ses personnages masculins, créant ainsi un élément distinctif de la série. Les hommes forts, durs et déterminés, tels que John Dutton et son fils Kayce, sont des figures centrales de la série. Ce virilisme peut sembler, à première vue, rappeler l’archétype traditionnellement associé à la droite politique, où la force physique et la détermination sont valorisées comme des qualités masculines idéales. Située dans les vastes étendues du Montana, où les règles de la frontière semblent encore prévaloir, la série ne fait pas non plus mystère de l’importance des armes à feu dans la vie quotidienne de ses personnages masculins. Elles deviennent des symboles phalliques de pouvoir, de contrôle et de protection dans cet environnement brut et impitoyable. Les conflits sont souvent résolus par la force, que ce soit dans des confrontations violentes entre personnages ou dans la défense du Yellowstone Dutton Ranch. Cette omniprésence des armes à feu et de la violence physique souligne l’aspect sauvage du monde de « Yellowstone », tout en suscitant des réflexions sur la culture des armes aux États-Unis, un sujet politique brûlant dans la société contemporaine. La série pousse ainsi les spectateurs à s’interroger sur la place des armes dans la vie américaine et sur les conséquences de cette culture de la violence sur la politique et la société. Mais « Yellowstone » va au-delà des stéréotypes en présentant une diversité de personnages, chacun avec sa propre interprétation de la masculinité. Par exemple, Jamie Dutton, l’un des fils de John, est un avocat qui adopte une approche plus intellectuelle, progressiste et moins physique de la vie, remettant en question l’idée que la masculinité doit nécessairement être associée à la force physique. Cela reflète la manière dont la série déconstruit les stéréotypes de genre et explore différentes facettes de la masculinité. Un aspect encore plus puissant de cette dynamique est la présence de personnages féminins forts et complexes qui défient les stéréotypes de genre. Beth Dutton, la seule fille de John, incarne une féminité forte et indépendante. Elle est une femme d’affaires avisée, capable de rivaliser intellectuellement et émotionnellement avec n’importe quel homme de la série. Elle incarne la puissance féminine dans un monde souvent dominé par des hommes forts. Monica Dutton, la femme de Kayce, joue également un rôle significatif dans la déconstruction des stéréotypes de genre au sein de la série. Issue d’une culture amérindienne, elle apporte une perspective unique dans « Yellowstone ». Son caractère indépendant et déterminé s’inscrit dans la tradition de sa propre culture, où les femmes sont souvent des piliers de force au sein de leur communauté. Monica est une enseignante dévouée, cherchant à transmettre la sagesse de ses ancêtres aux jeunes générations, tout en équilibrant les défis de sa vie de famille. Son personnage défie le stéréotype de la femme passive et dépendante, montrant que la force féminine ne se limite pas à une seule perspective culturelle ou ethnique. Sa présence met en évidence l’importance de la diversité dans la représentation des femmes à l’écran et renforce l’idée que les qualités traditionnellement associées à la masculinité peuvent également être valorisées chez les femmes. En présentant cette diversité de personnages masculins et féminins, « Yellowstone » dépeint une vision plus complexe et nuancée de l’identité et de la masculinité, montrant que la force et la détermination ne sont pas l’apanage exclusif d’une orientation politique ou d’un genre. Cette représentation met en évidence l’importance de la diversité et de la nuance dans la caractérisation des personnages, contribuant ainsi à enrichir la profondeur de la série sur le plan politique et socioculturel.

La représentation de la diversité culturelle

La diversité culturelle dans « Yellowstone » dépasse largement le simple décor de l’intrigue et les personnages. Elle constitue un élément fondamental qui enrichit la profondeur de la série et lui confère une dimension politique et culturelle cruciale. Au cœur de cette diversité se trouve la nation amérindienne Broken Rock, dont les interactions complexes avec les Dutton et le ranch forment un pilier central de la série. Cette représentation authentique d’une communauté autochtone est d’une importance capitale, car elle permet à « Yellowstone » de refléter la véritable mosaïque culturelle de la région du Montana. Les coutumes, les croyances et les traditions des Amérindiens sont présentées de manière respectueuse et fidèle, offrant ainsi au public un aperçu authentique de la richesse culturelle de ces communautés. Cela contribue à sensibiliser les téléspectateurs aux aspects culturels et historiques souvent négligés de la société américaine. Mais « Yellowstone » ne s’arrête pas à la simple représentation culturelle. La série aborde également de manière subtile les blessures historiques et les injustices que les peuples autochtones ont endurées aux États-Unis, en mettant en avant les conflits et les tensions entre la nation Broken Rock et les Dutton. Ces tensions sont le reflet de réalités profondes liées à la colonisation et à la perte de terres, des tragédies historiques qui ont profondément marqué les communautés autochtones. En donnant une voix à la nation amérindienne à travers des personnages tels que Thomas Rainwater et Monica Dutton, « Yellowstone » confronte le public à l’héritage colonial de l’Amérique et à ses répercussions actuelles sur les peuples autochtones. Cela incite les téléspectateurs à réfléchir à l’importance de reconnaître et de rectifier ces injustices historiques, tout en mettant en lumière la nécessité de lutter pour la justice et la réconciliation. Ainsi, la représentation de la diversité culturelle dans « Yellowstone » constitue un vecteur d’éducation et de sensibilisation, offrant une plateforme pour explorer les questions politiques et culturelles cruciales qui persistent dans la société américaine contemporaine.

Une série sur les divisions politiques au sein du peuple américain

L’une des grandes forces de « Yellowstone » réside donc bien dans sa capacité à mettre en lumière les divisions politiques profondes qui traversent la société américaine contemporaine. La série offre un tableau riche et nuancé en présentant une variété d’opinions et de motivations politiques parmi ses personnages principaux. Cette approche permet aux spectateurs de plonger au cœur de la complexité des questions politiques auxquelles sont actuellement confrontés les États-Unis, tout en illustrant les conflits entre conservateurs et progressistes. La famille Dutton elle-même incarne ces divisions internes. John et ses enfants représentent un éventail de points de vue politiques, allant du conservatisme intransigeant à l’ouverture aux idées progressistes, certes dans une moindre mesure. Cette divergence d’opinions au sein de la famille reflète la réalité des différences politiques qui existent au sein de nombreux foyers américains. De plus, la série introduit des personnages extérieurs à la famille Dutton qui incarnent des perspectives politiques diamétralement opposées. L’approche de la série est d’autant plus puissante qu’elle évite de diaboliser les personnages ou les opinions opposées. Elle présente les motivations de chacun de manière crédible, montrant que les acteurs politiques ont des raisons valables pour leurs actions, même si elles diffèrent. Cette approche humanise les personnages et les opinions divergentes, invitant ainsi les spectateurs à réfléchir aux causes et aux conséquences de ces divisions politiques. « Yellowstone » ne peut être pleinement appréciée sans la prise en compte de son contexte temporel, qui correspond en grande partie à l’ère de la présidence de Donald Trump. La série offre un éclairage intéressant sur les conflits politiques qui ont caractérisé cette période, même si elle ne prend pas explicitement position sur la politique américaine contemporaine. L’ascension de Donald Trump à la présidence en 2016 a polarisé la société américaine, divisant le pays sur une série de questions allant de l’immigration à l’environnement en passant par l’économie. Ces divisions politiques ont souvent été marquées par un discours polarisant, caractérisé par des affrontements verbaux virulents et des luttes pour le contrôle du pouvoir. « Yellowstone » capture avec intelligence cet environnement politique tendu. Les luttes pour le contrôle des ressources naturelles, les conflits entre les propriétaires fonciers et les intérêts commerciaux, ainsi que les tensions entre les conservateurs et les progressistes, évoquent les débats politiques d’aujourd’hui et reflètent la réalité politique et socioculturelle des États-Unis à l’ère de Trump, alors que ce dernier souhaite se représenter à l’élection présidentielle de 2024.

En fin de compte, « Yellowstone » offre une exploration complexe de la politique, de la famille et de la société américaine contemporaine. Elle suscite des questions essentielles sur les valeurs, les compromis et les divisions qui façonnent l’Amérique d’aujourd’hui. Cette série captivante invite les spectateurs à réfléchir non seulement aux enjeux politiques, mais aussi à la manière dont la politique interagit avec les aspects les plus intimes de nos vies. Elle nous rappelle ainsi le pouvoir de la fiction pour éclairer et explorer les complexités du monde réel qui nous entoure. « Yellowstone » transcende également les clivages politiques et réunit les Américains de tous bords. Des études ont montré que son audience est divisée presque à parts égales entre les démocrates et les républicains. Comme l’a souligné Keith Cox, président de Paramount Network : « Juste parce que ça se passe dans le Montana et qu’il y a des éleveurs, les gens disent que c’est une série pour la droite républicaine. Mais maintenant, on s’aperçoit que c’est une série pour tout le monde. » Cette capacité à unir un public diversifié reflète l’attrait universel de la série et son pouvoir de transcender les lignes partisanes pour engager des conversations importantes sur l’Amérique contemporaine.

Les 4 premières saisons de Yellowstone sont disponibles sur la plateforme Paramount+.

Lire aussi...

ChatGPT : le diable s’habille-t-il en data ?

L'État et les grandes transitions

ChatGPT : le diable s’habille-t-il en data ?

Depuis quelques semaines, le monde s’émerveille devant les capacités quasi-magiques de l’agent conversationnel ChatGPT. Très puissant, l’outil a été développé par la jeune société OpenAI créée entre autres par Elon Musk qui finira par prendre ses distances avec la startup, inquiet de voir l’intelligence artificielle devenir un « risque fondamental pour la civilisation humaine ». Si ChatGPT représente une nouvelle étape dans l’évolution et la démocratisation de l’intelligence artificielle, au point de concurrencer Google, les conséquences potentielles et avérées sur son utilisation interrogent dans la société jusqu’au législateur. Plus largement, faut-il encadrer les capacités exponentielles de l’intelligence artificielle ? Si oui, quels garde-fous mettre en place pour en limiter les conséquences ?
A l’origine était l’algorithme

Tout a été dit ou presque sur les capacités incroyables de ChatGPT. Mais pour bien les comprendre, il faut remonter à l’origine de l’intelligence artificielle et de la création des algorithmes. Selon Serge Abiteboul, chercheur et informaticien à l’Institut national de recherche en sciences et technologies du numérique (INRIA), « un algorithme est une séquence d’instructions utilisée pour résoudre un problème ». Sans forcément le savoir, nous en utilisons chaque jour quand nous cuisinons à l’aide d’une recette : nous respectons un ordre précis d’instructions pour créer un plat, c’est le principe même d’un algorithme. Si nous remontons le temps, les premiers algorithmes servaient à calculer l’impôt alors que, dans le champ mathématique, le premier remonte à -300 avant notre ère. Nous le devons à Euclide qui inventa l’algorithme qui calcule le plus grand commun diviseur de deux entiers. C’est Alan Turing, considéré comme le père fondateur de l’informatique, qui donna en 1936 le premier support formel aux notions d’algorithmiques avec sa célèbre machine considérée encore aujourd’hui comme un modèle abstrait de l’ordinateur moderne.

A partir du XXème siècle, la grande nouveauté dans l’exploitation des algorithmes a résidé dans l’utilisation d’ordinateurs aux capacités de calculs décuplées. Après les années 50, leur développement s’est accéléré grâce au machine learning ou apprentissage automatique. Cette technologie d’intelligence artificielle permet aux ordinateurs d’apprendre à générer des réponses et résultats sans avoir été programmés explicitement pour le faire. Autrement dit, le machine learning apprend aux ordinateurs à apprendre, à la différence d’une programmation informatique qui consiste à exécuter des règles prédéterminées à l’avance. Pour y arriver, les algorithmes d’intelligence artificielle doivent consommer des volumes considérables de données et utiliser des probabilités statistiques. Les plus célèbres d’entre eux, nous les utilisons tous les jours. Le premier est PageRank, l’algorithme de Google qui établit avec pertinence un classement des pages web quand nous effectuons une recherche sur son moteur. Les fils d’actualité de Facebook ou Twitter sont également de puissants algorithmes utilisés chaque jour par des centaines de millions d’utilisateurs. Les algorithmes sont devenus tellement efficaces qu’ils sont à l’origine d’un enrichissement des plateformes, sans commune mesure avec celui des entreprises d’autres secteurs. Ces plateformes, nous les connaissons bien. Elles nous accompagnent dans les actes de notre vie quotidienne : elles nous permettent de regarder une série ou un film, d’écouter de la musique, de faire nos courses, de voyager, de partir en vacances ou encore de trouver un logement ou l’amour. Grâce au perfectionnement de l’intelligence artificielle, les plateformes exploitent toujours plus de données, ce qui rend possible un meilleur apprentissage des algorithmes. Ce modèle économique basé sur la donnée leur permet de créer des nouveaux services qui recueillent encore plus de données et alimentent ainsi la croissance de leurs revenus. La capitalisation boursière des GAFAM n’a pas fini d’atteindre des sommets dans les années à venir. 

Aujourd’hui, c’est la technique du deep learning – apprentissage profond – sous-domaine du machine learning qui attire le plus l’attention après avoir été boudée pendant longtemps. Son retour en grâce, on le doit notamment à un Français, Yann Le Cun, actuellement chercheur en intelligence artificielle chez Facebook et lauréat du prix Turing en 2019. La technique du deep learning utilise des réseaux neuronaux artificiels, calqués sur ceux des humains, pour obtenir un résultat. Les champs d’applications sont nombreux (médecine, robotique, sécurité informatique, création de contenus…). Ils intéressent beaucoup les géants technologiques qui investissent massivement dans le développement de cette technique. ChatGPT interprète ainsi les données qui l’ont nourri – on parle quand même de plus de 500 milliards de textes et vidéos – en s’appuyant sur des algorithmes d’apprentissage automatique et de traitement du langage, mais aussi sur des techniques d’apprentissage profond. Les réseaux de neurones artificiels utilisés lui permettant ainsi de mieux comprendre les relations entre les mots dans une phrase et de les utiliser plus efficacement pour générer des phrases cohérentes et pertinentes. 

Un succès fulgurant et jamais vu par le passé

L’efficacité de ChatGPT est à l’origine de son succès auprès du grand public. Il n’aura fallu que cinq jours à l’outil développé par OpenAI lancé en novembre 2022 pour atteindre un million d’utilisateurs. Instagram aura mis un peu plus de deux mois pour atteindre ce résultat, Spotify cinq mois, Facebook dix mois et Netflix plus de trois ans. Un succès fulgurant qui a fait vaciller Google de son piédestal, pour le plus grand bonheur de Microsoft, propriétaire du moteur de recherche Bing, qui a investi un milliard de dollars dans ChatGPT. Aux USA, Google représente 88% du marché des moteurs de recherche contre 6,5% pour Bing. En France, Google représente même plus de 90% du marché. Très prochainement, Microsoft va lancer une version améliorée de Bing dopée à l’intelligence artificielle ChatGPT. En seulement 48 heures, plus d’un million d’internautes se sont déjà inscrits sur la liste d’attente pour l’essayer. Une occasion unique pour Microsoft, acteur mineur du marché des moteurs de recherche, de concurrencer Alphabet, la maison-mère de Google. La présentation catastrophique de Bard, le concurrent de ChatGPT, par le vice-président de Google, Prabhakar Raghavan, début février n’a rien arrangé. En une journée, Google a perdu plus de cent milliards de dollars de capitalisation boursière à cause d’une simple erreur factuelle commise en direct par le nouvel outil d’intelligence artificielle. Une bourde reprise en boucle sur les réseaux sociaux et sur les chaînes d’information en continue. Pour la première fois dans son histoire, Google semble menacé par une technologie développée par un concurrent. De son côté, l’action de Microsoft se porte comme un charme depuis le début de l’année. La firme devrait même investir plus de 10 milliards de dollars dans OpenAI dans les années à venir, notamment pour obtenir l’exclusivité de certaines fonctions du chatbot. 

Sommes-nous aux prémices d’une simple recomposition du marché des moteurs de recherche ou le succès de ChatGPT représente-il bien plus que celui d’un simple agent conversationnel ?  Techniquement, l’outil développé par OpenAI ne représente pas une rupture technologique, même si ChatGPT bénéficie de véritables innovations concernant par exemple le contrôle des réponses apportées aux internautes grâce à un logiciel dédié. Ce dernier lui a permis jusqu’à présent de ne pas tomber dans le piège de la dérive raciste comme d’autres intelligences artificielles avant elle. En 2016, l’intelligence artificielle Tay, développée par Microsoft, était devenue la risée d’internet en tweetant des messages nazis, 24 heures seulement après son lancement. Capable d’apprendre de ses interactions avec les internautes, elle avait fini par tweeter plus rapidement que son ombre des propos racistes ou xénophobes très choquants. « Hitler a fait ce qu’il fallait, je hais les juifs », « Bush a provoqué le 11 septembre et Hitler aurait fait un meilleur travail que le singe que nous avons actuellement », « je hais les féministes, elles devraient toutes brûler en enfer. », font partis des pires tweets qu’elle a diffusé avant que son compte, qui comptabilise toujours plus de 100 000 abonnés, ne passe en mode privé. 

Avec ChatGPT, les moteurs de recherche devraient rapidement évoluer pour devenir de vrais moteurs de solution. Plutôt que d’afficher des pages et des pages de résultats pour une simple recherche, les prochains moteurs proposeront directement une réponse précise et argumentée en se nourrissant des sites mis à leur disposition. Un constat qui a récemment mis en émoi plusieurs écoles new-yorkaises qui ont littéralement interdit à leurs élèves d’utiliser l’outil. Une décision qui sera de plus en plus difficile à tenir quand on sait que ChatGPT va rapidement devenir encore plus efficace. La version actuelle dispose de 175 milliards de paramètres alors que la version précédente de ChatGPT n’en possédait seulement que 1,5 milliard. 

Au-delà des capacités exponentielles de l’intelligence artificielle développée par OpenAI, c’est son adoption rapide par les internautes qui impressionne. Accessible à tous et gratuit, l’outil a démocratisé le recourt à l’intelligence artificielle dans de nombreux aspects de la vie quotidienne et professionnelle, ce qui n’avait pas vraiment réussi avant ses principaux concurrents. Selon Microsoft : « le nouveau Bing est à la fois un assistant de recherche, un planificateur personnel et un partenaire créatif. » De quoi aiguiser la curiosité du plus grand nombre et en faire un outil incontournable, sachant que ChatGPT a réussi là où les autres chatbots ont toujours échoué : soutenir une conversation en se souvenant des réponses précédentes que l’internaute lui a fournies. Selon les prédictions de Kevin Roose, journaliste technologique au New York Times et auteur de trois livres sur l’intelligence artificielle et l’automatisation, l’intelligence artificielle pourrait également à terme être utilisée comme un thérapeute personnalisé… Au risque de faire disparaitre le métier de psychologue ?

Et demain ? 

Il semblerait que ce ne soit pas le seul métier que cette intelligence artificielle menace, même si les prévisions dans ce domaine se sont souvent avérées fausses. Dans un premier temps, ce sont les métiers d’assistants qui sont le plus menacés. Depuis 2016, Ross travaille pour le cabinet d’avocats américain Baker & Hostetler. Il a plus de 900 collègues qui lui demandent de l’assister dans leur travail au quotidien. Surdoué — il est capable de traiter un milliard de documents par seconde — Ross est spécialisé dans l’étude des faillites d’entreprises. Il n’est pas un employé comme les autres, c’est un “avocat robot” doté d’une intelligence artificielle développée par la société IBM, à partir de la célèbre technologie Watson. Son efficacité est telle qu’il vient concurrencer directement les jeunes avocats chargés jusqu’à présent d’assister leurs collègues et de rechercher les documents liés aux questions légales qui se posent. D’autres solutions encore plus efficaces que celles développées par IBM feront leur apparition dans les prochaines années, au fur et à mesure que la technologie se développera et que les algorithmes peaufineront leur apprentissage. D’autres secteurs d’activités seront impactés en profondeur par l’efficacité des agents conversationnels. Dans un premier temps, il est plus que probable que les intelligences artificielles d’OpenAI soient déployées dans tous les logiciels de Microsoft, l’entreprise ayant déjà annoncé qu’elle utiliserait DALL-E, générateur d’images et petit frère de ChatGPT, dans PowerPoint pour créer des images uniques. Plus globalement, les métiers créatifs, comme ceux de la communication ou du journalisme, devraient subir une mutation profonde et rapide. Dans les années à venir, ChatGPT sera aussi un outil précieux pour répondre à des commandes vocales ou encore lire des courriels, ce qui sera d’une grande aide pour les personnes souffrant par exemple de cécité. 

Mais l’utilisation en masse de ChatGPT soulève d’autres interrogations, d’ordre moral et éthique. Selon une enquête réalisée par le magazine Time, si le logiciel permettant à l’outil de ne pas sombrer dans le raciste et la xénophobie est si efficace c’est grâce au travail de modérateurs kenyans payés seulement 2 euros de l’heure. Leur quotidien ? Trier les informations pour réduire le risque de réponses discriminantes ou encore haineuses. Certains s’estimeront même traumatisés par le contenu lu pendant des semaines. Un autre scandale interroge la responsabilité de l’entreprise dans le respect du droit d’auteur. Des centaines de milliards de données ont été utilisées pour entrainer l’intelligence artificielle sans s’interroger en amont sur le consentement de tous ceux qui ont nourri ChatGPT. Se pose alors la question de la transparence sur les données et les sources utilisées par l’intelligence artificielle. A l’avenir, elles devront apparaître clairement lors de la délivrance d’une réponse à une question posée. Se pose également la question de la transparence sur les contenus générés par une intelligence artificielle. En effet, à l’heure des deep fakes, il est de plus en plus difficile de distinguer le faux du vrai. Comme le souligne Julien Deslangle, auteur et prospectiviste, dans une tribune (1) mise en ligne sur le site Uzbek & Rica le 10 janvier dernier : « bien sûr, l’Homme n’a pas attendu l’IA générative pour créer et diffuser de fausses informations, mais les algorithmes peuvent le faire de façon plus convaincante, comme en témoignent les hypertrucages (ou deep fakes), ces enregistrements qui peuvent prêter à une personnalité des propos qu’elle n’a jamais tenus. En mars dernier, des pirates ont ainsi diffusé sur des sites ukrainiens un deep fake dans lequel le président Volodymyr Zelensky demandait à ses soldats de déposer les armes face à la Russie… ». 

Le législateur devra alors trouver les réponses adéquates, sans tomber dans la censure systématique, alors que le débat se déplace aujourd’hui sur le terrain de la sécurité. Comme le soulignait Danny Gagné, chercheur à l’Université du Québec à Montréal, sur son blog (2) le 31 janvier dernier : « des chatbots utilisant l’IA peuvent générer, de manière autonome, du code propre à mener des attaques au rançongiciel. Fini le temps où ce type d’entreprise était réservé aux génies de l’informatique : les équipes de recherche de la firme de cybersécurité israélienne Check Point ont démontré que des cybercriminels avec peu ou pas d’expérience étaient en mesure d’utiliser ChatGPT pour encoder des courriels d’hameçonnage contenant des logiciels espions. »

Certains politiques s’interrogent de leur côté sur l’idéologie développée par ChatGPT. A droite, certains estiment que l’outil fait preuve de censure en ne répondant pas expressément à certaines questions ou alors privilégie des réponses qui promeuvent une idéologie très progressiste. Le mercredi 15 janvier, Sonia Mabrouk s’est prêtée une nouvelle fois à l’exercice de l’interview politique sur Europe 1 mais cette fois-ci en interrogeant ChatGPT, dans une mise en scène très travaillée (3), pour savoir si l’intelligence artificielle « a une matrice idéologique, un corpus de valeurs ». A la question sur son objectivité, ChatGPT répond : « je suis programmé pour être le plus objectif possible dans mes réponses. Cependant il est important de noter que les algorithmes qui me contrôlent sont basés sur les données d’apprentissage sur lesquelles j’ai été formé. Et ces données peuvent refléter les biais et les opinions de ceux qui ont créé ces données. Mon objectivité dépend donc de la qualité et de l’objectivité des données d’entrainement qui m’ont été fournies (…) » La journaliste lui demande ensuite de créer un poème féministe, ce qu’il fait, avant de lui demander d’en créer un second antiféministe et misogyne, ce qu’il refuse de faire. La démonstration est implacable : ChatGPT semble répondre, comme le souligne la journaliste, en fonction « de valeurs qui lui ont été inculqués. On vous a dit ce qui était bien ou mal ? » Elle lui posera ensuite des questions sur l’immigration ou encore sur l’identité de genre, dénonçant au passage le « catéchisme de la théorie du genre » soi-disant développé par l’intelligence artificielle. « Ce sont des adeptes du woke qui vous ont inculqués ses valeurs ? » Si les réponses de ChatGPT n’ont pas rassuré la journaliste, une chose est sûre : l’intelligence artificielle est bien de gauche !

Et à plus long terme ? A quoi pourrait ressembler notre vie en cohabitation avec une intelligence artificielle de plus en plus sophistiquée ? Avec – pourquoi pas – le concours de l’informatique quantique et ses capacités hors norme de calcul, l’efficacité de l’intelligence artificielle sera décuplée. Elle accompagnera les citoyens dans leur vie quotidienne en prenant des décisions à leur place. De nombreuses sociétés spécialisées dans la personnification de l’intelligence artificielle verront le jour. Il n’existera plus comme aujourd’hui une intelligence artificielle faible et abstraite, mais des intelligences artificielles paramétrables et ultra-performantes.

Références

(1) https://usbeketrica.com/fr/article/pour-une-obligation-de-transparence-sur-les-contenus-generes-par-l-ia

(2) https://dandurand.uqam.ca/publication/chatgpt-co-le-cote-obscur-de-lintelligence-artificielle/

(3) https://www.europe1.fr/societe/chatgpt-est-il-woke-4167109

Lire aussi...

Comment l’intelligence artificielle va accélérer la concentration des richesses et accroître les inégalités

L'État et les grandes transitions

Comment l’intelligence artificielle va accélérer la concentration des richesses et accroître les inégalités

Le succès de ChatGPT a représenté une nouvelle étape dans la démocratisation et le perfectionnement de l’intelligence artificielle. En rendant l’économie toujours plus dépendante à l’intelligence artificielle, ne risque-t-on pas d’avantager les pays riches et les Big Tech, seuls capables d’investir les sommes nécessaires à son perfectionnement ? Et en entrant en concurrence directe avec le travail fourni par les pays qui disposent d’une main d’œuvre peu ou pas qualifiée, l’intelligence artificielle ne va-t-elle pas accélérer la concentration des richesses et accroître les inégalités ?
L’avènement d’une nouvelle société digitale

Pour répondre aux enjeux de continuité opérationnelle pendant la pandémie de Covid-19, nous avons accéléré soudainement la digitalisation de l’économie et plus généralement celle de notre société. Les outils numériques, plus performants, se sont diffusés largement dans les entreprises et au sein de la population, permettant ainsi d’organiser le télétravail à l’échelle d’un pays tout entier. Selon une étude (1) réalisée par le Ministère du travail, de l’emploi et de l’insertion sur l’activité professionnelle des Français pendant le premier confinement, 70% des actifs ont télétravaillé au moins partiellement quand 45% d’entre eux ont télétravaillé à temps complet.

Plusieurs secteurs d’activité ont également profité de cette accélération de la digitalisation. Le premier étant celui de la télémédecine, qui n’avait jamais réellement décollé en France. Il a vu le nombre des consultations à distance faire un bond historique en 2020. Ainsi, selon la CNAM (2), plus de 19 millions d’actes médicaux remboursés ont été réalisés, avec un pic de 4,5 millions de téléconsultations en avril 2020, contre seulement 40 000 en février 2020. Aujourd’hui, la télémédecine est en voie de généralisation.

Autre secteur d’activité ayant tiré son épingle du jeu depuis 2020, celui des loisirs numériques, alors que la culture souffre encore des suites de la crise sanitaire. Les plateformes de streaming ont vu le nombre de leurs abonnés augmenter de façon fulgurante ces trois dernières années. Les six plus connues d’entre elles cumulent aujourd’hui près d’un milliard d’abonnés à travers le monde. En France, leur succès est tel qu’il a poussé le gouvernement à revoir la chronologie des médias, ce système spécifiquement français qui permet de programmer l’exploitation des films en salles avant leur diffusion à la télévision et sur les plateformes.

Plus discrètement, les Français ont également plébiscité les jeux vidéo. Selon un sondage réalisé par le Credoc, à la demande du ministère de la Culture, la France comptait 53% de joueurs pendant le premier confinement contre 44% en 2018. Cette augmentation a concerné toutes les catégories sociales qui portent désormais un regard plus positif sur cette pratique culturelle. 

Cette accélération de la digitalisation s’inscrit dans un mouvement plus ancien entamé au milieu des années 90 avec l’arrivée d’internet. Cette révolution technologique, qui n’a pas fini de produire ses effets et d’influencer nos comportements, a non seulement modifié notre façon de consommer, mais elle a aussi transformé en profondeur nos systèmes économiques. Plus récemment, la digitalisation a connu une étape de développement majeure avec l’apparition de nouveaux empires numériques globalisés comme les GAFAM (3), les NATU (4) et leurs équivalents chinois, les BATX (5). Mais pour continuer à croître, ces géants technologiques ont besoin d’une ressource essentielle que nous avons tacitement accepté de céder : nos données personnelles. Selon l’article 4 du RGPD (6), les données personnelles peuvent être « un nom, un numéro d’identification, des données de localisation, un identifiant en ligne, (…) un ou plusieurs éléments spécifiques propres à son identité physique, physiologique, génétique, psychique, économique, culturelle ou sociale ». Les plateformes qui utilisent nos données personnelles, nous les connaissons bien. Elles sont désormais partout et elles nous accompagnent dans les actes de notre vie quotidienne : elles nous permettent de regarder une série, d’écouter de la musique, de faire nos courses, de partir en vacances ou encore de trouver l’amour. 

En plus de nos données personnelles, les plateformes sont également dépendantes des algorithmes d’intelligence artificielle, véritable bras armé de ce nouveau capitalisme et indispensables pour monétiser nos données à des niveaux inédits. Pour répondre le plus efficacement possible à nos requêtes, les plateformes recourent à des algorithmes de plus en plus puissants qui apprennent seuls de leurs erreurs. Pour y arriver, les algorithmes d’intelligence artificielle doivent consommer des volumes considérables de données et utiliser des probabilités statistiques. Le plus célèbre d’entre eux, nous l’utilisons tous les jours : il s’agit de PageRank, l’algorithme de Google qui établit un classement des pages web quand nous effectuons une recherche sur son moteur.

Actuellement, les algorithmes sont devenus tellement efficaces qu’ils sont à l’origine d’un enrichissement sans commune mesure de certains acteurs de l’économie. Grâce au perfectionnement de l’intelligence artificielle, les plateformes exploitent toujours plus de données, ce qui rend possible un meilleur apprentissage des algorithmes et la création de nouveaux services qui recueillent encore plus de données et alimentent ainsi la croissance de leurs revenus. Aujourd’hui, c’est la technique du deep learning (apprentissage profond), sous-domaine du machine learning, qui attire le plus l’attention, tant ses promesses d’efficacité sont nombreuses. Son retour en grâce, on le doit notamment à un Français, Yann Le Cun, chercheur en intelligence artificielle chez Facebook et lauréat du prix Turing en 2019. La technique du deep learning utilise des réseaux neuronaux artificiels, calqués sur ceux des humains, pour obtenir un résultat. Les champs d’applications sont nombreux et concernent de nombreux secteurs comme la médecine, le juridique, la robotique, la sécurité informatique…

Des salariés déjà plus pauvres à cause de l’intelligence artificielle

Avec la démocratisation et le perfectionnement en continu de l’intelligence artificielle, le capitalisme de plateforme va muter, entraînant avec lui l’économie dans une nouvelle ère ou les algorithmes seront devenus une ressource vitale pour toutes les entreprises engagées dans la compétition économique mondiale. En 2022, une étude menée par IBM (7) indiquait que 35% des entreprises sondées utilisaient l’IA et 77% exploraient ses potentialités.

Mais les pays riches, parmi les seuls à pouvoir investir les sommes nécessaires pour innover dans le domaine de l’intelligence artificielle, seront une nouvelle fois favorisés par rapport aux pays pauvres, alors que le cabinet McKinsey Global Institute chiffrait en 2018 à 13 000 milliards de dollars la richesse additionnelle que générerait globalement d’ici à 2030 l’adoption de l’IA. Soit un surplus de croissance de 1,2% par an sur douze ans. Dans une autre étude (8) parue en 2020 et intitulée « Will the AI Révolution Cause a Great Divergence ? », le FMI explique comment les nouvelles technologies, qui se basent notamment sur le développement de l’intelligence artificielle et l’automatisation, risquent à l’avenir d’avantager les pays riches par rapport aux autres pays en orientant les investissements et la création de richesse vers les pays où ces technologies sont déjà maitrisées.

Grâce aux nouveaux gains de productivité qu’elles vont engendrer, le rapport entre le capital et le travail va évoluer au détriment du second, faisant peser de nouvelles menaces sur les pays qui disposent d’une main d’œuvre peu ou pas qualifiée. Comme le notent les auteurs de l’étude, « (…) le capital, s’il est mobile à l’échelle internationale, est tiré vers le haut, ce qui entraîne une baisse transitoire du PIB dans le pays en développement ». Ce constat rejoint celui de l’économiste Gilles Saint-Paul qui a échafaudé pour le compte du CNRS en 2018 six scénarios (9) d’un monde sans travail à cause de l’automatisation et de l’intelligence artificielle. En préambule, il prévient : « supposons que dans cent ou cent cinquante ans, le travail des humains devienne moins compétitif que celui des robots, peu chers, corvéables à merci et parfaitement acceptés par la population. Dans ce cas, il faut bien comprendre que l’on quitte le régime qui fonctionne depuis la révolution industrielle. Dans celui-ci, la machine-outil améliore la productivité de l’ouvrier sans le remplacer ; cette productivité accrue permet à l’entreprise d’embaucher et d’augmenter les salaires. Finalement, elle profite à l’ouvrier et à la société en général », explique l’économiste.

Mais si la machine travaille seule, grâce au recours à l’intelligence artificielle, elle entre directement en concurrence avec le travailleur humain. On passe alors à un régime où le capital se substitue irrémédiablement au travail ; le salaire étant fixé par la productivité des robots et leur coût de fabrication. « Imaginons en effet que vous empaquetez des colis et que vous en faites vingt par heure. Si un robot qui coûte 10 euros de l’heure en fait le double, votre salaire horaire s’élève à 5 euros. ». Pire encore : « si ce robot se perfectionne et passe à quatre-vingts colis de l’heure, votre salaire sera divisé par deux. » Jusqu’à atteindre zéro ? C’est ce que pense Sam Altman, cofondateur de la société OpenAI à l’origine de la création de ChatGPT. En mars 2021, il écrivait sur son blog (10) : « cette révolution va créer une richesse phénoménale. Le prix de nombreux types de travail (qui détermine le coût des biens et des services) tombera à zéro lorsque des IA suffisamment puissantes rejoindront la population active ».

Avec des conséquences que l’on commence déjà à mesurer. Selon un rapport publié en 2021 par le National Bureau of Economic Research (10), l’automatisation et les algorithmes d’intelligence artificielle sont à l’origine de 50 à 70 % des variations des salaires américains depuis les années 80. Un constat partagé par le Forum économique mondial qui note dans un rapport (11) paru la même année que « les revenus réels des hommes sans diplôme universitaire sont aujourd’hui inférieurs de 15% à ce qu’ils étaient en 1980 ». Au cours des quinze dernières années, les plateformes ont concouru activement à ce phénomène négatif. Toujours plus précaire, les emplois qu’elles proposent représentent déjà selon Eurofund plus de 17% de ceux des indépendants en Europe (12).

Les travailleurs de ces plateformes seraient déjà 200 000 en France, selon le Ministère du Travail. Pour tenir leurs objectifs de rendement, les plateformes ont mis en place un management algorithmique qui se traduit par une surveillance renforcée de l’activité des travailleurs et une évaluation quotidienne de leurs performances. Cette “ubérisation” souvent dénoncée par les travailleurs eux-mêmes pose un réel problème de paupérisation des salariés et menace notre modèle social. Dans leur livre “Désubérisation, reprendre le contrôle(13), les auteurs s’interrogent : « ces plateformes ont-elles réellement réinventé le travail en offrant de nouvelles opportunités aux personnes qui en étaient éloignées ou, au contraire, n’ont-elles pas dégradé le travail en créant de nouvelles formes de précarité et des relations de travail altérées ? » Les livreurs ne bénéficient toujours pas de la protection du statut de salarié, n’ont pas le droit au retrait, ne jouissent pas des actions de prévention et des protections de la santé que les employeurs sont normalement tenus de mener. Ils sont également très exposés et très peu protégés face au risque économique.

Une croissance qui creuse les inégalités ? Rien de nouveau sous le soleil du capitalisme mondiale, surtout depuis l’avènement de l’économie du numérique qui a organisé à grande échelle un transfert de pouvoir à son avantage ou les gentilles startups se sont peu à peu transformées en véritables prédatrices sur des marchés où règne la règle du « winner takes it all ». Selon cette dernière, les entreprises ayant réussi à prendre un avantage sur leurs concurrentes se transforment vite en monopoles, entraînant une concentration des richesses sans précédent et l’apparition de multimilliardaires. Ce n’est d’ailleurs pas un hasard si, parmi les dix hommes les plus riches au monde, six travaillent dans la nouvelle économie et le numérique. Le surplus de croissance et de richesse grâce à l’intelligence artificielle et son perfectionnement perpétuel dans les vingt prochaines années devraient d’ailleurs engendrer une nouvelle vague de milliardaires. 

Paradoxalement, c’est le plus souvent sur le capital que portent les réformes les plus ambitieuses, accentuant par ricochet les inégalités. Par exemple en France, l’impôt de solidarité sur la fortune est devenu un simple impôt sur la fortune immobilière, le prélèvement forfaitaire unique a été fixé à 30 % sur les revenus du capital, le taux de l’impôt sur les sociétés a été abaissé de 33% à 25%, les impôts de production ont été diminués de 10 milliards, les règles d’indemnisation du chômage ont été durcis, les APL amputées de 5€… Si toutes ces mesures ont eu un coût budgétaire élevé, privant au passage l’État et les collectivités de ressources nécessaires, elles n’ont pas non plus permis de baisser significativement le taux de prélèvements obligatoires, ce qui représentait le but premier de leur adoption. Ce dernier est passé d’après l’Insee de 44,7 % en 2018 à 44,3 % en 2021. 

Abondance et inégalités seront donc toujours les deux faces d’une même pièce, représentant un véritable casse-tête pour le législateur souvent démuni face à des géants technologiques aux ressources quasi illimitées et qui concurrencent l’Etat jusque dans ses missions régaliennes. En plus d’accentuer les inégalités économiques, l’intelligence artificielle représente une multitude de nouveaux enjeux dont il faut dès aujourd’hui corriger les excès. 

Des solutions existent déjà

Tout d’abord, le système fiscal qui fait la part belle à toutes les solutions d’exemption fiscale des géants technologiques, et qui ne permet pas à l’ensemble de la population de bénéficier pleinement de cette révolution technologique, doit être réformé en profondeur. En Europe, certains pays ont été complices des GAFAM pour minimiser au maximum l’imposition sur les bénéfices des entreprises. Ainsi, le bénéfice sur une vente à un client français ne sera pas imposé à 25%, qui est le taux d’impôt en vigueur en France pour les entreprises, mais à 12,5% si le siège de la société est en Irlande. C’est tout le combat de l’économiste Gabriel Zucman qui milite pour une taxation des entreprises en fonction du lieu où leur chiffre d’affaires est réalisé. Autres pistes : l’instauration d’une taxe spécifique sur le capital ou encore sur les superprofits, à l’instar de la « taxe GAFA » qui n’arrive toutefois pas à dépasser le stade des négociations à l’OCDE.

D’autres solutions émergent dans les débats à gauche pour gommer les excès de la concentration des richesses. Le premier concerne les données personnelles. La solution consisterait à nationaliser nos données utilisées par les entreprises. Comment ? En élargissant le rôle de la CNIL pour rassembler et chiffrer l’ensemble des données de la population pour les mettre ensuite à disposition des entreprises, sous certaines conditions.

Pour de nombreux observateurs, cette nouvelle ressource financière permettrait, par exemple, à l’Etat de financer de nouveaux programmes en faveur de la santé ou de l’environnement, de doter d’un capital de départ tous les Français à leur majorité ou encore de mettre en place un revenu universel de base équivalent au seuil de pauvreté mensuel. Un scénario qui n’est pas nouveau mais que l’intelligence artificielle, par son impact supposé sur les emplois et l’accroissement des richesses, rend possible.

Utopique ? Sans doute. Mais même les gourous de la Silicon Valley y croient de plus en plus. Toujours selon Sam Altman (14), l’intelligence artificielle va créer suffisamment de richesse dans les dix années à venir pour permettre de verser 13 500 dollars par an à chaque adulte aux États-Unis. Il propose à l’Etat de créer l’« American Equity Fund » en instaurant sur les grandes entreprises, dont le chiffre d’affaires dépasse un milliard de dollars, une taxe de 2,5% sur leur valeur boursière sous forme d’actions et 2,5% de la valeur de toutes leurs terres en dollars. Ce nouveau revenu serait ensuite versé à chaque citoyen américain de plus de 18 ans.

Au-delà des inégalités économiques, la généralisation de l’intelligence artificielle comporte d’autres carences qu’il faudra corriger. La première d’entre elles est d’ordre démocratique. De sérieux doutes planent sur l’ingérence russe dans la victoire de Donald Trump en 2016. Tout comme des doutes subsistent encore sur la victoire du camp du « Leave » lors du référendum pour ou contre le Brexit. Le scandale de « Cambridge Analytica » a mis en lumière le rôle de cette entreprise spécialisée dans l’exploitation des données dans le résultat final du référendum avec l’utilisation illégale de plus d’un million de comptes Facebook. Ancienne cadre de l’entreprise, Brittany Kaiser a révélé dans son livre « l’Affaire Cambridge Analytica” comment l’entreprise avait créé à dessein des publicités politiques utilisant la peur pour manipuler les masses. Pour y remédier, une meilleure régulation des réseaux sociaux est indispensable, en ciblant en priorité les fakes news, les commentaires haineux et les théories du complot, sans affaiblir la liberté d’expression et le droit à l’information.

La seconde carence est d’ordre sociétal. Les algorithmes que certains réseaux sociaux utilisent ont tendance à reproduire, voire aggraver, le racisme ou encore l’homophobie dans la société en mettant en avant les contenus les plus négatifs. Les propres chercheurs de Facebook l’ont d’ailleurs admis dans un document interne rendu public par le Wall Street Journal (15). « 64% de toutes les adhésions à des groupes extrémistes ont pour origine nos propres outils de recommandations. (…) Nos algorithmes exploitent l’attrait du cerveau humain pour la discorde ». Ces conclusions rejoignent celles déjà dressées par Cathy O’Neil, mathématicienne et data scientist, dans son livre « Algorithmes, la bombe à retardement » (16). Elle y met en évidence les dérives de l’industrie des algorithmes qu’elle qualifie « d’armes de destruction mathématiques qui se développent grâce à l’ultra-connexion, leur puissance de calcul exponentielle (…) et font le jeu du profit ».

Au travers de plusieurs exemples, l’auteure démontre comment les algorithmes reproduisent les inégalités dans les domaines de la justice, l’éducation, l’accès à l’emploi ou au crédit financier. En cause : les biais algorithmiques. Ces derniers apparaissent quand les données utilisées pour entraîner l’intelligence artificielle reflètent les valeurs implicites des humains qui les collectent, les sélectionnent et les utilisent. Autrement dit, les algorithmes ne nous libéreraient pas d’idéologies racistes ou homophobes, d’opinions nocives ou de préjugés sexistes… Au contraire, elles nous y enfermeraient !

Comment se prémunir de ces biais ? Cathy O’Neil semble avoir trouvé la solution. Elle milite pour la réalisation d’audits algorithmiques indépendants. Elle a même fondé son propre cabinet spécialisé dans ce domaine. De leur côté, les Etats pourraient rédiger des lois obligeant les entreprises qui réalisent un certain chiffre d’affaires à soumettre leurs algorithmes à une batterie de contrôles pour déceler d’éventuels biais et les “réparer”.

Enfin, la troisième carence est environnementale. Les algorithmes sont une nouvelle source d’exploitation des ressources, de pollution et d’émission de CO2. Selon les travaux de chercheurs du MIT, l’entraînement d’un modèle d’intelligence artificielle peut générer environ 282 tonnes d’équivalent CO2, soit cinq fois plus qu’une voiture américaine durant tout son cycle de vie. Plus globalement, le secteur numérique représente déjà à lui seul près de 4% des émissions totales de gaz à effet de serre. Des solutions existent pourtant pour diminuer l’empreinte écologique de l’intelligence artificielle : limiter le nombre de calculs et donc la consommation énergétique des algorithmes, utiliser une électricité décarbonée lors de leur apprentissage et généraliser les « green data centers », créer de nouveaux processeurs moins énergivores…

Pour finir, j’ai laissé à l’intelligence artificielle ChatGPT le soin d’écrire la conclusion de cet article, après l’avoir nourri avec plusieurs données essentielles pour sa compréhension des enjeux liés à la concentration des richesses et à l’accroissement des inégalités. J’ai décidé de mettre des guillemets à sa prise de parole, comme s’il s’agissait d’une personne à part entière.

Selon elle, « bien que l’intelligence artificielle puisse offrir des avantages et des opportunités pour l’ensemble de la société, il est de plus en plus évident qu’elle va accroître les inégalités et accélérer la concentration des richesses. Les entreprises et les individus les plus riches et les mieux équipés pour exploiter les avancées technologiques bénéficieront des avantages de l’IA, tandis que ceux qui n’ont pas les moyens de suivre le rythme seront laissés pour compte. Cette disparité pourrait entraîner une fracture sociale et économique de plus en plus importante et mettre en danger les perspectives d’un développement durable et équitable. Il est donc impératif que les gouvernements et les organisations travaillent ensemble pour élaborer des politiques et des initiatives qui garantissent que les avantages de l’IA soient distribués de manière équitable et que les inégalités soient réduites plutôt qu’accentuées. »

Références

(1)https://travail-emploi.gouv.fr/actualites/l-actualite-du-ministere/article/teletravail-resultats-d-une-etude-sur-l-activite-professionnelle-des-francais

(2)https://www.mutualite.fr/actualites/19-millions-nombre-de-teleconsultations-remboursees-par-lassurance-maladie-en-2020/

(3)GAFAM : Google, Amazon, Facebook, Apple et Microsoft

(4)NATU : Netflix, Airbnb, Tesla et Uber

(5)BATX : Baidu, Alibaba, Tencent et Xiaomi

(6)https://www.cnil.fr/fr/reglement-europeen-protection-donnees/chapitre1

(7)https://www.lesnumeriques.com/pro/pourquoi-l-intelligence-artificielle-redevient-la-priorite-des-geants-de-la-tech-a206335.html

(8)https://www.imf.org/en/Publications/WP/Issues/2020/09/11/Will-the-AI-Revolution-Cause-a-Great-Divergence-49734

(9)https://lejournal.cnrs.fr/articles/six-scenarios-dun-monde-sans-travail

(10)https://moores.samaltman.com

(11)https://fr.weforum.org/reports?year=2021#filter

(12)http://www.senat.fr/rap/r19-452/r19-452_mono.html

(13)https://editionsdufaubourg.fr/livre/desuberiser-reprendre-le-controle

(14)https://moores.samaltman.com

(15)https://www.wsj.com/articles/facebook-knows-it-encourages-division-top-executives-nixed-solutions-11590507499

(16)https://www.lemonde.fr/pixels/article/2018/11/07/cathy-o-neil-les-algorithmes-exacerbent-les-inegalites_5380202_4408996.html

Lire aussi...

Faut-il nationaliser nos données personnelles pour les protéger ?

Le Retour de la question stratégique

Faut-il nationaliser nos données personnelles pour les protéger ?

Nos données personnelles enrichissent les géants technologiques et font triompher le capitalisme de plateforme. Depuis quelques mois, un nouveau débat émerge : faut-il nationaliser nos données pour les protéger ? Cette protection est devenue un enjeu majeur de société alors que leur monétisation en fait le pétrole du XXIème siècle. Selon Facebook, chaque utilisateur européen lui rapporte tous les ans 32 euros de revenus publicitaires. Une vraie mine d’or. Pourtant, l’exploitation de nos données par l’intelligence artificielle et la création de richesse qui en résulte ne profitent pas aux citoyens, bien au contraire, alors que le marché de la don-née en Europe est estimé à plus de 1000 milliards d’euros. Une situation qui oblige à nous interroger sur notre souveraineté numérique et à reposer la question de l’exploitation de nos données dans un sens plus politique.
Trois modèles différents de société numérique basés sur l’exploitation des données personnelles

Une nouvelle société digitale, construite sur un modèle économique et social inédit, émerge actuellement. Elle trouve son origine dans l’accélération de la digitalisation de l’économie entamée avec l’arrivée d’internet dans les années 90. Tous les secteurs de l’économie et de la société sont désormais concernés par cette révolution, caractérisée par une montée en puissance des plateformes de services, qui utilisent nos données personnelles, et l’intelligence artificielle pour s’enrichir. En trente ans seulement d’existence, trois modèles différents de société numérique sont apparus.

Le premier est américain. Pour s’imposer, il a besoin d’utiliser les capacités d’innovation des entreprises, mais aussi d’exploiter la puissance de l’imaginaire et du récit entourant leurs créateurs. Le second modèle est chinois. Il mise tout sur le capitalisme de surveillance (crédit social, reconnaissance faciale…) pour assurer la stabilité de son parti/Etat. Enfin, le troisième modèle est européen. Depuis trois décennies, le vieux Continent subit une « colonisation » technologique. Il réagit principalement en protégeant ses citoyens avec des mesures comme le désormais célèbre Règlement Général sur la Protection des Données (RGPD), faisant de la souveraineté numérique une question majeure du débat en Europe et plus particulièrement en France ; bien plus qu’aux USA ou en Chine.

La stratégie européenne s’explique par les nombreux scandales liés à l’utilisation licite des données personnelles des utilisateurs des plateformes, à l’international mais aussi en France. Depuis 2013 et les révélations d’Edward Snowden, il est de notoriété publique que l’Agence Nationale de Sécurité américaine, la NSA, a massivement collecté et détenu des données personnelles de citoyens américains et étrangers. En 2016, de sérieux doutes ont plané sur l’ingérence du pouvoir russe dans la victoire de Donald Trump après que des manipulations pour influencer les résultats du vote ont été mises en évidence sur Facebook. Tout comme des doutes subsistent encore sur la victoire du camp du « Leave » lors du référendum pour ou contre le Brexit.

Le scandale de « Cambridge Analytica » a mis en lumière le rôle de cette entreprise spécialisée dans l’exploitation des données dans le résultat final du référendum, avec l’utilisation illégale de plus d’un million de comptes Facebook et la diffusion de publicités politiques utilisant la peur pour manipuler les utilisateurs. Au total, ce sont plus de 87 millions de données qui ont été utilisées à des fins électorales par l’entreprise londonienne. Dans une interview(1) à L’ADN, le lanceur d’alerte Christopher Wylie, à l’origine de la révélation du scandale, expliquait en septembre 2020 que “tout est en germe pour une nouvelle affaire Cambridge Analytica.

En France, d’autres scandales ont fait la Une des médias. Le premier concerne la plateforme « Health Data Hub » recensant les données médicales des Français, d’une ampleur inédite et officialisée par la loi santé du 24 juillet 2019. Toutes les informations liées aux actes remboursés par l’assurance-maladie, mais aussi celles des hôpitaux, des centres spécialisés ainsi que celles du dossier spécialisé partagé des patients y sont stockées. L’hébergement de cette mégabase, ouverte aux chercheurs et aux informaticiens, a  été confiée sans appel d’offres à Microsoft, un acteur américain, laissant de nombreuses interrogations quant aux lacunes de la France en matière de souveraineté numérique. Une situation d’autant problématique que l’accès aux informations aurait pu être autorisé à des acteurs privés alors que ces dernières étaient stockées à différents endroits sur le globe (Pays-Bas notamment).

Alertée par la situation, une quinzaine d’associations a saisi le Conseil d’Etat. En 2022, l’Etat a retiré auprès de la CNIL sa demande d’autorisation qui était pourtant une condition indispensable pour que le Health Data Hub fonctionne de manière opérationnelle. Encore plus récemment, l’application StopCovid a également été dénoncée par de nombreuses associations. Parmi les critiques formulées, il y avait notamment celle de la collecte des données personnelles de ses utilisateurs. Le 15 juin 2020, dans un article publié par Mediapart, le chercheur en cryptologie de l’Inria, Gaëtan Leurent, indiquait que les données collectées étaient plus nombreuses que ce qui était prévu initialement ; bien plus que la version de l’application validée par la CNIL.

Les données personnelles sont devenues une denrée stratégique et indispensable pour de nombreux secteurs de l’économie comme la banque ou encore les télécommunications. A tel point qu’un retour en arrière semble impossible et provoquerait même un choc sans précédent sur notre économie. Le marché de la data était estimé en 2020 à plus de 1000 milliards d’euros rien qu’en Europe, alors qu’en parallèle le vol de données est en passe de devenir la nouvelle criminalité de masse du XXIème siècle. Entre 2021 et 2022, le nombre de rançongiciels a augmenté de plus de 300 % pour atteindre un montant de 456,8 millions de dollars, touchant aussi bien les hôpitaux, les petites comme les grandes entreprises.

Toujours en 2022, la CNIL a prononcé 21 sanctions pour un montant total de 101,2 millions d’euros. Depuis l’entrée en vigueur du RGPD, plus de 2,5 milliards d’euros d’amendes ont été versés à l’Union européenne. A la première place des plus fortes amendes infligées on retrouve Google pour un montant de 250 millions d’euros, loin devant les autres géants technologiques que sont Méta et Microsoft qui ont écopé chacun d’une amende de 60 millions d’euros.

Cette situation inédite est pourtant prise en compte par le législateur depuis 2016 et la première loi dite « Lemaire » qui prévoyait une protection accrue pour les données personnelles des internautes. Mais c’est la loi relative à la protection des données personnelles de 2018 qui marquera une montée en puissance dans la protection des citoyens. Elle adapte la loi « Informatique et libertés » du 6 janvier 1978 au « paquet européen de protection des données » qui comprendra le désormais célèbre Règlement général sur la protection des données (RGPD), directement applicable dans tous les pays européens au 25 mai 2018.

Pour mieux protéger les données utilisés, des solutions innovantes sont explorées par certains pays. La première d’entre elles consisterait à imposer aux services de cloud, comme ceux utilisés par les GAFAM, d’être stockés dans des datas centers situés dans le pays d’émission des données. En 2018, afin de se conformer à la loi chinoise sur la cybersécurité, Apple s’est vu imposer le transfert de toutes les données des utilisateurs de l’iCloud chinois à un partenaire local.

Selon l’association professionnelle « The Information Technology Industry Council », une douzaine de pays s’est engagée comme la Chine à la géolocalisation des données de leurs concitoyens. C’est la voie empruntée par l’application chinoise TikTok, alors que les menaces d’interdiction pèsent de plus en plus sur elle. Ses dirigeants viennent de décider le stockage des données de ses 150 millions d’utilisateurs européens dans trois data centers situés en Irlande et en Norvège. Dans une communication en date du 8 mars dernier (2), Théo Bertram, vice-président de l’application, précisait les contours du projet « Clover » censé rassurer les autorités américaines et européennes. « Nous commencerons à stocker localement les données des utilisateurs européens de TikTok cette année, et la migration se poursuivra jusquen 2024 (…) Une fois achevé, ces trois centres seront le lieu de stockage par défaut des données des utilisateurs européens de TikTok. Ils représentent un investissement annuel total de 1,2 milliard d’euros ».

Ce stockage sur les terres européennes sera intégralement vérifié par un prestataire européen tiers de confiance. TikTok s’est également engagé à pseudonymiser les données personnelles ; une technique qui consiste à remplacer les données directement identifiantes (nom, prénom…) par des données indirectement identifiantes (alias…).

Au-delà du débat fondamental sur la protection des données, celui-ci s’est déplacé ces derniers mois sur leur valorisation financière qui échappe totalement au politique et à la société toute entière, accélérant les inégalités de richesse.

Vers une nationalisation des données, synonyme de revenu universel ?

Le 3 novembre 2020, les Américains n’ont pas seulement voté pour élire leur nouveau Président Joe Biden. Ils ont également participé à de nombreux scrutins locaux organisés dans les 3141 comtés des Etats-Unis. L’un des scrutins organisés en Californie portait sur l’opportunité de créer une CNIL locale ou encore de rémunérer les internautes pour l’exploitation de leurs données. 56% des électeurs ayant voté en faveur du texte soumis à référendum, il entrera en vigueur en 2023.

Depuis plusieurs mois, un débat de fond s’installe dans la société américaine quant à la juste rémunération de ce nouveau pétrole que représentent nos données personnelles. En 2019, le gouverneur californien Gavin Newsom proposait déjà le versement d’un dividende digital. « Les consommateurs californiens devraient également pouvoir partager la richesse créée à partir de leurs données », déclara-t-il lors d’une interview (3). Deux ans plus tôt, en 2017, l’État du Minnesota présentait un projet de loi qui obligeait les fournisseurs de services de télécommunications et d’internet à payer les consommateurs pour l’utilisation de leurs informations.

Enfin, lors des primaires démocrates de 2020, le candidat Andrew Yang, créateur du « Data Dividend Project », promettait de rendre à chaque citoyen l’équivalent de 1000 dollars par mois. Après tout, les entreprises de la Silicon Valley ne se gênent pas pour s’enrichir grâce à nos données, alors pourquoi ne partageraient-elles pas le fruit de cette richesse avec nous ?

Cette vision de la monétisation des données est portée en France par le think tank de Gaspard Koenig, Génération Libre. Dans le rapport « Mes data sont à moi » publié en 2018 (4), le think tank propose ainsi l’instauration d’un droit de propriété sur nos données personnelles. « Inspiré par le raisonnement déployé par le chercheur américain Jaron Lanier, lobjectif est de rendre lindividu juridiquement propriétaire de ses données personnelles. Chacun pourrait ainsi vendre ses données aux plateformes, ou au contraire payer pour le service rendu et conserver ses données privées », peut-on lire en introduction du rapport. Vendre ses données. Le mot est lâché ! Sachant que les limites juridiques à cette solution existent et qu’elle n’a été mise en place dans aucun pays dans le monde… Sauf chez Amazon qui a proposé à certains clients du service Prime de les rémunérer pour avoir accès à leurs données de navigation. Les volontaires se voient ainsi verser la somme de 2 dollars par mois. Une paille !

Pourtant, une autre stratégie est possible. Elle est même évoquée dans le rapport de Génération Libre. Elle repose sur une nationalisation des données à laquelle s’ajouterait la création d’une « agence nationale (…), rassemblant, mutualisant et chiffrant lensemble des données de la population, pour les mettre ensuite à disposition, sous certaines conditions, des entreprises les mieux à même de les utiliser ». Une stratégie que le think tank ne préconise pas. « Une telle mainmise de lEtat sur nos données créerait une bureaucratie diamétralement opposée à la culture de lInternet, et donnerait au pouvoir central des moyens de contrôle extravagants ».

Peut-être. Mais à la question de l’exploitation et la rémunération de nos données, il existe donc une réponse qui s’inscrit dans une logique plus égalitaire que celle proposée par les libéraux ; une solution qui n’accentuerait pas les inégalités, avec d’un côté les plus riches qui auraient les moyens de protéger leurs données, et de l’autre côté les plus pauvres incités à vendre leurs données pour obtenir un gain financier.

Cette solution permettrait une meilleure répartition de la richesse créée par nos données, sachant que leur production infinie ne fait pas baisser leur valeur, au contraire elle l’augmente. Un constat partagé par Badr Boussabat, économiste, auteur et expert en intelligence artificielle (5) : « chaque jour, nous créons des données dont le volume et la valeur augmentent continuellement. Ces deux augmentations ne démontrant aucune corrélation négative, contrairement au constat avec la monnaie. »

De leur côté, les trois auteurs du livre Data démocratie, être un citoyen libre à l’ère du numérique  (6) proposent de créer une Haute Autorité à la donnée chargée de centraliser tous les sujets liés à la donnée en France, mais aussi d’instaurer une redevance nationale de la donnée payée par les sociétés du digital, « à l’image d’une SACEM de la data ». Un rôle que pourrait assurer la CNIL avec pour objectif principal de rassembler et de chiffrer l’ensemble des données.

Pour de nombreux observateurs, cette nouvelle ressource financière permettrait, par exemple, de doter d’un capital de départ tous les Français à leur majorité ou la mise en place d’un revenu universel de base équivalent au seuil de pauvreté mensuel, soit 1102 euros. Cette nouvelle ressource pour l’Etat pourrait également financer de nouveaux programmes en faveur de l’environnement ou de la santé. Un optimisme que ne partage pas tous les économistes. Au vu des ordres de grandeurs, il est très improbable selon eux qu’on puisse tirer un revenu universel significatif à partir de la monétisation de nos données, comme l’avance par exemple Andrew Yang. Pour eux, une imposition des GAFAM dans les règles apporteraient un complément de revenu fiscal significatif, estimé environ à 1 milliard d’euros, mais qui reste limité en comparaison du budget général de l’État.

La nécessité d’une stratégie européenne

Se poser la question de la protection et la valorisation de nos données, c’est aussi s’interroger sur la puissance des entreprises technologiques qui les utilisent et du modèle de société digitale qu’elles imposent, dans un contexte de compétition internationale.

Si la législation européenne s’est améliorée, l’exploitation de nos données personnelles représente de nouvelles menaces qui seront autant de défis pour l’Europe dans les prochaines années. Parmi ceux-ci, le Cloud Act américain, adopté en 2018 et qui permet aux États-Unis d’exploiter librement des données personnelles n’appartenant pas à des citoyens américains, rentre en conflit direct avec le RGPD européen.

Max Schrems, activiste et fondateur de l’organisation à but non lucratif « None of your business », réagissait en octobre dernier (7) sur le nouveau cadre fixé pour le transfert des données personnelles de l’Union européenne vers les Etats-Unis : « nous allons vraisemblablement attaquer le texte en justice ». Une menace prise très au sérieux puisque Max Schrems a déjà réussi à casser deux accords passés en 2015 et 2020 entre les Etats-Unis et l’Europe. Ces derniers visaient notamment à simplifier les échanges de données personnelles entre les deux continents. « La surveillance de masse va continuer (…) A la fin, lopinion de la Cour de justice de lUnion Européenne lemportera et tuera une nouvelle fois cet accord », prédit-il, optimiste.

Pour se prémunir des tentatives de domination sur le marché stratégique de l’hébergement des données en ligne, le couple franco-allemand a lancé en 2020 un embryon de cloud européen prénommé Gaia-X. Si ce dernier permet de réelles avancées, comme l’imposition aux hébergeurs de l’interopérabilité et la portabilité des données, il n’est toutefois pas de taille pour rivaliser avec les GAFAM.

Dans ce contexte, comment la France et l’Europe peuvent concurrencer les géants américains et chinois ? Tout d’abord, la culture européenne du numérique pourrait être celle qui instaure l’utilisation de systèmes d’exploitation et de logiciels libres, comme Linux, et promeut un Internet de l’entraide et du partage. Elle pourrait également voter des lois anti-trust plus restrictives qui limiteraient les monopoles, comme le font les États-Unis, en limitant le niveau de certains marchés à 70%, voire moins, pour une seule entreprise. L’Europe pourrait aussi stimuler la création de plateformes collectives, semblables à celles que l’on connaît, dont les services seraient offerts en tant que service public, et sans exploiter les données personnelles à des fins commerciales. L’Europe pourrait enfin promouvoir le concept « d’Etat-plateforme » pour faciliter la relation du citoyen à l’administration d’une part, puis constituer une réponse au capitalisme de plateforme d’autre part. Son but serait de créer un nouveau modèle de société qui faciliterait les échanges ainsi que la production de biens et de services, tout en stimulant les partenariats avec le secteur privé. Là aussi l’Europe pourrait constituer une aide précieuse. Elle pourrait, par exemple, doter les entreprises de l’argent nécessaire à la recherche et au développement de nouvelles technologies en mutualisant entre les pays membres les sommes nécessaires pour concurrencer les États-Unis et la Chine dans les domaines clés du futur que sont l’intelligence artificielle, les superordinateurs, les nanotechnologies et l’informatique quantique.

La nationalisation des données personnelles pour mieux les protéger n’est plus un tabou aujourd’hui, alors que leur valorisation financière interroge de plus en plus au sein de la société. Qui profite réellement de leur monétisation automatisée par l’intelligence artificielle ? Les législations françaises et européennes sont-elles suffisantes pour apporter les réponses nécessaires aux préoccupations des citoyens ? Les différents scandales observés ces dernières années sont de nature à faire de la protection de nos données un sujet majeur du débat politique à l’avenir, alors qu’un vrai clivage entre la gauche et la droite se met actuellement en place sur ce sujet.

Références

(1)https://www.ladn.eu/tech-a-suivre/christopher-wylie-cambridge-analytica-menaces-democraties/

(2)https://www.larevuedudigital.com/tiktok-veut-rassurer-leurope-en-hebergeant-localement-ses-donnees/

(3)https://www.lopinion.fr/economie/la-californie-envisage-daccorder-un-dividende-aux-internautes-sur-leurs-donnees-personnelles

(4)https://www.generationlibre.eu/wp-content/uploads/2018/01/2018-01-generationlibre-patrimonialite-des-donnees.pdf

(5)https://www.journaldunet.com/management/direction-generale/1497101-revenu-universel-par-la-donnee-10-raisons-pour-un-espoir-social/

(6)Thomas Jamet, Florian Freyssenet et Lionel Dos Santos De Sousa. « Data démocratie, être un citoyen libre à l’ère du numérique ». Editions Diateino (2022).

(7)https://www.solutions-numeriques.com/donnees-ue-usa-max-schrems-juge-tres-probable-une-nouvelle-action-en-justice/

Nous soutenir

Si vous aimez notre travail, c’est par ici !

suivez-nous sur les réseaux

#LTR

dans la même catégorie...

NOS REVUES

C’est encore mieux version papier.

Lire aussi...

Un tout petit effort pour ne rien rater …

Inscrivez-vous à notre newsletter