Les algorithmes : gardiens du bien ou marionnettistes de nos consciences ?
L’expansion fulgurante d’internet au XXIe siècle a engendré la prolifération des algorithmes dans notre quotidien. Ces lignes de code interviennent à chaque instant : pour décider de notre avenir (Parcoursup par exemple), pour évaluer notre solvabilité pour obtenir un prêt, pour évaluer un CV…
Les algorithmes sont aussi utilisés pour détecter des maladies (par exemple avec la technique du « deep learning » qui permet d'analyser de grandes bases de données et de prédire un cancer du sein qui ne serait pas encore visible par l'œil humain).
Ainsi les systèmes influencent de plus en plus nos vies, bien au-delà de la simple technique, de manière ambivalente.
Ce constat soulève de nombreuses problématiques :
Nos nouveaux "juges" sont-ils de simples lignes de code ou des reflets de nos propres biais ? Quels dangers y a-t-il à déléguer notre boussole morale à des machines ? Comment ces systèmes redéfinissent-ils la notion même de moralité dans nos sociétés ? Quel serait le résultat de la mise en place d’un médiateur entre l’humain et l’algorithme ?
- Quand les algorithmes se font juges : mécanismes et manifestations
Des algorithmes influencés par le “biais moral” des individus à l’origine de leurs données
Malgré son automatisation, l’algorithme reste une création humaine. Si un algorithme reproduit nos préjugés, est-il lui-même "immoral" ou simplement le miroir d'une immoralité humaine ? Où s’arrête la machine et ou commence l’esprit critique ?
Si de prime abord, le biais des algorithmes peut sembler se limiter au cyberespace, des situations concrètes nous prouvent que ce mécanisme s’implante également dans nos vies directement et peut même contribuer à renforcer des inégalités sociales.
Cathy O’Neil, ex data scientist, dans son ouvrage “Weapons of Math Destruction”, analyse les effets des algorithmes sur la société à travers son expérience dans la big data durant la crise financière.
Pour elle, les “weapons of math destruction” [ndlr : jeu de mots avec “math” et “mass” destruction], influencent la société dans son ensemble et s’assurent que “les prétendus perdants restent les perdants”. Elle insiste sur le fait que les algorithmes ne sont en réalité que des “opinions traduites en langage mathématique”. Les inégalités sont alors renforcées sur tous les plans : accès aux crédits, à l’éducation, etc.
Cela s’illustre aisément par les algorithmes de police prédictive, censés moderniser les pratiques policières. Ceux-là illustrent en réalité un renforcement des inégalités sociales et raciales. Ces systèmes, conçus pour identifier les zones "à risques" où la criminalité serait plus élevée, reposent sur des données historiques de rapports de police. Cependant, ces données sont souvent biaisées, reflétant des pratiques policières discriminatoires passées.
Prenons l'exemple du "stop-and-frisk" aux États-Unis, une pratique où les policiers fouillent aléatoirement des civils pour vérifier la possession d'objets illégaux. Cette méthode cible de manière disproportionnée des groupes raciaux spécifiques, notamment les populations hispaniques et de couleur. En conséquence, les arrestations et les interpellations sont plus fréquentes dans ces communautés, ce qui augmente artificiellement le nombre d'infractions détectées dans ces groupes. Les algorithmes de police prédictive, en se basant sur ces données biaisées, désignent alors ces quartiers comme étant plus à risque, perpétuant ainsi un cycle de stigmatisation des quartiers défavorisés, de discrimination et de violence policière.
Dans son ouvrage, Cathy O’Neil souligne que ces algorithmes, loin d'être neutres, reproduisent et amplifient les inégalités existantes. Elle explique que les comportements criminels étant plus surveillés dans certains quartiers, les arrestations y sont plus nombreuses, ce qui renforce la perception de ces zones comme étant dangereuses. Cela peut conduire à une criminalisation de la pauvreté, tout en donnant l'illusion d'une approche scientifique et juste.
En France, bien que les prédictions de la police prédictive ne ciblent pas directement les individus, elles identifient des zones géographiques sensibles où certains types de délits sont plus susceptibles de se produire.
Ces algorithmes contribuent à une criminalisation accrue des populations déjà marginalisées, tout en donnant l'illusion d'une approche scientifique et neutre. Il est crucial de reconnaître ces biais et de travailler à des solutions qui ne reproduisent pas ces inégalités, mais qui les combattent activement.
La "morale" de l'efficacité et de l'optimisation :
Les algorithmes sont souvent conçus pour maximiser une métrique (clics, profits…). Que ce soit sur internet ou en physique, cette constante recherche de la performance peut aller à l’encontre des valeurs humaines. La maximisation des profits primant dans tous les domaines, les algorithmes sont souvent amenés à mettre sous le tapis des données majeures mais non génératrices de performance immédiate.
Cette logique d’optimisation de la performance par l’algorithme se retrouve également dans le monde professionnel. Bien que les technologies facilitent le travail, elles sont aussi responsables d’une “course à la performance”. En offrant des outils d’analyse des employés, elles fournissent des indicateurs-clés de performances, qui ne peuvent pas prendre en compte l’aspect qualitatif ou humain du travail effectué. Cette mise en concurrence aigüe crée un environnement de travail toujours plus exigeant, individualiste, rompant le lien social au profit de la machine. Face aux mutations de l’espace professionnel, le stress lié au travail augmente et nombreux sont les burn-outs.
L'environnement professionnel actuel, marqué par une quête incessante de performance et une optimisation algorithmique, peut également mener à une instabilité professionnelle, poussant les individus, notamment les nouvelles générations au turnover. Selon une étude de l'International Labour Organization, cette instabilité est exacerbée par les exigences élevées et la pression constante, conduisant à une rotation accrue des emplois et à une insatisfaction professionnelle généralisée.
Il s’agit alors de se demander si l’implication exacerbée des algorithmes dans le monde professionnel, bien qu’il ait des aspects positifs en termes de résultats, est opposée à la nature humaine et à l’éthique.
Ce constat rappelle l'analyse d’Emile Durkheim sur les sociétés industrielles, où les crises perturbent l'ordre collectif et créent un état d'anomie, c'est-à-dire une absence de règles et de repères sociaux stables. Selon Durkheim, cette perte de repères peut mener à une coupure du lien social et à une perte de sens, similaire à l'instabilité professionnelle observée aujourd'hui.
Si au sens professionnel, l’usage des algorithmes transforme profondément le monde du travail, qu’en est-il de l’utilisation personnelle qu’en ont les individus ?
- Vers une éthique numérique : réappropriation personnelle ou fatalité ?
Pour se préserver de biais portés par l’algorithme, l’arme de l’utilisateur dans son usage personnel de l'algorithme, ne peut être que son esprit critique. La passivité devient une force d’assujettissement pour l’algorithme. Savoir décrypter l’information et ne pas consommer du contenu « passivement » devient alors primordial. Vérifier les sources peut sembler chronophage voire archaïque pour certains, cependant face au manque de fiabilité du cyberespace, c’est une mesure de prudence nécessaire. L’influence des algorithmes sur la conscience d’un individu tient alors notamment à l’expérience individuelle de son choix d’être actif ou passif face à ces systèmes.
En 1548, Etienne de la Boétie met déjà en exergue dans sa théorie de la servitude volontaire que le peuple accepte et perpétue son propre asservissement. En modernisant cette théorie, il est possible de l’appliquer à l’emprise qu’ont les algorithmes sur les utilisateurs. Un utilisateur devenant plus critique des algorithmes s’extirpe alors de leur “domination” grâce à une forme moderne de résistance : par la conscience.
Le nouvel enjeu est de faire des jeunes générations des utilisateurs avisés des algorithmes. Les méthodes d’enseignement sont donc forcées de s’adapter afin de rester pertinentes face à l’abondance et à l’immédiateté de contenus dont la fiabilité n’est pas acquise.
Cependant, cette théorie est à mettre en balance face à la réalité sociale. Chaque individu n’est pas égal devant le choix : la liberté de résister à l’emprise des algorithmes est un réel enjeu social.
Le capital culturel d’un individu, son accès restreint aux ressources technologiques par contrainte économique, une dépendance professionnelle conditionnant un revenu, ou encore une décision institutionnalisée, peuvent contribuer à limiter le pouvoir d’émancipation de l’utilisateur.
C’est ainsi qu’intervient la nécessité d’intégrer une éthique à l’algorithme, afin que dans l’hypothèse d’une dépendance forcée, celle-ci ne puisse pas être profondément négative.
Une IA « éthique par conception » ?
Intégrer des considérations morales dans le système de l’algorithme est-il possible ? En théorie, rien n’empêche le créateur d’une IA de la composer d’un panel de considérations éthiques. Cependant, cela interroge la morale, dont la conception peut différer selon les individus.
Qui devrait définir ces principes éthiques ? Des comités d'experts ? Les citoyens ?
Une IA revendiquée « morale » parce que son créateur la décrit comme telle ne tient en réalité qu’à la propre morale de son ingénieur. L’IA ne serait alors pas neutre. Nous nous retrouverions de nouveau dans un cercle vicieux ou l’Homme influence l’algorithme, qui l’influence en retour. Au-delà d’une “morale” de l’IA, il semble tout de même possible d’y intégrer un ensemble de standards basés sur une éthique reconnue, portée par les textes majeurs comme les Droits de l’Homme.
En revanche, atteindre l’éthique complète d’un algorithme semble impossible considérant le fait que même en y intégrant un cadre de moralité, une IA ne peut réellement s’adapter de manière émotionnelle comme le ferait un humain.
Faute de trouver une « solution-miracle » c’est à l'individu et à la société civile que revient le rôle de réguler, de contrôler, les algorithmes, afin de les rendre plus éthiques au regard de l’intérêt général. Une réflexion sur la morale par des collectifs citoyens et des chercheurs pourrait légitimement être encouragée afin de parvenir à cet objectif de « moralité des algorithmes ». Dénoncer les dérives et proposer des solutions semble alors nécessaire. La viabilité d’un potentiel droit à des algorithmes « justes et éthiques » deviendrait alors dépendant de l’intention sociale de se conformer à un devoir de surveillance constante et de conformisme à une « éthique universelle », si tenté qu’une telle chose existe.
L’automatisation des décisions impliquant la morale ne paraît pas souhaitable tant que cette automatisation fonctionne en boîte noire. Il est nécessaire que l’humain se réapproprie les domaines qui nécessitent des décisions prises avec humanité. Cette limitation des algorithmes dans les domaines sensibles tels que la justice pénale, le domaine médical, la diplomatie, les politiques publiques, ou le journalisme éditorial. En somme, même si les humains ne sont pas infaillibles, les décisions nécessitant de l’éthique, de la morale, de l'empathie et tout ce qui ne saurait être quantifié de manière certaine, devraient rester entre les mains de l’humanité.
III. Qui est responsable ?
L'imputabilité et la "boîte noire" :
L’usage des algorithmes ne peut être détaché de la politique dans sa globalité. La décision d’utiliser des algorithmes, mis au service d’un processus décisionnel impactant les membres d’une société de manière professionnelle ou personnelle, est purement politique. Le choix d’utiliser les algorithmes est prise en toute conscience politique des biais qu’elle comporte. La responsabilité des actions d’une IA devrait ainsi toujours être imputable à celui qui décide de s’en servir auprès des autres.
Si nous n’avons pas de moyen de savoir comment la décision a été prise (faute d’une variable), l’attribution d’une responsabilité pour la réponse de l’algorithme semble impossible. La « boîte noire » que constitue le processus de décision n’étant pas accessible, elle devient falsifiable empêchant quiconque d’endosser une réelle responsabilité.
Comment garantir la souveraineté citoyenne face aux géants technologiques ? Un droit à l’explication algorithmique serait-il une solution ?
Des tentatives de régulation juridiques telles que Le Règlement Général sur la Protection des Données (RGPD) et l'AI Act européen existent mais ont leurs limites. Les législateurs peinent à suivre le développement exponentiel des algorithmes : bien souvent les textes deviennent obsolètes avant même d’avoir atteint leur pleine application et leur efficacité est alors largement questionnable.
Les progrès technologiques du XXIe siècle ne cessent d’évoluer et peinent à être régis par le Droit dont l’adaptation semble être trop lente pour rester en cohérence avec les enjeux d’aujourd’hui. Ce constat sous-entend la nécessité d’une adaptation du processus de mise en place de réglementation afin que ceux-ci puissent se montrer réellement efficaces.
Il s’agît alors d’être le premier acteur de notre conscience afin de redevenir les juges des algorithmes. La question n’est pas de rejeter l’IA mais de la rendre plus responsable, de la cantonner à son rôle d’outil, et de s'assurer qu'elle serve les valeurs humaines plutôt que de les supplanter.
Alicja GRATALOUP
Sources : https://inria.hal.science/hal-03851597v1/document
https://www.grandeecolenumerique.fr/actualites/rencontre-avec-aurelie-jean
Créez votre propre site internet avec Webador