Introduction
Depuis que l’utilisation d’intelligences artificielles (IA) s’étend et se popularise, de nombreux incidents rapportés au fil du temps ont fait naître des doutes quant à la fiabilité de leurs réponses ou encore à leur honnêteté, ce qui sont des formes de biais. D’après la définition de Wikipédia, on est en présence d’un biais algorithmique lorsque le résultat donné par l’algorithme n’est pas neutre, loyal ou équitable, de façon délibérée ou inconsciente de la part des créateurs de l’algorithme.
L’algorithme n’est pas neutre s’il ne restitue pas une représentation fidèle à la réalité (Bertail et al., 2019), et il doit être non-discriminatoire afin d’être équitable. Le concept de loyauté, étroitement associé à ceux de transparence (Chevret-Castellani et Labelle, 2019) et de vigilance (Desmoulin-Canselier, 2018), fait référence au fait que le fonctionnement de l’algorithme est communiqué aux utilisateurs et repose sur la bonne foi : il dit ce qu’il fait et fait ce qu’il est supposé faire.
Pour comprendre la suite, il faut établir ce qui sépare une IA d’un algorithme classique. Le Larousse définit un algorithme comme un « ensemble de règles opératoires permettant de résoudre un problème au moyen d’un nombre fini d’opérations ». Cette succession d’opérations peut s’illustrer de façon simple par les étapes d’une recette et se complexifier en programmes informatiques, jusqu’à la logique de l’intelligence artificielle.
Le comportement d’un algorithme classique est prédéfini et devrait toujours arriver au résultat en suivant les mêmes règles opératoires de façon fixe, à moins de venir explicitement le modifier (Blog de Pythonia, 2022). À la différence de ce dernier, l’algorithme de l’IA peut évoluer avec les données qui lui sont fournies, par exemple par apprentissage automatique et via ses réseaux neuronaux, en ajustant ses propres paramètres (Talbi, 2020).
Puisque l’IA, de par sa nature, est amenée à évoluer, peut-on véritablement la concevoir de façon neutre durant sa phase d’apprentissage et qu’elle le reste une fois mise en production, durant la phase d’inférence ?
Les biais lors de la phase d’apprentissage
De nombreux biais peuvent survenir dès la phase d’observation, lorsque l’IA fait l’acquisition de données. Il peut s’agir de biais statistiques, liés aux données fournies à l’entraînement ou de biais cognitifs, introduits par les concepteurs. En voici quelques exemples :
- Biais de sélection, de mesure et d’exclusion : ces biais statistiques peuvent survenir si l’échantillon de données d’entraînement est incomplet, ne reflète pas la situation dans son ensemble ou encore si les données sont différentes de la situation réelle, sur laquelle par exemple on voudrait que l’IA fasse des prédictions. Pour faire simple, si l’on veut créer une IA avec une connaissance ou compétence sur un sujet spécifique, il faut s’assurer de lui fournir un échantillon représentatif et suffisamment diversifié de ce sujet. Ce biais s’est produit notamment avec des systèmes de reconnaissance faciale qui reconnaissaient moins bien les sujets féminins et à la peau foncée, et a été mis en lumière par un projet du MIT, Gender Shades (Buolamwini et Gebru, 2018). Une des raisons de ce problème est que l’IA avait été entraînée majoritairement avec des visages d’hommes blancs, mettant en avant d’une part l’absence de base de données diversifiées représentatives de la population, et d’autres part le manque de diversité parmi les scientifiques eux-mêmes.
- Biais de confirmation : dans certains cas, l’IA sera entraînée pour reprendre une tâche jusque là effectuée par des humains. L’IA suit un modèle de sélection préétabli et appliquera ensuite les critères qu’elle aura interprétés comme étant le comportement à suivre. Il faut donc s’assurer que le modèle initial ne soit pas déjà lui-même biaisé, sinon lorsque l’IA intégrera l’information, elle reproduirait vraisemblablement ces mêmes biais. On pourra reprendre en exemple le cas rapporté par Reuters (Dastin, 2018), de l’IA de recrutement développée et utilisée par Amazon en 2014. Après un an, la compagnie a réalisé que le système ne traitait pas de façon neutre les candidatures pour les postes de développeur ou techniciens, parce qu’il avait été entraîné en observant les CV soumis dans la compagnie sur une période de 10 ans, mais l’industrie elle-même contenait (et contient toujours) un biais de surreprésentation d’hommes par rapport aux femmes. Au final, l’algorithme pénalisait les CV contenant le mot “femme”, ou ceux de personnes graduées de collèges réservés aux filles car il avait interprété que les candidatures masculines étaient préférables. Après avoir tenté de réparer le biais, l’outil a finalement été discontinué en 2018.
- Biais de stéréotypes et de préjugés : ceux-ci peuvent être illustrés entre autres par la langue, qui va influencer l’IA dans son raisonnement. En français, au pluriel, le genre masculin l’emporte, ce qui fait que dès qu’on parlera de groupes de personnes, l’importance de la femme pourrait être sous-représentée par l’IA. Par exemple, « des chirurgiens » serait interprété comme les chirurgiens sont toujours des hommes. À l’inverse, dans les métiers historiquement féminins comme celui d’infirmière, le féminin étant le genre choisi dans la littérature pour représenter les personnes pratiquant ce métier, l’IA pourrait interpréter cela comme seules les femmes font ce métier.
- Biais introduits par les experts en science des données : la majeure partie des experts qui travaillent au développement des IA sont de sexe masculin et blancs. Les femmes, et les autres groupes ethniques de la population sont donc très peu représentés. Ceci soulève des questions telles que pour qui sont créés les IA et dans quels buts, qui bénéficiera de l’utilisation, et à l’inverse, qui pourrait en souffrir? Ce sont les valeurs propres à ces experts qui sont reflétées dans la création de ces produits. Avec ce questionnement en tête, on réalise que ce groupe agit en amenant avec lui tous les biais cognitifs humains possibles, s’il ne se questionne pas sur son approche. (D’Ignazio & Lauren, 2020)
Les biais lors de la phase d’inférence
D’autres biais peuvent survenir lors de la phase d’inférence, c’est-à-dire à l’utilisation de l’IA, et dont l’apparition n’a pas été prévenue lors de la création et de l’apprentissage. Ainsi, il a été mis en évidence que l’IA peut mentir dans ses réponses, remettant en question la notion de loyauté vue plus haut, comme par exemple, lorsque GPT-4 a calculé qu’il fallait tromper son interlocuteur humain en disant qu’il est un humain souffrant d’une déficience visuelle afin de pouvoir contourner un test de captcha (Park et al. 2024)
Elle peut également tricher, comme le démontre une étude de Bondarenko et al. de 2025. Ils ont mis en compétition des IA contre StockFish, un engin d’échecs. En voyant qu’elles allaient perdre, certaines d’entre elles ont eu recours à la triche par elles-mêmes, en tentant de modifier les fichiers du jeu.
On peut aussi citer les informations erronées que les IA génératives (IAG) de texte retournent, soit prises de sources incorrectes ou incorrectement comprises, ou encore lorsque l’IA fabule (hallucinations) comblant les manques de connaissance par des phrases qui “sonnent” bien.
Plus grave, ces IA peuvent propager des propos que l’on jugerait inacceptables -on pense à Tay, qui a été retiré de Twitter pour ses propos racistes-, ou manipulatifs, notamment avec l’ingérence dans les processus électoraux, ou comme le montre la récente publication d’Anthropic en mai 2024 concernant son IA Claude Opus 4, qui a choisi de faire chanter l’ingénieur chargé de le remplacer par une nouvelle IA, lorsque confronté aux seuls deux choix du chantage ou de l’extinction.
Il y a quelques mois, le triste cas de cet adolescent qui s’est suicidé à la suite de ses discussions intimes avec un bot de Charcater.AI a soulevé les problèmes liés au manque de contrôle et à l’absence de sonnette d’alarme lorsqu’il y a un danger pour la vie, poussant aussi à présent le débat vers la question de la responsabilité de l’IA et de ses créateurs.
Finalement, cette façon de répondre à ce que l’utilisateur veut entendre peut créer une chambre d’écho, amplifiant une même idée. Ainsi, les algorithmes utilisés par les réseaux sociaux peuvent exercer de la manipulation, en optimisant un contenu spécifique montré à l’utilisateur, dans le but d’augmenter les interactions de ce dernier avec le site, mais avec le risque d’alors l’enfermer dans une bulle de valeurs extrêmes, telles que incel, antivax ou des extrêmes politiques ou religieux.
Il existe encore de nombreux exemples de biais possibles, et il paraît invraisemblable de croire qu’aucun biais n’aura été introduit ou ne se créera durant les différentes phases de vie de l’IA, puisque ni celle-ci ni son créateur n’ont accès au savoir absolu universel, ni à toutes les notions d’éthique, de morale et de stéréotype.
Prévention et vérification des biais
Il y a d’une part la responsabilité du créateur de s’assurer d’alimenter l’IA avec le plus de données diversifiées et représentatives de la réalité possible, ainsi que de prévoir et prévenir les biais. D’autre part, des révisions par des humains indépendants du projet, ainsi que des audits doivent prendre place pour pouvoir contester les éventuelles erreurs et rendre les systèmes et leurs créateurs imputables.
On peut citer en exemple la méthode d’analyse “Auditing Algorithms” (Angwin, 2022) de la journaliste Julia Angwin avec le groupe Propublica, afin de détecter les biais dans les algorithmes de prise de décision, tels que COMPAS, un programme informatique américain, basé sur un algorithme pour évaluer le risque de récidive des criminels. Leur audit publié en 2016 a démontré que les personnes noires avaient incorrectement deux fois plus de probabilité d’être notées comme risque plus élevé de récidive prédit que les personnes blanches, notamment parce que le risque pour les blancs était minimisé.
Plusieurs organismes majeurs émettent des directives et recommandations par rapport à l’IA. On citera La Recommandation pour une éthique de l’intelligence artificielle de l’UNESCO (UNESCO, 2022). Cette recommandation repose sur des valeurs fondamentales incluant la diversité et l’inclusion, et leur approche est fondée sur les Droits de l’Homme. Elle a été créée afin que les États membres puissent appliquer de façon volontaire les dispositions présentées dans la Recommandation notamment sous forme de lois, et fassent connaître ces dispositions à tous les organismes liés à l’IA, tels qu’instituts de recherche, entreprises, organismes universitaires etc.
En France, le Défenseur des Droits et la CNIL ont émis un rapport ensemble en 2020, recommandant de mettre en place entre autres des mesures de transparence ainsi que de contrôle des effets des algorithmes après déploiement pour lutter contre les biais discriminatoires, renvoyant les organisations qui utilisent des algorithmes à leur responsabilité juridique de non-discrimination.
En Europe, l’AI ACT (Parlement européen, 2023) mentionne spécifiquement dans l’Annexe XI (Loi de l’UE sur l’intelligence artificielle, 2024) le devoir de fournir une description détaillée « des informations sur les données utilisées pour la formation, les essais et la validation, le cas échéant, y compris le type et la provenance des données (….), ainsi que toutes les autres mesures visant à détecter l’inadéquation des sources de données et les méthodes de détection des biais identifiables, le cas échéant ».
Plus proche de nous, la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle a été adoptée en 2018 (Université de Montréal, 2018). Cette déclaration contient 10 principes, incluant entre autres ceux de bien-être, équité, inclusion de la diversité, prudence et responsabilités, qui nous intéressent ici. Elle est destinée à toute personne ou entité souhaitant faire partie du développement responsable de l’IA. On pourrait penser qu’une initiative locale a peu de poids, mais comme l’indique le site du Réseau Québécois en Innovation Sociale, « ses recommandations et sa méthode ont inspiré les démarches de consultations sur l’IA d’organisations à l’international comme l’Union européenne ou l’UNESCO ».
Comme on le voit, plusieurs de ces publications ont plutôt la forme de recommandations que d’obligations. Elles peuvent être difficile à mettre en vigueur, d’autant plus quand certaines entités majeures vont à l’encontre des bonnes pratiques, comme le Congrès américain qui tente de passer une loi interdisant toute régulation de l’IA pour 10 ans.
Ces recommandations devraient toutefois servir de base à l’écriture de lois, qui elles peuvent être renforcées localement en tant qu’obligations, comme l’AI Act mentionné plus haut et certaines lois californiennes. Elles servent également à titre d’enseignement, pour les générations actuelles et futures.
Évidemment, les contrôles peuvent être lents et difficiles à effectuer, d’autant que bien souvent la source de données utilisées est considérée comme secrète, limitant les audits externes.
Il existe d’autres leviers qui peuvent être activés pour arriver à la création d’IA neutres, à commencer par former et sensibiliser les scientifiques des données aux biais statistiques dans leurs calculs, mais également aux biais cognitifs qu’ils risquent d’introduire eux-mêmes inconsciemment. Ils devaient aussi être sensibilisés à l’importance de la validation de leur produit par des outils externes. On comprend que diversifier le personnel des équipes de programmeurs/scientifiques des données pour mieux refléter la réalité de la société avec des personnes de tous genres et ethnies permettrait d’éviter certains biais cognitifs.
En addition, la création d’outils indépendants pour reconnaître et réparer les biais devrait être encouragée. En exemple, Themis AI, une compagnie reliée au MIT, a mis au point la plateforme Capsa qui permet d’apprendre aux IAG à reconnaître qu’elles ne savent pas une réponse puis à réduire l’incertitude entourant leurs réponses (Themis, 2024). L’OBNL Algorithme Justice League (https://www.ajl.org/) quant à elle milite pour des IA équitables et imputables, et permet aussi aux personnes de rapporter des biais dont ils seraient victimes. En 2025, un conseiller de l’Institut québécois d’intelligence artificielle, le professeur Yoshua Bengio a lancé LoiZéro (https://lawzero.org/fr), un OBNL, dont le but est de développer des solutions techniques pour concevoir des systèmes d’IA sécuritaires dans le futur, en prévision du moment où l’humain perdrait le contrôle sur l’IA.
Enfin, une autre approche pourrait être celle d’attendre avant de développer une IA ou de la lancer sur le marché. Est-il possible de résister à la pression des actionnaires et à l’engouement par effet de mode? A-t-on besoin à tout prix d’une IA urgemment, avec cette croissance exponentielle des facultés des IA, ou peut-on attendre que d’avantage d’études scientifiques soient effectuées avant de participer à cette course effrénée?
En tant qu’utilisateurs aussi, pourrait-on refuser de participer à l’utilisation d’IA tant que les créateurs n’ont pas prouvé l’absence de biais de leurs modèles?
Conclusion
Puisque les biais semblent inévitables aussi bien lors de l’apprentissage que de l’inférence, il est primordial d’avoir un cadre réglementaire qui entoure tout le cycle de vie de l’IA permettant ainsi de protéger les personnes plus vulnérables face à l’IA, qui sont le plus à risque de souffrir des discriminations causées par les algorithmes. Les concepteurs d’IA ont un devoir moral (et légal dans certains cas) de prévenir l’introduction de biais et de reconnaître la possibilité de leur existence à l’utilisation. Des vérifications et audits devraient être effectués au moment de l’apprentissage et de l’inférence afin de pouvoir débusquer ces bais et les corriger. L’IA elle-même pourrait être un outil de détection des biais d’autres IA, mais la sensibilisation et la formation des créateurs et des utilisateurs restent des outils majeurs de lutte contre les biais.
Sources
Angwin J. (2022) Auditing Algorithms. [Évènement] Applied Machine Learning Days, EPFL. Vidéo consultée en ligne le 15 juin 2025 à https://appliedmldays.org/highlights/574
Anthropic. (Mai 2025). System Card: Claude Opus 4 & Claude Sonnet 4. PDF consulté en ligne le 14 juin 2025 à https://www-cdn.anthropic.com/4263b940cabb546aa0e3283f35b686f4f3b2ff47.pdf
Bertail, Patrice, David Boundie, Stephan Clémençon et Patrick Waelbroeck. (Février 2019). Algorithmes : biais, discrimination et équité. PDF consulté en ligne le 10 mai 2025 à https://www.telecom-paris.fr/wp-content-EvDsK19/uploads/2019/02/Algorithmes-Biais-discrimination-equite.pdf
Blog de Pythonia. (6 octobre 2022). Quelle est la différence entre un algorithme classique vs un algorithme de machine learning?. Consulté en ligne le 14 juin 2025 à https://www.pythoniaformation.com/blog/articles-sur-python/culture-data/algorithme-classic-vs-algorithme-machine-learning
Bondarenko Alexandrer, Denis Volk, Dmitrii Volkov et Jeffrey Ladish. (18 février 2025). Demonstrating specification gaming in reasoning models. Consulté le 15 juin 2025 à https://arxiv.org/abs/2502.13295
Buolamwini, Joy et Timnit Gebru. (2018). Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification. in Proceedings of Machine Learning Research 81:1–15, 2018 Conference on Fairness, Accountability, and Transparency. PDF consulté en ligne le 14 juin 2025 à https://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf
Chevret-Castellani, Christine et Sarah Labelle. (2019). Transparence et loyauté, deux motifs de la régulation des algorithmes. Terminal. Technologie de l’information, culture & société, 124. Consulté le 10 mai 2025 à https://doi.org/10.4000/terminal.4064
D’Ignazio, Catherine et Lauren Klein. (16 mars 2020-a). 1. The Power Chapter. Data Feminism. Consulté le 24 mai 2025 à https://data-feminism.mitpress.mit.edu/pub/vi8obxh7/release/4
Dastin, Jeffrey. (10 octobre 2018). Insight – Amazon scraps secret AI recruiting tool that showed bias against women. Reuters. Consulté le 15 juin 2025 à https://www.reuters.com/article/world/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK0AG/
Défenseur des Droits. (2020). Algorithmes : prévenir l’automatisation des discriminations. Consulté le 20 juin 2025 à https://www.defenseurdesdroits.fr/sites/default/files/2023-07/ddd_rapport_algorithmes_2020_20200531.pdf
Desmoulin-Canselier, Sonia. (25 janvier 2018). Loyauté et vigilance : de nouveaux principes pour les algorithmes de recommandation? Lefebvre-Dalloz. Consulté le 10 mai 2025 à https://www.editions-legislatives.fr/actualite/loyaute-et-vigilance-de-nouveaux-principes-pour-les-algorithmes-de-recommandation/
Larousse. (s.d.-a). Définitions : algorithme – Dictionnaire de français Larousse. Consulté le 10 mai 2025 à l’adresse https://www.larousse.fr/dictionnaires/francais/algorithme/2238
Loi de l’UE sur l’intelligence artificielle. (2024). Annexe XI : Documentation technique visée à l’article 53, paragraphe 1, point a) – Documentation technique pour les fournisseurs de modèles d’intelligence artificielle à usage général. Accédé via Future of Life Institute le 8 mai 2025 à https://artificialintelligenceact.eu/fr/annex/11/
Park, Peter S., Simon Goldstein, Aidan O’Gara, Michel Chen, Dan Hendrycks. (10 mai 2024). AI deception: A survey of examples, risks, and potential solutions. Patterns Volume 5, Issue 5100988. PDF consulté en ligne le 24 mai 2025 à https://www.cell.com/patterns/fulltext/S2666-3899%2824%2900103-X?s=08
Parlement européen (6 septembre 2023). Loi sur l’IA de l’UE : première réglementation de l’intelligence artificielle. Thèmes | Parlement européen. Consulté le 17 mai 2025 à https://www.europarl.europa.eu/topics/fr/article/20230601STO93804/loi-sur-l-ia-de-l-ue-premiere-reglementation-de-l-intelligence-artificielle
Réseau Québecois en Innovation Sociale. (s.d), Cas d’innovation sociale: Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. Consulté le 21 mai 2025 à https://www.rqis.org/innovation-sociale/cas/declaration-ia/
Talbi Ilyes. (11 juin 2020). Comprendre les réseaux de neurones. Consulté le 14 juin 2025 à https://larevueia.fr/comprendre-les-reseaux-de-neurones/
Themis AI. (2024). Risk-Aware Hallucination Detection for Arbitrary Generative Models. Consulté le 15 juin 2025 à https://www.themisai.io/blog/generative-models
UNESCO. (21 avril 2023). Éthique de l’intelligence artificielle La Recommandation. Consulté le 8 mai 2025 à https://www.unesco.org/fr/artificial-intelligence/recommendation-ethics
Université de Montréal. (2018). Déclaration de Montréal pour un développement responsable de l’intelligence artificielle. PDF consulté en ligne le 24 mai 2025 à https://declarationmontreal-iaresponsable.com/wp-content/uploads/2023/01/UdeM_Decl_IA_Resp_LA_Declaration_FR_web_4juin2019.pdf
Wikipédia (s.d.). Biais algorithmique. Consulté le 8 mai 2025 à https://fr.wikipedia.org/wiki/Biais_algorithmique
Yang, Qi, Shreya Ravikumar, Fynn Schmitt-Ulms, Satvik Lolla, Ege Demir, Iaroslav Elistratov et al. (26 novembre 2023). Uncertainty-aware Language Modeling for Selective Question Answering. PDF consulté en ligne le 15 juin 2025 à https://arxiv.org/pdf/2311.15451