
L’impact des algorithmes de recommandation sur notre société
Alors, combien de temps passez-vous sur votre téléphone à faire défiler du contenu chaque jour ? La plupart d’entre nous sous-estime notre usage. Et ce n’est pas qu’une question de discipline ou de volonté. En effet, le contenu est choisi avec soin pour garder notre attention le plus longtemps possible. Ainsi, ce contenu est déterminé par les algorithmes de recommandation qui structurent les réseaux sociaux, les plateformes de streaming et les moteurs de recherche. Toutefois, même si ces systèmes facilitent la découverte, ils peuvent aussi réduire la diversité d’exposition en créant des bulles de filtres.
Ainsi, dans cet article, nous définissons les concepts clés et le débat scientifique. Nous abordons également les effets sur les adolescents. En particulier les conséquences sociales du manque de diversité de contenu. Enfin, la vidéo présente le marketing numérique lié aux algorithmes de recommandation.
Définir les concepts clés
Que sont les algorithmes de recommandation ?
D’après l’Office québécois de la langue française (OQLF), un algorithme de recommandation est un algorithme prédictif. Il fournit des résultats de recherche personnalisés selon les intérêts présumés des utilisateurs. En effet, l’étude de Costello et al. (2023), montre que ces systèmes vont bien au-delà de la simple personnalisation. Ils analysent des signaux comportementaux, tels que les clics, le temps de visionnement et les interactions. Ainsi, ils optimisent l’engagement. En effet, l’objectif est de maximiser le temps passé sur la plateforme pour générer des revenus.
Qu’est-ce qu’une chambre d’écho ?
L’OQLF définit la chambre d’écho comme un réseau de personnes formé spontanément autour d’une vision commune. En effet, les gens sont principalement exposés à des opinions qui se rapprochent des leurs, ce qui tend à cristalliser leurs idées et leurs croyances. Malgré que ce phénomène existe hors ligne, les technologies numériques l’amplifient énormément.

Qu’est-ce qu’une bulle de filtres ?
Selon l’OQLF, une bulle de filtres désigne l’ensemble des informations personnalisées qui sont présentées à un internaute par les moteurs de recherche et les réseaux sociaux. Celles-ci sont générées à partir de données collectées à son sujet, ne l’exposant ainsi qu’aux informations pour lesquelles il a déjà démontré de l’intérêt.
Ce concept a tout d’abord été introduit par Eli Pariser, qui désigne un état d’isolement intellectuel causé exclusivement par les algorithmes de recommandation, ce qui crée un univers d’information unique pour chaque individu sans que celui-ci l’ait nécessairement choisi. En résumé, plus vous interagissez avec un type de contenu, plus la plateforme vous propose ce type de contenu, jusqu’à ce que votre fil ne devienne que ça.
Les algorithmes de recommandation : diversité ou cages numériques ?

Alors, les algorithmes de recommandation favorisent le contenu semblable à celui consommé, créant une bulle de similarité. Par exemple, si vous sauvegardez une vidéo de recette, ce n’est pas pour rien que vous commencez à voir davantage de vidéos culinaires sur votre page. Ainsi, l’algorithme perçoit votre sauvegarde comme un intérêt et vous montre plus de contenus culinaires. Donc, ceci renforce les biais de similarité et l’homophilie. En d’autres termes, la tendance à interagir avec des personnes, des idéologies ou du contenu que vous aimez.
L’attachement émotionnel et la cage de contenu
Toutefois, il est souvent difficile de sortir de cette bulle, car cela demande une prise de conscience et un arrêt volontaire des interactions avec ce type de contenu. Bien que la solution semble être simple, lorsqu’il s’agit de sujets avec un fort attachement émotionnel ou idéologique, c’est bien plus compliqué.
Alors, il est facile de tomber dans cette cage de contenu, sur des sujets sensibles comme la géopolitique, Donald Trump ou la violence liée à l’ICE (U.S. Immigration and Customs Enforcement). Par conséquent, ce type de contenu génère des émotions fortes et un sentiment d’impuissance. Souvent, ceci peut brimer non seulement la For You Page (FYP), mais aussi le moral pour la journée.
En résumé, il est primordial que les utilisateurs prennent conscience et que cela soit suivi d’actions concrètes. L’utilisateur doit faire preuve de curiosité et diversifier lui-même son contenu ainsi que ses opinions qu’il consomme. Les algorithmes ne créent pas par défaut des chambres d’écho, mais ils peuvent amplifier l’hyperpersonnalisation (Hassani Saissi, Idrissi, & Zellou, 2025). Alors, il est important de comprendre le rôle des algorithmes, leurs responsabilités dans la polarisation et leurs effets d’accélérateur. Et ainsi, d’intégrer la diversité d’exposition, la transparence et le contrôle utilisateur à ces algorithmes de recommandation (Helberger, Karppinen, & D’Acunto, 2018).
Des points positifs aux algorithmes de recommandation ?
Cependant, la littérature n’est pas unanime puisque les algorithmes peuvent exposer les usagers à une plus grande variété de contenus que s’ils faisaient leurs propres choix. La plateforme de streaming Netflix en est le parfait exemple. Il est beaucoup plus simple et rapide de trouver votre prochaine série chouchoute grâce à ses recommandations. Ainsi, cette personnalisation complète du profil rend l’expérience beaucoup plus agréable pour les utilisateurs de Netflix. En effet, les algorithmes de recommandation améliorent l’expérience utilisateur. Sans toutefois nuire à la diversité du contenu, en fait, ils l’augmentent. Par conséquent, cet exemple démontre qu’il est possible d’utiliser ces algorithmes d’une manière éthique et responsable tout en y tirant profit.

Alors, l’entreprise a un rôle crucial à jouer sur les algorithmes de recommandation, les sujets et les contenus qu’ils recommandent. À cet égard, il est important d’exposer volontairement les utilisateurs à différentes opinions sur un même sujet. C’est la raison pour laquelle, l’entreprise doit mettre en place des mesures afin de ne pas encourager certains modes de pensée qui pourraient être néfastes pour la société. Plus particulièrement auprès des jeunes, car ils sont souvent plus sensibles et plus manipulables.
Les algorithmes de recommandation au Québec : radicalisation chez les jeunes

En raison de la pandémie, nous assistons à une montée en popularité de la polarisation des contenus numériques. Par exemple, des figures comme Andrew Tate ou Julien Bournival-Vaugeois, qui tiennent des discours masculinistes et misogynes. En effet, ils gagnent en popularité grâce à ces mécanismes algorithmiques. Les jeunes peuvent rapidement tomber dans un « terrier de lapin » (Rabbit hole). Ceux-ci leur proposent du contenu de plus en plus extrême, renforçant des attitudes ou des comportements nocifs.
Une intolérance décomplexée
En fait, et si la chambre d’écho était responsable de la montée de l’extrême droite et de l’homophobie chez les jeunes au Québec ? Selon l’organisme GRIS-Montréal, le sentiment d’inconfort des jeunes face à l’homosexualité a doublé en quelques années. Par ailleurs, les recherches de l’UQAM (2025) ont montré une intolérance croissante envers la diversité sexuelle dans les écoles. La Presse (2026) rapporte que cette haine s’installe dans les écoles où les discours d’exclusion deviennent de plus en plus décomplexés.
« Ça s’est décomplexé de façon tellement rapide et aujourd’hui ces jeunes-là ne se cachent plus pour être violents, pas que sur le web , mais dans la cour d’école, dans les corridors, envers les filles, envers les femmes… et on ne sait plus comment et quoi faire avec ça. »
– Rafaël Provost, directeur général d’Ensemble pour le respect de la diversité.
Les algorithmes de recommandations contre les adolescents
Tout d’abord, eSafety Commissioner (2024) explique qu’il s’agit d’un combat inégal entre les algorithmes et les adolescents. D’autant plus que les capacités de régulation et l’esprit critique sont encore en développement. Ensuite, Amnesty International (2025) explique que TikTok pousse les mineurs vers du contenu dépressif et haineux en quelques minutes seulement. Ces situations sont d’autant plus critiques lorsque l’adolescent est dans un mauvais état d’esprit ou en crise identitaire.
Puis, l’enquête de CROP (2025) montre qu’un jeune homme sur trois au Canada adhère à certains concepts de la « manosphère ». Aussi connu sous le nom de « mâle alpha », ce phénomène provient souvent d’une souffrance masculine réelle et d’une incompréhension des enjeux de genre (L’Exemplaire, 2025).
Pour continuer sur le phénomène de mâle alpha, voici un documentaire québécois très pertinent sur le sujet.
« Si vous êtes un adolescent aujourd’hui et que vous créez un compte TikTok en indiquant votre sexe, il faut en moyenne moins d’une demi-heure avant qu’un contenu gravement misogyne ne vous soit proposé. »
— Laura Bates, BBC Bitesize.
Montée du masculinisme chez les garçons dû aux algorithmes de recommandation
À la suite de leur étude, l’organisation Ruban Blanc (2024), explique que le contenu ne fait pas qu’informer, il reconfigure les comportements. En effet, l’étude met en évidence plusieurs faits saillants, dont 95 % des éducateurs affirment que les garçons et les jeunes hommes sont exposés à des idéologies sexistes et misogynes en ligne. Par ailleurs, 4 éducateurs sur 5 ont été témoins de tels comportements en milieu scolaire. Alors, Les algorithmes exploitent ce sentiment d’isolement chez les garçons et normalisent le masculinisme. Ainsi, ce contenu mêlé à des frustrations personnelles, ce contenu encourage une idéologie dangereuse pour la société.
Les algorithmes enferment ainsi ces jeunes dans des chambres d’écho où l’antiféminisme est présenté comme une solution. Plus précisément, ceci accroît les risques de violence et de rupture sociale (Maisons-Femmes, 2025). C’est notamment le cas de Jade, l’adolescente de 14 ans qui s’est fait poignarder à maintes reprises à l’école. En effet, l’acte a été perpétré par un garçon de 17 ans puisqu’elle avait refusé ses avances (La Presse, 2026). Malheureusement, ceci n’est pas un cas isolé à Montréal, mais bien partout au Québec. Par ailleurs, le rapport de Noovo Info (2026) indique une hausse des agressions physiques commises par des garçons envers des filles en milieu scolaire.
« C’est inquiétant que nos jeunes filles se sentent en danger. »
— Rafaël Provost, directeur général d’Ensemble pour le respect de la diversité.
L’avenir des algorithmes de recommandation ?
Ainsi, l’addiction algorithmique décrite par Costello et al. (2023) ne se limite pas seulement à la perte de temps sur les réseaux sociaux. En fait, elle façonne la nouvelle génération dont la vision du monde est contrôlée par des algorithmes. Alors que ceux-ci ne connaissent pas ce qui fait de l’être humain un humain, les émotions. Par conséquent, nous remplaçons l’empathie par le profit au détriment de la cohésion sociale québécoise et mondiale.
Maintenant, le défi de notre société n’est pas de supprimer les algorithmes, mais de les redéfinir. Netflix nous prouve qu’il est possible d’avoir des algorithmes performants, tout en respectant l’utilisateur. Alors, nous avons la responsabilité de définir de nouveaux standards. Où la performance marketing ne se mesure plus seulement en minutes passées, mais en qualité du contenu et en richesse de la diversité d’exposition.
Pour nous et nos prochains, changeons le monde, un algorithme à la fois.
Plus d’article par Laurence Nappert
Alors, si le sujet de l’influence technologique sur l’humain vous intéresse, je vous invite à consulter mon autre article qui explore un aspect fascinant de notre relation avec les machines
Bibliographie
Études
Hassani Saissi, M., Idrissi, N., & Zellou, A. (2025). Understanding echo chambers in recommender systems: A systematic review. International Journal of Advanced Computer Science and Applications, 16(10). https://doi.org/10.14569/IJACSA.2025.0161071
Costello N, Sutton R, Jones M, et al. ALGORITHMS, ADDICTION, AND ADOLESCENT MENTAL HEALTH: An Interdisciplinary Study to Inform State-level Policy Action to Protect Youth from the Dangers of Social Media. American Journal of Law & Medicine. 2023;49(2-3):135-172. doi:10.1017/amj.2023.25 https://www.cambridge.org/core/journals/american-journal-of-law-and-medicine/article/algorithms-addiction-and-adolescent-mental-health-an-interdisciplinary-study-to-inform-statelevel-policy-action-to-protect-youth-from-the-dangers-of-social-media/EC9754B533553BDD56827CD9E34DFC25
Richard, Gabrielle, Alexis Graindorge, Amélie Charbonneau, Olivier Vallerand et Marie Houzeau (2025). Augmentation des niveaux de malaise. Ce que les élèves du secondaire pensent de la diversité sexuelle, 2017-2024. Montréal, GRIS-Montréal. https://www.gris.ca/app/uploads/2025/01/GRIS_rapport-final_30jan2025.pdf
Figà Talamanca, G., Arfini, S. Through the Newsfeed Glass: Rethinking Filter Bubbles and Echo Chambers. Philos. Technol. 35, 20 (2022). https://doi.org/10.1007/s13347-021-00494-z
Regehr, K., Shaughnessy, C., Zhao, M., Cambazoglu, I., Turner, A., & Shaughnessy, N. (2025). Normalizing toxicity: the role of recommender algorithms for young people’s mental health and social wellbeing. Frontiers in psychology, 16, 1523649. https://doi.org/10.3389/fpsyg.2025.1523649
Articles scientifiques
Jylhä, V., Hirvonen, N., & Haider, J. (2025). Algorithmic recommendations in the everyday life of young people: imaginaries of agency and resources. Information, Communication & Society, 28(15), 2641–2657. https://doi.org/10.1080/1369118X.2025.2470227
Nguyen, T. T., Hui, P.-M., Harper, F. M., Terveen, L., & Konstan, J. A. (2014, 7 avril). Exploring the filter bubble: The effect of using recommender systems on content diversity. In Proceedings of the 23rd International World Wide Web Conference (pp. 677–686). Association for Computing Machinery. https://dl.acm.org/doi/abs/10.1145/2566486.2568012
Miriam Fernandez, Alejandro Bellogín, and Iván Cantador. 2024. Analysing the Effect of Recommendation Algorithms on the Spread of Misinformation. In Proceedings of the 16th ACM Web Science Conference (WEBSCI ’24). Association for Computing Machinery, New York, NY, USA, 159–169. https://doi.org/10.1145/3614419.3644003
Helberger, N., Karppinen, K., & D’Acunto, L. (2018). Exposure diversity as a design principle for recommender systems. Information, Communication & Society, 21(2), 191–207. https://doi.org/10.1080/1369118X.2016.1271900
Cinelli, M., Morales, G. D. F., Galeazzi, A., Quattrociocchi, W., & Starnini, M. (2021). The echo chamber effect on social media. Proceedings of the National Academy of Sciences, 118(9), e2023301118. https://doi.org/10.1073/pnas.2023301118
Zuiderveen Borgesius, F. J., Trilling, D., Möller, J., Bodó, B., de Vreese, C. H., & Helberger, N. (2016). Should we worry about filter bubbles? Internet Policy Review, 5(1). https://doi.org/10.14763/2016.1.401
Articles de presse
Amnesty International. (2025, 20 octobre). TikTok steering children towards depressive and suicidal content.
https://www.amnesty.org/en/latest/news/2025/10/tiktok-steering-children-towards-depressive-and-suicidal-content/
BBC Bitesize. (2025, octobre). What is a filter bubble?
https://www.bbc.co.uk/bitesize/articles/z87wb7h
Bodewell Law. (s.d.). Social media algorithms and teen mental health.
https://bodewell-law.com/social-media-algorithms-teen-mental-health/
eSafety Commissioner. (2024, 17 avril). An unfair fight: How algorithms are shaping our adolescents.
https://www.esafety.gov.au/newsroom/blogs/an-unfair-fight-how-algorithms-are-shaping-our-adolescents
Yiin. Michael. (2025, 7 juin). Medium. The invisible algorithm: How recommendation engines are reshaping human choice.
https://medium.com/@michaelyiinshihjie/the-invisible-algorithm-how-recommendation-engines-are-reshaping-human-choice-dde88e770776
Gauvreau, Claude.(2025, 21 janvier). UQAM – Actualités. Montée de l’intolérance chez les jeunes à propos de la diversité sexuelle.
https://actualites.uqam.ca/2025/montee-de-lintolerance-chez-les-jeunes-a-propos-de-la-diversite-sexuelle/
UseNuri. (2025, 7 décembre). Algorithm-driven content and youth behavior.
http://www.usenuri.co.kr/news/253967
CROP. (2025, 24 avril). La masculinité toxique chez les jeunes hommes au Canada. Blogue CROP. https://crop.ca/fr/blogue/2025/04/24/la-masculinite-toxique-chez-les-jeunes-hommes-au-canada/
Dumas, H. (2026, 27 février). Montée de l’intolérance à l’école : La haine au quotidien. La Presse. https://www.lapresse.ca/actualites/education/montee-de-l-intolerance-a-l-ecole/la-haine-au-quotidien/2026-02-27/montee-de-l-intolerance-a-l-ecole/comment-en-sommes-nous-arrives-la.php
Fletcher, H. (2024, 26 avril). TikTok’s For You Page: The invisible algorithm that’s redefining attention. Foundation Inc. https://foundationinc.co/lab/for-you-page/
Holpuch, A. (2024, 18 juin). Andrew Tate: The arrests and allegations explained. The New York Times. https://www.nytimes.com/article/andrew-tate-arrests-explained.html
L’Exemplaire. (2025, 12 mars). Le mal alpha : Une souffrance incomprise. Dossier spécial, Université Laval. https://www.exemplaire.com.ulaval.ca/dossiers/le-mal-alpha-une-souffrance-incomprise/
Larouche, V. (2026, 18 février). Poignardée à 14 ans par un garçon qu’elle avait rejeté : « Je me disais qu’il allait me tuer ». La Presse. https://www.lapresse.ca/actualites/poignardee-a-14-ans-par-un-garcon-qu-elle-avait-rejete/2026-02-18/je-me-disais-qu-il-allait-me-tuer.php
Noovo Info. (2026, 24 février). Nez cassés, commotions : La violence des gars envers les filles à l’école est en hausse au Québec. https://www.noovo.info/nouvelles/education/article/nez-casse-commotions-la-violence-des-gars-envers-les-filles-a-lecole-est-en-hausse-au-quebec/
Radio-Canada Info. (2025, 2 mai). Une montée de l’homophobie et de la masculinité toxique dans les écoles [Vidéo]. YouTube. https://ici.radio-canada.ca/info/videos/1-10369420/une-montee-homophobie-et-masculinite-toxique-dans-ecoles
Rapports d’organisations
Office québécois de la langue française. (2025). Algorithme de recommandation. https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/26577203/algorithme-de-recommandation
Office québécois de la langue française. (s.d.). Chambre d’écho. https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/26560265/chambre-decho
Office québécois de la langue française. (s.d.). Bulle de filtres. https://vitrinelinguistique.oqlf.gouv.qc.ca/fiche-gdt/fiche/26577199/bulle-de-filtres
Statistique Canada. (2023). Utilisation des systèmes de recommandation par la population canadienne. https://www150.statcan.gc.ca
Polytechnique Insights. (2023). Algorithmes, personnalisation et diversité de l’information. https://www.polytechnique-insights.com
Digital HEC Montréal. (2024). Algorithmes de recommandation et exposition aux contenus. https://digital.hec.ca
Regroupement des maisons pour femmes victimes de violence conjugale. (2024, 28 novembre). Lancement de la campagne : Dénoncer l’antiféminisme, c’est lutter contre la violence conjugale. https://maisons-femmes.qc.ca/lancement-de-la-campagne-denoncer-lantifeminisme-cest-lutter-contre-la-violence-conjugale/
White Ribbon. (2024-2025). Boys are at risk: Understanding online misogyny and its impact on behavior. https://www.whiteribbon.ca/boys-are-at-risk?lng=en
FAQ
Une bulle de filtres est un état d’isolement intellectuel sur le web. Elle survient lorsque les algorithmes de recommandation ne vous présentent que des informations correspondant à vos intérêts passés. Ainsi, en filtrant ce qui vous déplaît, ces systèmes créent un univers d’information unique qui limite votre exposition à la diversité des points de vue.
La chambre d’écho est un réseau social où vous êtes exposé à des opinions similaires aux vôtres. Ainsi, ceci renforce vos croyances souvent lié à vos interactions ou abonnements.
La bulle de filtres est générée automatiquement par les algorithmes à partir de vos données, souvent sans que vous en ayez conscience.
Selon l’OQLF, ce sont des outils prédictifs. En effet, ils analysent vos signaux comportementaux (clics, temps de visionnement, interactions) pour maximiser votre engagement. L’objectif marketing est de vous garder captif sur la plateforme le plus longtemps possible afin de générer des revenus publicitaires.
Les jeunes sont plus particulièrement vulnérables à l’effet “terrier de lapin” (rabbit hole). En effet, les algorithmes peuvent pousser des mineurs vers des contenus extrêmes (masculinisme, haine) en moins de 30 minutes. D’ailleurs des études (UQAM, 2025) montrent un lien entre ces chambres d’écho numériques et une montée de l’intolérance dans les écoles québécoises.
Oui ! En effet, lorsqu’ils sont utilisés de manière éthique, ils améliorent l’expérience utilisateur. Netflix par exemple, l’algorithme aide à découvrir de nouvelles séries sans nécessairement réduire la diversité. Malgré tout, le défi est de passer d’une performance basée sur le temps passé à une performance basée sur la qualité du contenu.

Laisser un commentaire