Les travailleurs invisibles: l’autre visage de la modération de contenu

Par rodriguezduarteluisajuliana
25 juin 2025 22
Partager cet article

“Viol, décapitations, torture, pédopornographie… Le personnel qui modère le contenu publié sur YouTube doit faire face quotidiennement au pire de ce que l’humanité peut imaginer, afin de faire respecter les règles de publication de YouTube et donc de protéger les internautes” (Radio Canada, 2020). Cet article publié en janvier 2020 parle des tâches que les modérateurs doivent faire pour les compagnies des réseaux sociaux, qui souvent vient avec des conséquences pour la santé physique et mentale des travailleurs. Cependant, le rôle des « travailleurs invisibles », concept dont nous aborderons plus tard, est crucial pour la modération dans les plateformes numériques puisque sont eux qui trient le contenu, qui font l’étiquetage des objets sur les contenus visuels, qui nettoyant les bases des données entre autres.

Généralement, il est pensé que sont les algorithmes d’intelligence artificiel qui modèrent le contenu, mais au derrière se cachent des personnes dont leur travail est en partie invisible. « Même si les utilisateurs ne les voient pas, ces employés sont les travailleurs de première ligne de l’internet, confrontés au pire de la nature humaine… Sans eux, les entreprises de médias sociaux ne pourraient probablement pas exister telles qu’elles sont aujourd’hui » affirme Thomas Stackpole (2022) dans son article « Content Moderation is Terrible by Design ».

Le concept de travail invisible

En 1980, la sociologue Arlene Kaplan Daniels a défini le concept de « travail invisible » comme l’ensemble des tâches ménagères effectuées par des femmes et considérées comme un travail sous-évalué et non rémunéré (Wells et MacAulay, 2024). Cependant, dans l’actualité, le concept dépasse cette définition puisqu’il ne se limite pas aux tâches ménagères, mais englobe également des micro-tâches permettant d’atteindre un objectif principal.

Dans le plan des grandes compagnies de technologie, les « travailleurs invisibles » sont souvent des personnes derrière le fonctionnement des plateformes (comme les réseaux sociaux) qui font le « travail du clic » : une nouvelle forme de travail, qui débute dans les années 2000, et qui se caractérise par l’assignation des petites tâches souvent sous-payées par les employeurs. Par exemple, l’annotation de données représente une phase essentielle pour le développement d’un modèle IA de qualité, affirme le CNIL (2024) dans son article, qui aborde plusieurs fois la question de l’intervention des personnes. Ainsi, l’IA s’alimente et apprendre « en détectant des séquences dans d’énormes quantités de données, mais ces dernières doivent d’abord être triées et étiquetées par des humains… » (Dzieza, 2024). Bien que cela est un travail qui peut s’automatiser, l’IA a toujours besoin d’une perspective humaine pour bien faire fonctionner ses activités.

La controverse de ce sujet réside dans le fait que les travailleurs qui sont derrière cette chaine, sont souvent des personnes avec des conditions de travail précaires. Donc, pour maintenir les algorithmes et pour avoir un grand volume des données pour entrainer l’IA, les compagnies embauchent des personnes dans des pays « à faible revenu » ou en situation de vulnérabilité pour compléter ces taches. Murgia (2024) mentionne le cas de médecins syriens qui utilisent les logiciels médicaux pour poser des diagnostics, d’étudiants vénézuéliens qui classent des produits dans des commerces en ligne et de femmes indiennes en situation de pauvreté qui étiquettent des haut-parleurs Amazon.

La modération de contenu

Le partage de contenu dans les réseaux sociaux a comme but d’engager les utilisateurs et les faire utiliser de plus en plus ces plateformes. Stackpole (2022) mentionne que la modération de contenu a commencé atour du début de plateformes comme MySpace pour avoir du contenu « responsable ». Cependant, lorsqu’il « s’ouvre la porte pour permettre à n’importe qui de télécharger des photos ou des vidéos, vous obtenez toute la gamme de l’expression humaine » (Stackpole, 2022). Cela résulte un problème de réputation pour les grandes compagnies comme Meta, TikTok, qui ont résolu cette situation avec l’embauche du personne qui fait la modération de contenu. Dans l’actualité, chaque entreprise a des politiques et des règles détaillées concernant le contenu présentent dans leurs plateformes qui déplient tout un système de travail pour les modérateurs de contenu. Des bureaux à grande échelle, externalisés, industrialisées, semblables à des centres d’appel et souvent dans de pays où la main d’œuvre est économique est la nouvelle norme pour le travail appelé « crowdworking ».

Cela est le cas des milliers de personnes en Colombie qui travaillent en faisant la modération de contenu pour TikTok. Embauchés par une tierce partie, Teleperformance, ces employés signalent jour par jour le contenu inapproprié dans la plateforme : cannibalisme, pornographie, pédophilie, et meurtres sont des exemples. Cependant, de nombreux travailleurs déclarent ne bénéficier d’aucun soutien psychologique, d’avoir des objectifs de performance exigeants ou impossibles à atteindre, et de se confronter aux déductions salariales punitives et d’une surveillance étendue durant leurs heures de travail (McIntyre, Bradburry et Perrigo, 2022).

Ce type de travail ne cesse de se développer à mesure que les utilisateurs consomment de plus en plus de contenu. « Facebook a marqué pour suppression 3 millions de publications par jour en 2021 » (Ben Wray, 2025). Ce qui confirme le volumen de l’utilisation et le besoin d’avoir des modérateurs de contenu. Milagros Miceli, sociologue et informaticienne qui étudie la modération de contenu depuis 6 ans, fait l’analogie entre ce moderne mode de travail et l’extraction du charbon. L’un expose aux travailleurs aux maladies pulmonaires, l’autre expose aux travailleurs aux contenus « toxiques et dérangeantes qui constituent une menace pour la santé mentale » Ben Wray, 2025).

Plusieurs travailleurs affirment que l’exposition au contenu n’est pas la seule cause des traumatismes et menace pour le bien être. Dans l’article de Ben Wray (2025) ils exposent qu’il y a une combinaison de surveillance humaine et numérique qui intensifie la pression du travail. Plus précisément, les modérateurs de contenu ont des indicateurs de performance qu’ils doivent respecter, comme le temps passé loin de l’ordinateur ou l’appareil électronique et la quantité de contenu visuel qu’ils évaluent par minute. Dans d’autre cas, les rapports confirment que « [Les entreprises de modération de contenu] tentent de rejeter le blâme sur les membres du personnel et de leur faire croire qu’il y a quelque chose qui cloche avec leur propre comportement » (Radio-Canada, 2022).

La chaîne cachée du numérique

Derrière les prédictions et les avancements des algorithmes il se cache une chaine qui est souvent invisibilisée par la société et une nouvelle mode d’exploitation de travail. Cette problématique n’est pas isolée, mais reflète des défis du numérique dans l’actualité comme les injustices sociales et l’inégalité des conditions de travail. Ce sujet ouvre le débat de la responsabilité des plateformes et des organisations sur leurs impacts dans la société. Est-ce que ce type d’entreprises sont-elles transparentes avec ses activités de production? Il faut toujours considérer l’ensemble de pratiques pour répondre à la question.

Pistes de solution et recommandations :

L’invisibilisation du travail humaine est un sujet qui nous concerne à tous comme société puisque le concept de travail peut continuer à changer et affecter la façon comme nous travaillons. Pour ce faire, nous avons plusieurs recommandation qui peuvent se prendre en considération afin de protéger les travailleurs et garantir des meilleurs conditions de travail.

En premier lieu, il faut continuer à fournir des efforts pour comprendre le phénomène sociologique derrière cette nouvelle pratique d’exploitation de travail. Cette compréhension peut aider à mettre en contexte la vie des travailleurs invisibles pour pouvoir, par la suite, exiger aux gouvernements de régulariser les pratiques liées au travail d’entrainement des algorithmes.

La deuxième, est la considération des mesures régulatrices au sujet de condition de travail. Dans le cas spécifique des modérateurs de contenu cela peut être représenté par la garantie de l’accessibilité aux ressources clés comme l’accompagnement psychologique, des séances de coaching, des espaces de recréation au travail et de la flexibilité pendant les heures de travail. En plus, il est important de considérer le salaire, et d’autres aspects comme les contrats de travail dans ce contexte.

Une autre considération est l’exigence aux organisations sur ce qui est relié à la transparence des pratiques dans le milieu de travail. Même si sont des organisations et entreprises qui sont en contrat avec les grandes compagnies de technologie, il est important qu’elles fassent des rapports sur ses travailleurs et la réalité du travail offert.

Finalement, Thomas Stackpole (2022) propose une solution « plus controversée » qui « consiste à à repenser la manière dont les plateformes de médias sociaux sont conçues ». Selon l’auteur de l’article « Content Moderation is Terrible by Design » le problème n’est pas seulement le mauvais contenu ni la modération. La problématique la plus présente est que les plateformes des réseaux sociaux sont désignées pour vendre plus, pour engager le consommateur et pour maximiser les profits, tandis qu’elles devraient servir à promouvoir la communication sécurisé et des ambiances favorables de communication (Stackpole, 2022).

Derrière la prédiction et la génération de contenu se cachent millions de vissages humains qui effectuent le travail du clic. Souvent, les travailleurs invisibles, paradoxalement aux objectifs systémiques de la technologie d’innovation et avancement, se confrontent aux situations d’exploitation dans leur milieu de travail ou à des contextes malsaines pour leur santé générale. Avec la démocratisation de l’utilisation des technologies comme l’intelligence artificielle et les réseaux sociaux, sommes-nous tous responsables des problématiques liées à l’exploitation des travailleurs invisibles ? Ceci est une question à réflexion, mais une chose est certaine : des efforts pour mieux comprendre cette nouvelle dynamique sociale ainsi que mettre en lumière les pratiques d’exploitation associées à l’entraînement des algorithmes sont de plus en plus nombreux.

Bibliographie :

CNIL. (2024). IA : Annoter les données. Commission nationale de l’informatique et des libertés. https://www.cnil.fr/fr/ia-annoter-les-donnees

Dzieza, J. (2024). Combien d’humains faut-il pour créer une IA ? L’actualité. https://lactualite.com/techno/combien-dhumains-faut-il-pour-creer-une-ia/

McIntyre, N., Bradbury, R., & Perrigo, B. (2022). Behind TikTok’s boom: A legion of traumatised, $10-a-day content moderators. The Bureau of Investigative Journalism. https://www.thebureauinvestigates.com/stories/2022-10-20/behind-tiktoks-boom-a-legion-of-traumatised-10-a-day-content-moderators

Murgia, M. (2024). How vulnerable low-wage workers power AI algorithms : The precarious labor behind the digital revolution. Literary Hub. https://lithub.com/how-vulnerable-low-wage-workers-power-ai-algorithms/

Radio-Canada. (2022). Des modérateurs de Youtube obligés de consentir aux risques de stress post-traumatique

https://ici.radio-canada.ca/nouvelle/1489811/youtube-moderateur-contenu-stress-post-traumatique

Stackpole, T. (2022). Content Moderation is Terrible by Design. Harvard Business Review. https://hbr.org/2022/11/content-moderation-is-terrible-by-design

Wells, J. et MacAulay, D. (2024).What Invisible Work Looks Like in the 21st Century. Psychology Today. https://www.psychologytoday.com/ca/blog/our-invisible-work/202406/what-invisible-work-looks-like-in-the-21st-century

Wray, B. (2025). Content Moderation is What a 21st Century Hazardous Job Looks Like. Equal Times. https://www.equaltimes.org/content-moderation-is-what-a-21st

Partager cet article
Par rodriguezduarteluisajuliana

Laisser un commentaire

Laisser un commentaire