Un hypertrucage, qu’est-ce que c’est?
Les deepfakes, ou hypertrucages sont des contenus audiovisuels modifiés par l’intelligence artificielle afin de donner l’illusion qu’une personne est présente dans une situation où elle n’a jamais été présente. Apparu au début comme outil de divertissement ou de satire, ce phénomène est rapidement devenu une menace pour la véracité de l’information, et la vie privée. Dans un monde où les plateformes numériques et les réseaux sociaux sont les principaux modes de diffusion de l’information, leur responsabilité face à la propagation de contenus trompeurs devient centrale. Ce sujet est d’autant plus pertinent dans le contexte actuel où les IA génératives sont de plus en plus accessibles et puissantes, et où de plus en plus de personnes ont accès à internet et sont donc plus souvent confrontées à ces hypertrucages. Que vous soyez actifs sur les réseaux sociaux ou pas, il est très probable que vous ayez déjà été confronté à un hypertrucage, peut-être même sans vous en rendre compte. Selon Schlenker (2024), on compte plus de 500 000 vidéos et fichiers audio deepfakes diffusés sur les réseaux en 2023. Les fraudes associées à cette technologie ont augmenté de 1740 % seulement en Amérique du Nord, passant de 2022 à 2023. Ce thème est donc bien ancré dans l’actualité et il est impératif pour nous de ne pas seulement être spectateur, mais acteur dans le développement de ces enjeux.
Afin d’aborder ce sujet, ce texte présentera des cas d’impacts politiques, économiques et sociaux liés à l’usage de deepfakes. Le texte analysera ensuite les mesures mises en place par les plateformes, notamment les outils de détection et leurs partenariats avec des “fact-checkers”. On examinera ensuite le cadre légal actuel, puis nous mettrons en lumière les limites de ces dispositifs, qu’il s’agisse de l’inefficacité technique, du cadre juridique encore trop flou, ou encore du manque de gouvernance algorithmique. Finalement, plusieurs pistes de recommandations ou d’amélioration seront proposées pour nous permettre de retrouver la vérité derrière nos écrans.
Les hypertrucages de nos jours.
Au niveau économique, l’utilisation des deepfakes peut influencer les marchés, déstabiliser des entreprises ou outiller les fraudeurs. En février 2024, un employé d’une entreprise à Hong Kong a participé à une visioconférence où les visages et voix de ses collègues, dont le directeur financier, semblaient réels. Convaincu, il fit plusieurs virements bancaires frauduleux d’une valeur totale de 26 millions de dollars et ne se rendit compte qu’une semaine plus tard que ces visages et voix n’étaient que des imitations générées par de l’IA (Chen & Magramo, 2024). Ces trucages engendrent des coûts massifs de cybersécurité et nuisent à la réputation des entreprises et des plateformes.
Au niveau politique, les deepfakes sont utilisés en grande partie pour interférer dans les campagnes électorales, ou influencer des opinions de masse. L’un des exemples les plus récents est celui des élections présidentielles américaines de 2024, où un deepfake vocal de Joe Biden incitant les électeurs à ne pas voter lors des primaires du New Hampshire a fait surface (West & White, 2024). De plus, la prolifération des deepfakes a fait émerger le nouveau terme de “dividende du menteur”, où des politiciens discréditent de véritables preuves en les qualifiant de fausses, ce qui complique davantage la distinction entre réalité et fiction (Naffi et coll. 2021).
La création et la diffusion de contenus falsifiés soulèvent également des questions éthiques sur le consentement et la manipulation. Taylor Swift a par exemple été victime de création et distribution de pornographie deepfake non consensuelle sur les réseaux sociaux, et c’est malheureusement loin d’être la seule femme dans ce cas-là (Nelson, 2024). Cet usage de l’IA met donc en lumière la responsabilité morale des plateformes sur la diffusion de ces images.
Les mesures actuelles.
Face à la prolifération des hypertrucages, les grandes plateformes ont mis en place plusieurs mécanismes pour détecter les contenus falsifiés et en avertir les utilisateurs. D’abord, elles utilisent des systèmes de détection automatisés fondés sur l’intelligence artificielle, capables d’analyser les images, les mouvements faciaux et les modulations vocales pour repérer d’éventuelles manipulations. Meta, TikTok et YouTube disposent ainsi d’outils internes d’analyse et d’équipes de détection manuelle afin de déceler les images falsifiées (He & Fang, 2024). En complément, certaines plateformes ont instauré un étiquetage automatique des contenus jugés synthétiques. Par exemple, TikTok oblige désormais les utilisateurs à signaler tout contenu généré par IA, sous peine de retrait, tandis que Meta mise sur des mentions « Made with AI » sur les vidéos modifiées (AFP, 2024).
Par ailleurs, les plateformes s’appuient sur des partenariats avec des organismes indépendants de vérification des faits, comme PolitiFact ou AFP Factuel. Ces collaborations permettent d’identifier les contenus trompeurs, de les signaler et d’en limiter la diffusion en enlevant leurs référencements ou en les accompagnant d’un avertissement visible. Un partenariat de ce type a été mis en place pour les élections générales en Inde, où Google s’est fait partenaire avec Shakti, « India Election Fact-Checking Collective » (Raghunath & Malik, 2024). Une autre initiative structurante est celle de la Coalition for Content Provenance and Authenticity (C2PA), qui propose d’intégrer directement dans les métadonnées des images ou vidéos les informations sur leur origine et les modifications subies.
Concernant les lois, le cadre légal entourant les hypertrucages varie considérablement selon les régions du monde. Au Canada, il n’existe à ce jour aucune législation spécifique ciblant précisément les deepfakes. Les contenus manipulés peuvent parfois être encadrés par des lois plus générales, comme celles portant sur la vie privée, la diffamation ou l’usurpation d’identité. Cependant, ces lois sont peu adaptées aux réalités numériques des hypertrucages, notamment en ce qui concerne la diffusion des contenus ou leur portée internationale. Selon le cabinet Langlois (2023), il est difficile, en l’état actuel du droit canadien, de poursuivre efficacement les créateurs ou les diffuseurs de deepfakes, sauf dans des cas très spécifiques. Un projet de loi notable, le projet C-27 (Loi sur l’intelligence artificielle et les données), déposé en 2022, vise à encadrer l’utilisation de l’IA au Canada. Il propose une régulation différenciée selon le niveau de risque des systèmes d’intelligence artificielle. Toutefois, il ne traite pas explicitement des contenus audiovisuels générés ou falsifiés, comme les deepfakes diffusés sur les réseaux sociaux (Parliament of Canada, 2022).
En février 2024, le gouvernement du Canada a introduit l’idée du « Online Harms Act » sous la loi C-63, qui visait notamment à encadrer les deepfakes à caractère sexuel non consensuel, en les classant parmi les contenus nuisibles à retirer rapidement des plateformes. Elle imposait aux entreprises numériques l’obligation de mettre en place des mécanismes efficaces de détection, de signalement et de suppression de ce type de contenu (Provost, 2024). Bien qu’elle ait proposé des outils législatifs pour freiner la diffusion de deepfakes, la loi n’a finalement pas été adoptée, soulevant des débats sur les risques pour la liberté d’expression et les droits fondamentaux des utilisateurs. Aux États-Unis, il n’existe pas non plus de législation au niveau fédérale sur les deepfakes. Toutefois, certains États, comme la Californie ou le Texas ont adopté des lois interdisant les deepfakes dans un contexte électoral ou non consensuel (State of California, 2024).
En comparaison, l’Union européenne avance vers une approche plus structurée avec le Digital Services Act (DSA), entré en vigueur en 2022, et qui impose déjà aux grandes plateformes le retrait des contenus illicites et une transparence des algorithmes (Commission européenne). Bien que le DSA ne cible pas directement les hypertrucages, il crée une base juridique plus solide pour les encadrer.
Freins et limites.
Malgré les efforts engagés par les plateformes et certains législateurs, les mesures actuellement mises en place pour détecter et prévenir les hypertrucages présentent de nombreuses limites.
Sur le plan technologique, les outils de détection automatique développés par les plateformes, bien qu’en constante amélioration, sont souvent en retard par rapport à l’évolution rapide des techniques de génération de deepfakes. Selon He et Fang (2024), les stratégies de modération de contenu s’appuyant sur des modèles de détection basés sur l’IA, ne sont pas infaillibles et sont encore trop incohérents dans leur application. On reconnait aussi une inégalité liée à la langue concernant la supervision des contenus. Les communautés non anglophones sont particulièrement vulnérables à la désinformation, en raison d’un manque de modération de contenu dans leur langue. Des exemples comme les élections au Brésil en 2022 montrent que les contenus trompeurs circulent plus librement dans des langues moins surveillées. On sait aussi que Meta consacre 87 % de son budget anti-désinformation à l’anglais, alors que ses utilisateurs anglophones ne représentent que 9 % de sa base globale montrant un déséquilibre dans les efforts de modération (West & White, 2024).
Un autre frein majeur réside dans la gouvernance algorithmique : les algorithmes de recommandation sont conçus pour maximiser l’engagement des utilisateurs et favorisent donc souvent la viralité des contenus sensationnalistes, comme les deepfakes, au détriment de leur véracité (Gorwa et coll., 2020). Ces conflits d’intérêts entre la quête de rentabilité des plateformes et leur devoir de modération constituent un énorme obstacle à la prévention efficace de la désinformation.
Du côté juridique, les lois restent trop vagues, ou trop locales. Par exemple, au Canada, les recours se basent encore sur des concepts assez généraux, comme la vie privée ou la diffamation, peu adaptés aux réalités plus récentes des hypertrucages. Le standard C2PA, bien que prometteur, reste encore trop peu généralisé pour être réellement efficace. Les projets comme le DSA en Europe ou la loi C-27 au Canada ne couvrent pas encore précisément la question de la responsabilité directe des plateformes en cas de propagation de deepfakes (Provost, 2024 ; Commission européenne). L’un des problèmes majeurs est la différence de règlementation d’un pays à un autre, un contenu illégal dans un pays peut rester accessible ailleurs, faute de coordination internationale. Cette fragmentation rend difficile l’application des lois de façon uniforme.
Quel avenir pour les plateformes?
Face aux limites des mesures actuelles, plusieurs pistes d’amélioration peuvent être envisagées pour mieux encadrer les hypertrucages ou limiter leur diffusion. La première étape consisterait à renforcer le cadre légal en créant des lois spécifiques aux contenus deepfakes, avec des obligations claires d’étiquetage et de retrait rapide. Les plateformes devraient être tenues responsables aux yeux de la loi si elles ne suppriment pas un contenu manifestement falsifié dans un certain délai. En plus de ça, une coopération internationale est nécessaire pour une structure unie et homogène des plateformes : tant que chaque pays adopte des règles différentes, la régulation restera inefficace à l’échelle du web. Il faudrait également agir sur la gouvernance algorithmique en contraignant les plateformes à plus de transparence concernant les critères déterminant la visibilité des contenus. L’intégration de facteurs, comme la vérification par des sources reconnues, pourrait limiter la mise en avant de contenus trompeurs. Une autorité neutre pourrait aussi être mandatée pour réaliser des audits réguliers, en s’inspirant des recommandations de Gorwa, Binns et Katzenbach (2020). Du point de vue technologique, l’adoption d’un standard comme le C2PA permettrait aussi d’assurer une traçabilité numérique des images et vidéos, en renseignant leur origine, leur historique et les éventuelles modifications (C2PA).
Conclusion.
Pour conclure, les hypertrucages et la désinformation représentent aujourd’hui des défis majeurs et grandissants pour les plateformes numériques, les gouvernements et les citoyens. Même si plusieurs mesures ont été mises en place, elles restent insuffisantes pour faire face à la rapidité avec laquelle les technologies évoluent et à l’ampleur de la propagation des contenus deepfakes. Les outils technologiques sont encore limités, les algorithmes mettent encore trop en avant les contenus falsifiés et le cadre juridique, particulièrement au Canada, peine à encadrer ce phénomène. Pour faire face à ces enjeux, une approche à plusieurs niveaux semble nécessaire. Cette approche devrait combiner le renforcement des obligations légales, une plus grande transparence de la part des plateformes ainsi que l’adoption de standards de traçabilité.
Le mot de la fin.
Dans un monde où le numérique prend de plus en plus d’importance, une technologie avec un tel potentiel est à utiliser avec précaution ; influençant nos avis et manipulant notre vision de la réalité à travers nos écrans. Les plateformes ont une responsabilité vis-à-vis des utilisateurs et se doivent d’être transparentes afin de protéger leurs intégrités et leurs droits. Néanmoins, tant que ces plateformes ne seront pas soumises à des obligations de transparence et de responsabilité plus strictes et partagées par les instances gouvernementales, elles n’auront pas assez d’incitatifs à agir. Selon moi, il faudrait que les décideurs et les États s’harmonisent pour mettre en avant le bien-être social des utilisateurs avant le profit et les impressions sur leurs réseaux. Une solution envisageable au niveau social serait d’adapter l’éducation citoyenne afin d’instruire et sensibiliser les citoyens à reconnaitre les contenus manipulés.
Dans cette logique de responsabilité partagée entre plateformes, législateurs et société civile, nous devrons marcher main dans la main afin de contenir les effets négatifs des hypertrucages, protéger l’intégrité de l’information et créer un espace numérique plus responsable.