En 2025, l’IA générative connaît une croissance exponentielle, offrant de nouveaux outils tels que la conversation, le code, les images, les vidéos et les audios. L’IA générative révolutionne le domaine artistique en permettant la production de résultats similaires à ceux des humains avec une efficacité remarquable. Un simple clic suffit pour créer du contenu qui aurait pris des heures à un être humain. Cette technologie est non seulement puissante, mais également très populaire. En 2024, ces applications avaient déjà plus de 100 millions d’utilisateurs mensuels (Della Giustina, 2024). Toutefois, il y a un problème : les IA ont besoin de beaucoup de données, y compris des œuvres protégées, pour s’entraîner. Utiliser ces œuvres sans autorisation peut être considéré comme une violation du droit d’auteur. Ce sujet est crucial, car la technologie émergente soulève des questions juridiques complexes. Des auteurs portent de plus en plus plainte contre des entreprises telles qu’OpenAI, Stability AI et Meta pour violation présumée du droit d’auteur liée à l’entraînement des IA (Fenwick & Jurcys, 2023). Les entreprises technologiques tentent de trouver des exceptions pour continuer à former leurs algorithmes. C’est pourquoi il y a un gros dilemme sur le sujet à savoir comment continuer à innover tout en protégeant les droits fondamentaux des artistes.
Qu’est-ce que le droit d’auteur et pourquoi il n’est pas adapté à l’IA?
Le droit d’auteur protège toutes les œuvres originales fixées sur un support, qu’il s’agisse d’écrits, d’images ou de sons. Il ne peut être détenu que par une personne physique. C’est pourquoi ce débat existe. Par conséquent, toute personne utilisant une œuvre protégée par des droits d’auteur doit payer une redevance à l’artiste.
L’émergence de l’IA générative remet en question le droit d’auteur traditionnel, car elle produit des œuvres sans intervention humaine consciente. Au Canada et aux États-Unis, seules les œuvres créées par des humains sont protégées par la loi (Craig, 2021). Par conséquent, les œuvres générées par l’IA ne sont pas considérées comme couvertes par le droit d’auteur.
Cette idée a été confirmée par l’affaire Naruto c. Slater en 2016, où la cour américaine a statué qu’un singe ne pouvait pas avoir de droits d’auteur (Fenwick & Jurcys, 2023). Cela a renforcé le fait que seules les personnes peuvent être considérées comme des auteurs légaux. Si une œuvre est créée automatiquement par une IA, elle n’est pas protégée par le droit d’auteur. Toutefois, si un humain intervient dans la création, en guidant suffisamment l’IA, l’œuvre peut être protégée. Qui est donc responsable de l’œuvre générée par l’IA ? Le développeur de l’algorithme, l’utilisateur qui donne des instructions, ou l’IA elle-même ?
Toutefois, certains défis existent. En effet, certaines productions artistiques inspirées d’un style particulier ou modifiant des œuvres préexistantes ne violent pas directement les droits d’auteur. Cependant, les artistes revendiquent un droit moral, notamment la reconnaissance en tant qu’inspirateur, la protection de l’intégrité de leur œuvre et l’autorisation préalable à son utilisation par l’IA. La protection des droits d’auteur a des limites lorsqu’il s’agit de styles artistiques. Par exemple, les studios Ghibli ne pourraient pas poursuivre une IA pour avoir copié leur style, car cela ne serait pas considéré comme une infraction. Les artistes sont mécontents, mais les entreprises d’IA sont protégées.
L’entrainement des IA sur les œuvres protégées
Les IA ne peuvent pas être protégées par le droit d’auteur, mais elles font souvent l’objet de poursuites judiciaires de la part d’artistes. Cela est dû à la façon dont ces algorithmes sont entrainés, car ils utilisent de grands ensembles de données, comme des textes, des images, des vidéos, etc. Ces bases de données contiennent souvent des œuvres protégées, mais les créateurs ne sont pas informés de leur utilisation. Il est donc incertain si l’utilisation de ces données pour entraîner les IA est illégale ou autorisée.
Les entreprises d’IA peuvent s’appuyer sur plusieurs principes juridiques pour former leurs algorithmes. Par exemple, aux États-Unis, le « Fair Use » autorise l’utilisation limitée de matériel protégé par le droit d’auteur, à condition qu’il soit transformé, non commercial et utilisé à des fins de recherche ou d’analyse. Le « Fair Use » est la principale défense des entreprises américaines d’IA pour l’entraînement. Elles considèrent cela comme un usage transformateur ne remplaçant pas les œuvres originales. Cependant, les tribunaux interprètent cette clause individuellement, ce qui ne les protège pas entièrement. (Quintais, 2025)
Les entreprises d’IA utilisent les principes de l’UE, notamment l’exception de fouille de textes et de données. L’article 3 de la directive 2019/790 autorise l’utilisation à des fins de recherche scientifique, tandis que l’article 4 permet une utilisation commerciale, sauf si l’auteur s’y oppose explicitement (clause « opt-out »). La législation européenne exige que les développeurs d’IA incluent une clause permettant aux artistes de se retirer explicitement de l’utilisation de leurs œuvres. (Quintais, 2025)
Les entreprises affirment que les œuvres ne sont pas préservées à l’identique, mais analysées sous un angle statistique pour générer de nouvelles productions. Elles évoquent un parallèle avec l’apprentissage humain et artificiel, où chaque entité doit lire, écouter ou observer pour créer (Fenwick & Jurcys, 2023).
Le secret entourant les corpus d’entraînement des IA pose un grave problème. Les artistes ne peuvent pas savoir si leurs œuvres ont été utilisées, car les bases de données sont tenues confidentielles pour des raisons commerciales. Cela rend difficile l’évaluation de l’impact sur les artistes. (Della Giustina, 2024)
Les créateurs face aux IA : entre imitation, injustice et appropriation
Certains artistes considèrent que l’entraînement des IA constitue une forme d’extraction injuste de leur créativité à des fins commerciales, ce qui est perçu comme un vol ou un pillage culturel (Della Giustina, 2024). Ils revendiquent le droit moral pour protéger leur style, leur identité artistique et la valeur de leur travail.
Plusieurs poursuites judiciaires ont déjà eu lieu sur le même sujet. En 2023, Sarah Anderson, Kelly McKernan et Karla Ortiz ont intenté une action collective contre Stability AI, alléguant que des millions d’œuvres avaient été prélevées illégalement sur DeviantArt et ArtStation pour entrainer Stable Diffusion (Craig, 2021). Getty Images a intenté une nouvelle action en justice contre Stability AI, alléguant l’utilisation non autorisée de 12 millions d’images sous copyright, dont certaines étaient encore marquées de son logo, pour former Stability AI. Cela montre que des mesures de protection ou de consentement n’ont pas été prises (Craig, 2021). De plus, des cas similaires à ceux de célébrités ont été identifiés dans la création de contenu. Midjourney a produit des images dans le style de Ghibli, mais n’a aucun lien avec le studio japonais (De Vynck & Hunter, 2025). Des chansons ont également été générées pour imiter les voix de célébrités, telles que Drake et The Weeknd, et se sont retrouvées sur YouTube et TikTok (Chow, 2024).
Comment les entreprises d’IA réagissent-elles aux poursuites ? Elles soutiennent que l’IA ne copie pas, mais transforme les informations, comme un artiste qui s’inspire du monde (Fenwick & Jurcys, 2023). Elles cherchent à prouver que l’IA apprend comme un être humain. Selon eux, cette création est unique. Cependant, si elle reprend des styles ou des tons familiers, il peut être difficile de distinguer la création de l’imitation.
Peut-on considérer une œuvre créée par une IA comme une véritable création artistique ? Certains pensent que l’IA est un outil créatif qui permet d’explorer de nouveaux styles ou de générer des variations illimitées. L’IA agirait alors comme une extension de l’imagination humaine, tout comme les logiciels tels que Photoshop ou les instruments numériques de musique. Selon certains artistes, les œuvres créées par l’IA manquent de personnalité, d’expérience vécue, d’émotions et de contexte, car elles sont générées de manière statistique. (Fenwick & Jurcys, 2023).
L’intégration de l’IA générative dans l’art pourrait avoir des conséquences sociales et culturelles. Elle pourrait uniformiser les styles en se basant sur les tendances dominantes, excluant ainsi certains artistes et cultures. Cela pourrait conduire à la marginalisation des minorités. Finalement, il est reconnu que les IA peuvent avoir des préjugés envers le genre, la race et les idéologies. Ils pourraient s’aggraver (Della Giustina, 2024).
L’opinion publique est divisée sur l’impact des IA. Certains célèbrent leur créativité et leur innovation, tandis que d’autres s’inquiètent de la protection des artistes, de la diversité culturelle et de l’authenticité humaine. Ce débat a conduit à des discussions politiques sur la réglementation des IA.
Vers un cadre réglementaire clair et précis
Comme nous l’avons vu tout au long du texte, il y a de nombreuses zones grises dans ce débat. C’est pour cela qu’il est nécessaire de créer un cadre réglementaire clair et précis afin de protéger les droits des artistes, tout en permettant aux entreprises d’IA de continuer à innover. La principale solution serait de rémunérer les artistes, demander leur consentement et être reconnus pour leurs œuvres. Les banques de données utilisées pour l’entraînement des IA sont souvent ce qui permet de créée une valeur économique directe aux entreprises grâce aux abonnements et modèles commerciaux qu’ils génèrent ainsi qu’une valeur économique indirecte par l’amélioration des produits et les valorisations boursières. Trois solutions sont proposées : Des licences collectives obligatoires, une transparence et audit des bases de données et des systèmes de partage de la valeur.
Le premier s’inspire des modèles de gestion collective des droits comme la SACEM (Société des auteurs, compositeurs et éditeurs de musique) en France. Les décideurs politiques pourraient instaurer un régime de licence obligatoire permettant l’utilisation de données protégées par le droit d’auteur pour l’entraînement des IA, en échange d’une compensation équitable aux ayants de droits. Ce système pourrait ressembler aux structures existantes de gestion collective des droits, comme celles utilisées dans l’industrie ou de l’édition (Della Giustina, 2024).
Le deuxième consisterait en un rapport qui insiste sur le besoin d’une traçabilité claire de l’origine des données utilisées pour entraîner les IA. Ceci pourrait permettre aux artistes de savoir exactement quelles œuvres ont été utilisées afin d’avoir un consentement plus éclairé et la possibilité de calculer une compensation équitable (Della Giustina, 2024).
Le troisième consiste à créer un fond de compensation financé par les profits des entreprises d’IA qui sera redistribué aux artistes dont leurs œuvres ont été utilisées dans l’entraînement des IA. (Della Giustina, 2024).
Cependant, de nombreux obstacles font en sorte que l’instauration de ces solutions est très difficile. En effet, l’effet boit noire des algorithmes rend très difficile à déterminer quelle partie du jeu de données a contribué aux contenus générés par l’IA. De plus, à l’échelle mondiale, en dehors de l’union européenne, il manque énormément de règlementation ou de cadre claire. Il y aurait aussi un risque que les entreprises contournent ces règlementations en exploitant des données dites grises. C’est-à-dire des données accessibles publiquement en ligne utilisées sans consentement explicite qui ne sont pas protégées par des verrous techniques mais qui sont quand même protégées par des droits d’auteurs.
Il sera très important que ce modèle économique se base sur la reconnaissance de la valeur des œuvres sources, des mécanismes de traçabilité et de redistribution et une transparence accrue des développeurs d’IA. Sans mécanismes de compensation exécutoires, les créateurs risquent d’être exclus des bénéfices économiques générés par leurs propres œuvres (Della Giustina, 2024).
Sur quels cadres peut-on se baser?
Jusqu’à présent, on compte relativement peu de lois régissant la production artistique grâce aux intelligences artificielles. En effet, le droit d’auteur ne reconnait que les œuvres humaines, ce qui entraîne une zone grise juridique quant au processus d’apprentissage automatique utilisant des œuvres protégées. Cette situation provoque plusieurs poursuites judiciaires, ainsi qu’une insécurité juridique et un climat de défiance entre les entreprises technologiques et les artistes. Il est donc impératif de procéder à une réforme, même si les exemples concrets sont encore rares.
Le premier modèle législatif introduit est l’AI Act européen, qui est entré en vigueur en 2024. Il exige une transparence sur les données d’entraînement utilisées pour les IA à usage général. Les fournisseurs doivent documenter de manière détaillée les données utilisées pour l’entraînement, y compris leur origine, leur volume et leur nature. Cela permet aux auteurs de refuser l’utilisation de leurs œuvres par la clause « opt-out » décrite plus tôt. (Quintais, 2025).
Aux États-Unis, le cadre repose toujours sur le principe du « Fair Use », comme cela a été expliqué plus tôt. Cependant, cette doctrine est très interprétative, ce qui fait que les litiges sont traités au cas par cas. L’absence de décision claire sur l’entraînement des IA sous la doctrine du « Fair Use » crée une zone d’incertitude propice à des actions en justice. (Della Giustina, 2024)
Au Japon et à Singapour, il est permis d’utiliser des données protégées dans l’entraînement des IA, à des fins de recherche ou commerciales, mais seulement si cela ne vise pas la reproduction d’une œuvre. Ces deux pays adoptent une perspective favorable à l’innovation technologique (Craig, 2021).
Au Canada, il n’existe aucun régime spécifique régissant les IA génératives. Les instances juridiques estiment que seules les œuvres créées par des humains sont protégées par le droit d’auteur. De plus, il n’existe aucune réglementation concernant l’entraînement des IA (Della Giustina, 2024).
La multitude de divergences réglementaires entre les pays rend illégal au Japon ce qui est légal en Europe et incertain au Canada. Il est de plus en plus urgent de collaborer sur une réglementation internationale de l’IA pour éviter les détournements de droits à l’échelle mondiale.
Vers un nouveau pacte numérique?
Pour conclure, le débat entourant l’entraînement des IA génératives et la protection des droits des artistes créé de nombreuses tensions. L’IA est-elle capable de créer par elle-même ou elle copie de manière cachée les œuvres des artistes? L’usage des données protégées dans l’entraînement des IA est-il acceptable ou le consentement des auteurs est nécessaire? Comment favoriser l’innovation sans enfreindre les droits des artistes?
La nécessité d’une reconfiguration du cadre juridique et éthique autour de l’IA générative est nécessaire et plusieurs pistes concrètes ont été proposées. Soit en développant des systèmes d’identification des œuvres utilisées à l’entraînement, en formant les artistes à collaborer avec l’IA au lieu de la percevoir comme une menace ou en créant des normes internationale et éthique. Un cadre doit être créée pour maintenir un équilibre entre l’innovation et la protection des droits des artistes.
Considérant les impacts sociaux que peut avoir l’IA générative et la possible instauration d’un cadre règlementaire international, l’intelligence artificielle peut-elle devenir un partenaire artistique légitime, sans compromettre la diversité, la reconnaissance et la pérennité de la création humaine?
Sources:
Ahuja, V. K. (2020). Artificial intelligence and copyright: Issues and challenges. ILI Law Review, Winter.
Chow, A. R. (2024, April 18). How AI is wreaking havoc on the fanbases of Taylor Swift, Drake, and other pop stars. TIME. https://time.com/6968769/taylor-swift-drake-ai-vocal-deepfakes/
Craig, C. J. (2021). AI and copyright. In Artificial Intelligence and the Law in Canada. Toronto: LexisNexis Canada.
Della Giustina, A. C. (2024). Fair compensation for copyrighted data used in AI training (Master’s thesis, Tilburg University).
De Vynck, G., & Hunter, T. (2025, March 29). AI generated Ghibli images go viral as OpenAI loosens its rules. The Washington Post. https://www.washingtonpost.com/technology/2025/03/28/chatgpt-ghibli-ai-images-copyright/
Fenwick, M., & Jurcys, P. (2023). Originality and the future of copyright in an age of generative AI. Computer Law & Security Review, 51, 105892. https://doi.org/10.1016/j.clsr.2023.105892
Quintais, J. P. (2025). Generative AI, copyright and the AI Act. Computer Law & Security Review, 56, 106107. https://doi.org/10.1016/j.clsr.2025.106107