Apprendre des meilleurs, sans payer : le dilemme du droit d’auteur à l’ère de l’IA générative
«La propriété intellectuelle est protégée», stipule la Charte des droits fondamentaux de l'Union européenne. Cependant, de nouveaux outils puissants basés sur l'intelligence artificielle entraînent des changements majeurs dans l'industrie créative. Ces mots sont-ils alors destinés à rester une simple devise ?

« Bonjour Chat, pourrais-tu transformer cette image dans un style inspiré du Studio Ghibli ? ».
Nous savons tous à quoi ressemblait le résultat : des scènes douces, éthérées, aux couleurs pastel, envahissant nos réseaux sociaux, rappelant fortement les œuvres du célèbre artiste japonais Hayao Miyazaki. Comme beaucoup de tendances en ligne, celle-ci s’est estompée en quelques mois, mais elle a suffi à soulever des questions très sérieuses sur le droit d’auteur à l’ère de l’IA.
La société d'Altman a-t-elle enffeint la loi ? S'agissait-il d'une violation du droit d'auteur ? Le modèle d'AI a-t-il été entraîné sur les œuvres protégées de Miyazaki sans consentement, crédit ni compensation ?[1]
Ces questions s’appliquent plus largement à tous les modèles de langage de grande taille (LLM) et aux systèmes d’IA générative, connus pour s’entraîner sur de vastes bases de données de textes, d’images et d’autres contenus supposément publics disponibles sur Internet ou fournis par les utilisateurs.
Peu avant que les portraits style Ghibli ne deviennent viraux, un autre scandale a éclaté. En janvier 2025, un groupe d'autres a déposé une plainte pour violation du droit d'auteur contre Meta aux États-Unis[2]. Les plaignants accusaient l'enterprise de Zuckerberg d'avoir exploité la base de données LibGen - un célèbre dépôt de livres piratés - pour entraîner son modèle d'IA[3]. Sans aucun crédit bien sûr.
Notre objectif n’est pas de juger les preuves dans ces procès, mais d’examiner ce qu’ils révèlent d’une tendance plus large : chaque avancée de sophistication de l’IA entraîne de nouveaux défis juridiques et éthiques.
Le nœud du droit d’auteur et de l’extraction de données.
Les modèles d'IA à usage général (GPAI) reposent sur des techniques d'apprentissage profond nécessitant un vaste ensemble de données, structurées ou non, l'extraction automatique de données (data scraping) depuis le web et d'autres sources en ligne, ainsi que le data mining, utilisé pour analyser ces données de manière automatisée[4].
Pour mieux comprendre les implications juridiques, tournons-nous vers le droit d’auteur de l’UE et les défis sans précédent posés par les GPAI et leur insatiable appétit pour les données.
Le Marché unique numérique (Directive CDSM, Directive (UE) 2019/790)[5] vise à harmoniser le droit d'auteur et les droits voisins danse le marché intérieur et introduit certaines exceptions concernant le Text and Data Mining (TDM).
L'article 3 cuore le TDM à des fins scientifiques[6]. L’article 4 permet la reproduction et l'extraction d'œuvres pour le data mining général par des utilisateurs, y compris des entités commerciales, à condition que deux critères soient remplis[7]: les œuvres doivent être légalement accessibles et les titulaires de droits ne doivent pas avoir explicitement réservé leurs droits. Un point majeur de contentieux demeure cependant l'ambiguïté profonde entourant la notion d'«accès légal».
Selon l'article 4(3) de la Directive, les titulaires de droits peuvent « se retirer » du TDM en intégrant una mention lisible par machine dans leur contenu en ligne. Cependant, l'absence d'une norme technique harmonisée pour ce mécanisme de retrait crée une grande incertitude quant aux œuvres légalement exclues. Cette lacune pratique risque d'affaiblir le contrôle des titulaires de droits plutôt que de le garantir. De plus, la Directive n'impose aucune obligation aux développeurs d'IA de réentraîner leurs modèles ou de supprimer les données précédemment ingérées[8], qui conduit fréquemment à inclure dans les ensembles d'entraînement des œuvres protégées[9].
D'autres obligations apparaissent dans le cadre du règlement européen sur l'IA, notamment aux articles 53(1)(c) et (d). La disposition (c) exige que les fournisseurs de modèles d'IA à usage général respectent les droit d'auteur de l'UE, tandis que (d) les oblige à «r édiger et rendre publiquement disponible un résumé suffisamment détaillé sur le contenu utilisé pour l'entraînement du modèle, selon un modèle fourni par l'Office de l'IA »[10]. Bien que le Code de conduite GPAI récemment publié vise à guider la conformité à ce cadre, ses recommandations restent actuellement non contraignantes.
En conclusion, malgré un consensus large sur le fait que les développeurs d'IA doivent se conformer au droit d'auteur européen, une incertitude juridique importante subsiste, notamment concernant les exceptions TDM. Même lorsque l'inclusion d'œuvres protégées dans les ensembles d'entraînement semble permise sous certaines conditions, l'acte d'entraînement lui-même peut constituer une reproduction non autorisée, exposant ainsi les développeurs à une responsabilité potentielle[11].
La propriété intellectuelle comme droit fondamental.
La frontière entre style et substance représente un autre nœud délicat.
Dans un article sur l'affaire Ghibli[12], le Conseil européen de l’innovation et l’Agence exécutive pour les petites et moyennes entreprises (EISMEA) se sont demandé si les entreprises d’IA devraient obtenir des licences ou indemniser les créateurs dont les œuvres ont été utilisées pour l’entraînement. Si le style n’est pas soumis à des restrictions de propriété intellectuelle, l’œuvre représentée l’est assurément.
La capacité des technologies d’IA à reproduire le travail des artistes pose plusieurs défis pour les titulaires de droits.
Selon un étude de la Commission européenne Sur le droit auteur et les nouvelle technologies[13], un grand nombre de titulaires interrogés (47%) estiment que les copies par IA peuvent les affecter davantage que les imitations humaines, en raison de la précision extrême et de la rapidité des outils génératifs. De plus, 77% d'entre eux sont fortement convaicus que cela pourrait pousser certains artistes fors du marché.
Le risque caché est que l’ensemble du secteur créatif puisse être exploité. Écrivains, designers et illustrateurs, acteurs, cinéastes et autres titulaires de droits – en particulier les petits créateurs et freelances – sont menacés d’être remplacés par des outils génératifs hyper rapides et accessibles, qui reproduisent leur travail sans consentement, crédit ou rémunération. L’intelligence artificielle finira par se suffire, et à éventuellement faire mieux, parce qu’elle aura appris des meilleurs. Implémentant une productivité accrue à coût nul.
Les artistes, privés de leur style ne peuvent pas non plus se rabattre sur le droit d’auteur, car le style échappe à sa protection. Dans un cadre juridique fondé sur la compensation économique, les droits moraux peuvent-ils être invoqués pour s’opposer à l’utilisation de ses œuvres pour entraîner des modèles d’IA.
Dans l'un des scénarios politiques de l'UE[14], 67% des participants estiment que les titulaires devraient pouvoir s'opposer au traitement de leurs œuvres pour l'entraînement de l'IA. Cependant, étendre le droit d'auteur pour couvrir le style n'est pas considéré comme la meilleure solution (41%)15]. Beaucoup préfèrent se baser sur les pratiques commerciales déloyales lorsque le style d’un artiste est imité ou copié par l’IA.
La difficulté d'attribuer un style à un auteur, le manque d'harmonisation au niveau de l'UE et la mauvaise application de l'article 4 CDSM ont effectivement permis un entraînement à grande échelle des IA sur des œuvres protégées sans autorisation ni rémunération, créant un vide réglementaire qui favorise les entreprises d’IA tout en érodant les droits et le pouvoir de négociation des créateurs.
« La propriété intellectuelle doit être protégée»[16]. Ces mots sont-ils destinés à rester un simple slogan ?
À retenir.
Plusieurs mois après l'épisode Studio Ghibli, le Code de conduite sur l'IA a introduit de nouveaux engagements pour répondre à ces risques. En adoptant ces lignes directrices, les signataires d'engagent à mettre en œuvre des mesures techniques appropriées et proportionnées pour éviter que leurs modèles ne génèrent des contenus reproduisant de manière illicite des œuvres protégées par le droits de l'Union[17].
Néanmoins, ces lignes directrices restent non contraignantes, laissant la conformité largement à la discrétion des entreprises – qui tirent une grande valeur de l’ingestion massive d’œuvres protégées pour entraîner leurs modèles.
Lorsque les modèles d'IA sont entraînées sur des contenus créés par l'homme, aucune autorisation ni compensation n'est assurée au créateur, qui ne peut se fier qu'au mécanisme complexe et ambigu de retrait. Du côté des productions, les contenus générés par l'IA reproduisent souvent ou imitent des œuvres originales, combinant des éléments protégés. Là encore, aucune mesure de protection n'est garantie pour les titulaires de droits.
Pour organiser efficacement une infrastructure de licences collectives, la politique future devrait s'articuler autour de trois principes directeurs, proposés par le département politique IUST du Parlement européen : la transparence, pour clarifier l'usage des œuvres protégées ; l'équité, pour garantire le partage des droits et revenus avec les titulaires ; et l'effectivité, pour désigner clairement l'organisme de l'UE chargé auteurs le contrôle sur leurs œuvres.
Combler le vide réglementaire actuel implique de passer d’un modèle de retrait (opt-out) à un modèle d’autorisation préalable (opt-in), excluant par défaut les œuvres protégées de l’entraînement à l’IA sauf autorisation préalable. Cela redonnerait aux auteurs le contrôle sur leurs œuvres.
Pour rééquilibrer le rapport de force entre créateurs humains et grandes enterprises d'IA, et garantir le respect du principe de rémunération appropriée et proportionnée (article 18 de la Directive CDSM)[18], une rémunération équitable devrait être obligatoire chaque fois qu'une œuvre d'auteur est utilisée sans autorisation préalable.
Enfin, des mesures techniques et des dispositifs de sécurité devraient être mis en place pour rendre les œuvres créatives traçables et réduire le risque de violation du droit d’auteur.
Di Priscilla Colaci
[1] OECD (2025), “Intellectual property issues in artificial intelligence trained on scraped data”, OECD Artificial Intelligence Papers, No. 33, OECD Publishing, Paris, https://doi.org/10.1787/d5241a23-en
[2] Creamer, E. (2025, April 3). ‘Meta has stolen books’: authors to protest in London against AI trained using ‘shadow library.’ The Guardian. https://www.theguardian.com/books/2025/apr/03/meta-has-stolen-books-authors-to-protest-in-london-against-ai-trained-using-shadow-library
[3] Team, S. P. (2025, April 8). The SoA’s message to Meta: don’t steal our books. The Society of Authors. https://societyofauthors.org/2025/04/04/the-soas-message-to-meta-dont-steal-our-books/; Team, S. P. (2025a, April 4). UK authors stage protest at Meta HQ against Zuckerberg’s #bookthieves. The Society of Authors. https://societyofauthors.org/2025/04/03/uk-authors-stage-protest-at-meta-hq-against-zuckerbergs-bookthieves/
[4] OECD (2025), “Intellectual property issues in artificial intelligence trained on scraped data”, OECD Artificial Intelligence Papers, No. 33, OECD Publishing, Paris, https://doi.org/10.1787/d5241a23-en
[5] Directive - 2019/790 - EN - dsm - EUR-Lex. (n.d.). https://eur-lex.europa.eu/eli/dir/2019/790/oj
[6] Ibidem.
[7] Cet aspect a été officiellement abordé dans le Code de bonnes pratiques en matière d'IA Code of Practice (Copyright), (n.d.). Shaping Europe’s Digital Future. https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai, où il est précisé que “Signatories commit to take appropriate measures to enable affected rightsholders to obtain information about the web crawlers employed, their robots.txt features and other measures that a Signatory adopts to identify and comply with rights reservations expressed pursuant to Article 4(3) of Directive (EU) 2019/790 at the time of crawling by making public such information and by providing a means for affected rightsholders to be automatically notified when such information is updated (such as by syndicating a web feed) without prejudice to the right of information provided for in Article 8 of Directive 2004/48/EC”. Néanmoins, le Code n'est pas contraignant et son application n'est pas garantie.
[8] Policy Department for Justice, Civil Liberties and Institutional Affairs Directorate-General for Citizens’ Rights, Justice and Institutional Affairs PE 774.095. (2025). Generative AI and copyright. Training, creation, regulation. In https://www.europarl.europa.eu/thinktank/en/home.
[9] Gervais, Daniel J. and Shemtov, Noam and Marmanis, Haralambos and Zaller Rowland, Catherine, The Heart of the Matter: Copyright, AI Training, and LLMs (September 21, 2024). Available at SSRN: https://ssrn.com/abstract=4963711 or http://dx.doi.org/10.2139/ssrn.4963711
[10] Article 53: Obligations for providers of General-Purpose AI models | EU Artificial Intelligence Act. (n.d.). https://artificialintelligenceact.eu/article/53/
[11] Gervais, D., Marmanis, H., Shemtov, N., & Zaller Rowland, C. (N.D.). The Heart Of The Matter: Copyright, Ai Training, And Llms. Ssrn.
[12] Studio Ghibli vs AI: tribute or copyright infringement? (2025, April 15). IP Helpdesk. https://intellectual-property-helpdesk.ec.europa.eu/news-events/news/studio-ghibli-vs-ai-tribute-or-copyright-infringement-2025-04-15_en.
[13] Study on copyright and new technologies – Copyright data management and artificial intelligence, Publications Office of the European Union, 2022, p. 151, https://data.europa.eu/doi/10.2759/570559.
[14] Ibidem, p. 227. Les quatre scénarios étudiés sont les suivants : “Status quo. The moral rights are regulated at Member states’ level. […] Legal clarification that moral rights can be invoked against the processing of the work of performance for AI training. […] Legal clarification that moral rights cannot be invoked against the processing of the work for AI training if TDM exception is allowe. […] Legal clarification that moral rights cannot be invoked against the processing of the work for AI training, if the work or perfomance is not recognisable in the optout.”.
[15] Ibidem, p. 248.
[16] La protection de la propriété intellectuelle, telle que reconnue explicitement à l'article 17 de la Charte des droits fondamentaux de l'Union européenne, devrait être assurée par l'application des garanties prévues au paragraphe 1 du même article, qui stipule: “Toute personne a le droit de jouir de la propriété des biens qu'elle a acquis légalement, de les utiliser, d'en disposer et de les léguer. Nul ne peut être privé de sa propriété, si ce n'est pour cause d'utilité publique, dans des cas et conditions prévus par une loi et moyennant en temps utile une just indemnité pour sa perte. L'usage des biens peut être réglementé por la loi dans le mesure nécessaire à 'interêt général”. Article 17 - Droit de propriété (2025, July 03). European Agency for Fundamental Rights. https://fra.europa.eu/en/eu-charter/article/17-right-property
[17] The General-Purpose AI Code of practice. (n.d.)., Shaping Europe’s Digital Future. https://digital-strategy.ec.europa.eu/en/policies/contents-code-gpai.
[18] Art. 18 - Principle of appropriate and proportionate remuneration (17 April 2019). DIRECTIVE (EU) 2019/790 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on copyright and related rights in the Digital Single Market and amending Directives 96/9/EC and 2001/29/EC. https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:32019L0790. Selon l'article 18 (1), “Member States shall ensure that where authors and performers license or transfer their exclusive rights for the exploitation of their works or other subject matter, they are entitled to receive appropriate and proportionate remuneration”.