Recommandations de CARFAC-RAAV concernant l’IA et les artistes en arts visuels / CARFAC-RAAV’s recommendations regarding AI and visual artists
Recommandations de CARFAC-RAAV concernant l’IA et les artistes en arts visuels / CARFAC-RAAV’s recommendations regarding AI and visual artists
Introduction
Le Front des artistes canadiens / Canadian Artists’ representation (CARFAC) et le Regroupement des artistes en arts visuels du Québec (RAAV) sont les associations nationales qui représentent les artistes en arts visuels et médiatiques. Ensemble, nous nous efforçons de défendre les droits économiques et juridiques des artistes, parmi lesquels beaucoup ont été fortement touchés par l’utilisation non consensuelle de leur propriété intellectuelle effectuée par des entreprises au moyen de l’intelligence artificielle générative (IA).
En 2023, le gouvernement du Canada a publié un Guide sur l’utilisation de l’IA générative, qui décrit ce qu’est l’IA générative et présente certains des principaux défis, préoccupations et solutions potentielles qui ont été déterminés. Le 15 janvier 2024, nous avons soumis au gouvernement des mémoires dans le cadre d’une consultation sur le droit d’auteur à l’ère de l’IA générative. Notre mémoire est le fruit de plus de 220 réponses uniques d’artistes à un sondage d’ampleur nationale sur leurs préoccupations concernant les produits d’IA générative; de dialogues communautaires tenus lors de tables rondes virtuelles organisées par CARFAC et le RAAV en Ontario, au Québec et en Saskatchewan; et de centaines d’heures passées à échanger avec des artistes et des intervenant·e·s du secteur culturel au Canada et à l’étranger.
L’IA et le risque de violation du droit d’auteur
La manière dont les entreprises d’IA générative interprètent les lois s’appliquant à leurs modèles commerciaux nous préoccupe grandement. À titre d’exemple, Midjourney a récemment mis à jour ses conditions d’utilisation pour préciser que ses utilisateurs ne doivent pas violer les droits de propriété intellectuelle d’autrui lorsqu’ils se servent du produit concerné, et qu’en cas de violation, l’entreprise peut intenter contre eux une action en justice. Or, cette entreprise a elle-même été accusée de violation des droits d’auteur à plusieurs reprises. De plus, les conditions d’utilisation précisent que l’entreprise ne garantit pas que son service n’enfreigne pas les droits d’auteur.
En outre, Open AI a récemment lancé un programme appelé Copyright Shield, lequel promet de prendre en charge les frais de justice de ses clients développeurs faisant l’objet de poursuites liées à des revendications en matière de propriété intellectuelle. Il se trouve toutefois que les affirmations selon lesquelles ces pratiques commerciales seraient conformes à la Loi sur le droit d’auteur sont incompatibles avec ces mesures de protection et soulèvent également la question de savoir pourquoi certaines entreprises d’IA ratifient des accords de cession de licence avec de grands éditeurs et fournisseurs de médias, tout en s’opposant à l’utilisation de modèles de licence pour tous les contenus qu’elles utilisent comme données d’apprentissage.
Clarifier le droit d’auteur et la fouille de textes et de données ( Fouille de textes et de données, FTD)
L’utilisation d’œuvres d’art obtenues par FTD pour former des produits d’IA générative sans permettre aux artistes de donner leur consentement, de négocier une compensation ou de déterminer s’ils et elles seront dûment mentionné·e·s et de quelle manière, constitue une violation des droits de ces artistes en vertu de la Loi sur le droit d’auteur. La consultation du gouvernement fédéral constitue une occasion d’informer et sensibiliser les entreprises d’IA générative afin de veiller à ce qu’elles respectent la loi.
Les questions concernant les droits moraux sont notablement absentes du sondage du gouvernement, alors que la violation des droits moraux des artistes est inévitable compte tenu des modèles commerciaux actuellement utilisés par la plupart des entreprises d’IA générative. Il est courant que les modèles d’IA générative déforment les œuvres originales, ce qui peut nuire à la réputation des artistes, à qui on ne propose généralement pas le choix de recevoir le crédit de leur création ou de rester anonymes. L’IA générative crée également un environnement dans lequel les artistes ne sont pas en mesure de protéger leurs œuvres d’une association avec des causes, des produits, des services ou des institutions auxquels elles et ils sont personnellement opposés.
Quatre-vingt-deux pour cent (82 %) des artistes ayant répondu à notre sondage ont affirmé être très préoccupés ou extrêmement préoccupés par la possibilité que leurs œuvres soient utilisées sans leur consentement pour entraîner des modèles d’IA générative. Devant une inquiétude aussi profonde et répandue, des contre-mesures indépendantes s’avèrent nécessaires. Par exemple, l’Université de Chicago a conçu Glaze, un outil que les artistes peuvent utiliser pour protéger leurs œuvres en ligne afin que celles-ci ne deviennent pas des données d’entraînement pour l’IA. Bien que ces efforts soient appréciés, la protection des droits de propriété intellectuelle des artistes contre l’utilisation non consensuelle par certaines des plus grandes entreprises du monde doit être garantie par la Loi sur le droit d’auteur et par la réglementation fédérale. Elle ne doit pas reposer uniquement sur de telles initiatives indépendantes.
Des termes tels que « données d’entraînement » sont fréquemment utilisés; or, cette dénomination peut dévaloriser la propriété intellectuelle d’une créatrice ou d’un créateur. Pour les artistes, il ne s’agit pas de « données d’entraînement », mais de l’œuvre de leur vie.
Difficultés rencontrées par les titulaires de droits dans l’octroi de licences pour leurs œuvres dans le cadre d’activités de FTD
Le nombre important des parties prenantes, l’incertitude juridique, la nécessité d’une plus grande transparence dans les systèmes de gestion des données, ainsi que l’opacité des systèmes d’IA constituent des obstacles insurmontables pour les artistes qui défendent leurs droits d’auteur sans recevoir de soutien. La principale difficulté devant laquelle se trouvent actuellement les titulaires de droits du Canada au moment de concéder des licences sur leurs œuvres est l’incapacité de déterminer quelles œuvres protégées par le droit d’auteur ont servi à entraîner des produits d’IA générative. Cette opacité empêche les parties de négocier des conditions d’octroi de licence et étouffe le développement de marchés de licences émergents.
Il est également difficile d’établir que la partie contrevenante a eu accès à l’œuvre originale, que l’œuvre originale est la source de la copie et que l’œuvre a joué un rôle important dans la création du nouveau contenu produit. Cependant, selon nos informations, les développeurs d’IA et les chercheurs du secteur documentent leur entraînement en compilant les données. Par conséquent, une plus grande transparence de ces données en relation avec les titulaires de droits est techniquement possible.
La plupart des artistes n’ont pas encore eu la possibilité de négocier des licences pour leurs œuvres qui ont déjà utilisées dans le but d’entraîner des modèles d’IA générative. Bien que de nombreuses entreprises d’IA générative grand public n’utilisent pas de modèles de licence, de tels cadres commerciaux existent dans l’industrie de l’IA. Getty Images, par exemple, a lancé un générateur d’images d’IA formé exclusivement à partir de ses contenus. Getty rémunère les créateurs et créatrices pour l’utilisation de leur travail dans son modèle d’IA.
La résistance des entreprises d’IA générative à s’engager dans des négociations de licence avec le secteur artistique représente également un défi d’envergure dans l’établissement d’une approche fondée sur le marché à l’égard du consentement et de la compensation pour les œuvres d’art utilisées dans le FTD. Meta, par exemple, a fait valoir que l’imposition d’un régime de licence après-coup provoquerait le chaos dans le secteur tout en n’apportant que peu d’avantages aux artistes, étant donné l’insignifiance du poids relatif individuel de leurs œuvres dans des ensembles de données plus vastes.
Cependant, nous constatons déjà des contradictions dans ces arguments. OpenAI a récemment conclu un accord de licence avec Axel Springer, la société mère de Business Insider et de Politico; ce type d’accord pourrait devenir la norme. Les entreprises qui violent régulièrement la Loi sur le droit d’auteur ne devraient pas bénéficier d’une exemption au motif que leurs violations constituent des faits accomplis. Même lorsque la valeur financière d’une œuvre prise individuellement est faible, cela n’élimine pas le droit des artistes à donner leur consentement et à recevoir une rémunération pour l’utilisation de cette œuvre.
Le gouvernement canadien doit éviter d’alimenter les arguments selon lesquels le respect de la Loi sur le droit d’auteur et l’obtention du consentement préalable des artistes ralentiraient le processus de développement des produits d’IA générative. Bien que la technologie de l’IA soit complexe, les principes fondamentaux d’équité, de justice et de la nécessité d’une permission avant de s’approprier quelque chose sont des principes simples qui font partie intégrante des lois et des valeurs sociales canadiennes.
Les entreprises d’IA générative sont à juste titre enthousiasmées par les produits qu’elles fabriquent, et il est compréhensible qu’elles éprouvent un sentiment d’urgence à accélérer le développement de ces produits. Or, c’est la même chose pour les artistes; nous devons considérer leurs besoins avec le même degré d’importance, d’innovation et d’urgence. Aucun des deux groupes ne peut être autorisé à agir en dehors de la loi ou à développer ses produits d’une manière qui porte préjudice aux individus ou à la société dans son ensemble.
Modifier la Loi sur le droit d’auteur pour clarifier la portée des activités de FTD autorisées
La Loi sur le droit d’auteur est suffisante et adéquatement applicable pour protéger les droits des créatrices et des créateurs relativement à l’IA générative. Il n’y a aucune raison de penser que les lois actuelles sur le droit d’auteur ne s’appliquent pas ou ne devraient pas s’appliquer. Les situations dans lesquelles des entreprises privées utilisent, sans autorisation, les œuvres protégées par le droit d’auteur d’artistes canadiens et canadiennes pour développer et accroître la valeur de leurs produits commerciaux sont précisément le type de scénarios que la Loi sur le droit d’auteur devrait empêcher.
Le gouvernement fédéral doit s’abstenir de mettre en œuvre de nouvelles exceptions d’utilisation équitable en faveur du FTD. Une telle mise en œuvre serait dévastatrice pour l’environnement économique des artistes canadiens et canadiennes, dont beaucoup avoisinent la pauvreté, voire vivent en dessous du seuil de pauvreté. Une exception accordée au FTD entraînerait des effets sociaux et culturels négatifs à long terme, notamment en compromettant la compétitivité mondiale des arts et de la culture du Canada et en nuisant aux petites entreprises de création.
Proposition : obliger les développeurs d’IA à tenir des registres des contenus protégés par le droit d’auteur
L’environnement actuel doit permettre aux titulaires de droits de déterminer si leurs œuvres ont été utilisées pour entraîner des modèles génératifs d’IA. Un modèle opérationnel opaque encourage l’utilisation non autorisée d’œuvres d’artistes du Canada par des développeurs d’IA et empêche la négociation de licences. Nous recommandons donc que les entreprises d’IA générative soient tenues de publier des registres des œuvres protégées par le droit d’auteur ayant servi à entraîner des modèles d’IA.
Les développeurs et les chercheurs du secteur de l’IA générative documentent déjà leurs données d’apprentissage, par exemple en utilisant des modèles de fiche. Au moyen de modèles de fiche, on peut enregistrer de façon systématique des informations telles que les noms des domaines dans lesquels les données d’entraînement sont collectées. Par conséquent, l’introduction d’une obligation de tenue de registres ne devrait pas engendrer de coûts supplémentaires pour le secteur de l’IA, et apporterait une transparence indispensable.
Rémunération pour l’utilisation d’une œuvre donnée dans le cadre d’activités de FTD
Les artistes du Canada subissent des perturbations croissantes de leur travail en raison de la prolifération et de l’utilisation par les entreprises et les consommateurs de contenus produits ou assistés au moyen de l’IA. Cette tendance n’est pas surprenante, car les organismes qui sollicitaient autrefois des licences pour l’utilisation d’œuvres originales peuvent désormais utiliser l’IA générative pour répondre à leurs besoins sans avoir à payer les créateurs et les créatrices.
Les artistes et les entreprises d’IA générative devraient pouvoir négocier la rémunération découlant de licences sans intervention des pouvoirs publics. Cela pourrait être facilité par des options d’octroi de licences collectives pour simplifier le processus afin que les artistes n’aient pas à négocier avec les entreprises individuellement. Cette option est déjà à l’étude dans plusieurs pays.
Le gouvernement peut favoriser une solution fondée sur le marché en veillant à ce que les entreprises d’IA générative en activité au Canada respectent la législation canadienne actuelle sur le droit d’auteur, sans exception, et à ce que les registres des œuvres protégées par le droit d’auteur ayant servi à l’entraînement de modèles d’IA soient rendus publics. L’IA générative a eu une incidence négative sur l’offre de travail dans notre secteur. Le gouvernement fédéral peut contribuer à stabiliser ces retombées en veillant à ce que les entreprises d’IA générative en activité au Canada adoptent des modèles de licence appropriés.
Paternité et propriété des contenus générés par l’IA
Les lois existantes sur le droit d’auteur sont suffisantes pour traiter de la question de la paternité et de la propriété; ainsi, aucune modification juridique n’est nécessaire. Comme l’a noté la Cour suprême du Canada dans l’affaire CCH c. Barreau du Haut-Canada, « une œuvre originale doit être le produit de l’exercice de la compétence et du discernement de l’auteur. L’exercice de la compétence et du discernement requis pour produire l’œuvre ne doit pas être insignifiant au point qu’il puisse être qualifié d’exercice purement mécanique ».
Ces mêmes critères devraient s’appliquer lors de l’évaluation de l’octroi du droit d’auteur aux œuvres produites ou assistées au moyen d’IA. La saisie d’une série de textes dans un générateur d’images par l’IA est assurément un « exercice purement mécanique » qui n’exige pas de l’utilisateur qu’il fasse preuve de « compétence et de discernement ».
Il peut toutefois y avoir certaines situations dans lesquelles les œuvres d’art générées ou assistées par l’IA répondent aux critères de protection du droit d’auteur. Par exemple, supposons qu’un·e artiste conçoive un modèle d’IA et entraîne ce modèle à l’aide de ses propres œuvres de manière à ce qu’il puisse comprendre les données d’entraînement et interagir avec elles d’une manière unique spécifiée par l’artiste. Dans ce cas, le contenu résultant de ce processus peut répondre aux critères de protection du droit d’auteur.
Alors que la question de la paternité des œuvres générées par l’IA est essentielle, elle est difficile à envisager dans un contexte où des entreprises privées utilisent la propriété intellectuelle d’artistes du Canada sans consentement, crédit ni compensation pour le développement de leurs produits et l’augmentation de leur valeur. Il est très inquiétant d’entendre que d’aucuns suggèrent que les entreprises d’IA générative pourraient être en mesure de continuer à développer leurs produits en utilisant des œuvres d’artistes du Canada sans autorisation tout en examinant si le contenu généré par ces produits devrait bénéficier d’une protection en vertu du droit d’auteur.
L’effet dévastateur que cela aurait sur l’économie créative au Canada dans son ensemble est profond et difficile à prévoir. Il est toutefois essentiel de souligner les retombées spécifiques que subiraient les artistes et les communautés autochtones. Le vol de formes d’expressions culturelles autochtones originales étant déjà très répandu, leur utilisation non autorisée par des entreprises d’IA générative est d’autant plus inadmissible et contraire aux notions de vérité et de réconciliation. En outre, l’intégration d’œuvres d’art autochtones contrefaites dans les ensembles de données d’entraînement accélère la diffusion de cette imagerie contrefaite; une telle production de contenu d’IA fondé sur des œuvres d’art autochtones, authentiques ou contrefaites, ne peut pas être autorisée. Cette question mérite une analyse et une consultation distinctes, ainsi qu’un examen approfondi des travaux déjà réalisés par le groupe de travail sur le protocole autochtone et l’IA.
Violations et responsabilité
Lorsque les entreprises d’IA générative utilisent sans consentement des œuvres d’art canadiennes pour entraîner leurs modèles et créer de la valeur commerciale pour leurs produits, elles commettent une violation du droit d’auteur et doivent assumer la responsabilité de ces actes.
Exiger des entreprises d’IA générative qu’elles conservent et publient des registres des œuvres protégées par le droit d’auteur utilisées pour entraîner leurs modèles permettra de remédier aux violations du droit d’auteur à grande échelle qui se sont déjà produites et fournira aux parties concernées l’information nécessaire pour négocier les conditions d’utilisation de ces œuvres. Cela permettra de développer des marchés de licences et de consolider l’économie de la création au Canada, tout en accélérant potentiellement la croissance et la concurrence au sein de l’industrie de l’IA elle-même.
Conclusion
Le RAAV et CARFAC ne souhaitent pas entraver les progrès de l’IA. Mais nous devons préserver l’équilibre sur lequel repose la Loi sur le droit d’auteur et défendre les intérêts des titulaires de droits d’auteur. En effet, nous voyons le potentiel de l’IA : si elle est réglementée de manière adéquate, elle pourra alimenter la créativité, promouvoir la découvrabilité des contenus, et donner aux créateurs et aux créatrices les moyens de défendre leurs droits.
Néanmoins, il est essentiel d’être conscient des effets négatifs que l’IA peut avoir sur tous les secteurs, sur les fondements même de notre société, et sur les droits des artistes. L’IA générative ayant une profonde incidence sur les industries culturelles, les créatrices et les créateurs doivent être impliqués de manière centrale dans le développement de la gouvernance et des cadres politiques concernant notre secteur, et invités à participer à la conception des futures consultations.
En résumé, notre principale préoccupation consiste à assurer le respect de la Loi sur le droit d’auteur. Le principe des « 3 C » (consentement, crédit et compensation) doit guider les actions du gouvernement dans le cadre de cette consultation publique ainsi que de tout amendement potentiel à la Loi sur le droit d’auteur. Notre demande est conforme à ce que réclament actuellement les artistes dans d’autres pays.
Le consentement des créateurs et des créatrices doit avoir été obtenu, et le gouvernement ne doit pas réduire leurs possibilités de recevoir une rémunération lorsque leurs œuvres sont utilisées à des fins de fouille et d’analyse de textes et de données. Nous recommandons également qu’une obligation de transparence soit imposée aux utilisateurs. Plus précisément, ce cadre devrait exiger la divulgation de toutes les œuvres utilisées dans le cadre de l’IA générative. Un tel mécanisme est réalisable et ne pose aucune difficulté technique aux entreprises d’IA générative. Il permettrait plutôt de poser les bases de l’édifice susceptible de garantir une rémunération juste et équitable aux artistes et aux titulaires de droits d’auteur.
______________________________________________________
Introduction
Canadian Artists’ Representation / Le Front des artistes canadiens (CARFAC) and le Regroupement des artistes en arts visuels du Québec (RAAV) are the national associations representing visual and media artists. Together we work to affirm the economic and legal rights of artists, many of whom have been deeply impacted by the nonconsensual use of their intellectual property by companies who use generative artificial intelligence (AI).
In 2023, the Government of Canada produced a Guide on the use of Generative AI, which describes what generative AI is, and introduces some of the main challenges, concerns, and potential solutions that have been identified. On January 15, 2024, we submitted briefs to the Government in response to a consultation on copyright in the age of generative AI. Our submission results from over 220 unique responses from artists to a national survey regarding their concerns about generative AI products; community dialogues at virtual panel events organized by CARFAC and RAAV in Ontario, Quebec, and Saskatchewan; and hundreds of hours connecting with artists and stakeholders across the cultural sector in Canada and abroad.
AI and the potential for copyright infringement
We are concerned about how generative AI companies interpret the laws that apply to their business models. Midjourney recently updated its terms of service to clarify that users may not use the product to violate others’ intellectual property rights, and that doing so may result in the company taking legal action against the user. Yet, the company has itself been accused of copyright infringement on multiple occasions. The terms of service goes on to state that the company does not guarantee that the service does not infringe on copyright.
Additionally, Open AI recently launched a program called Copyright Shield which promises to pay legal costs for its developer customers who face lawsuits over intellectual property claims. Assertions that these business practices are in compliance with the Copyright Act are inconsistent with these protective measures and also raise the question why some AI companies are ratifying licensing deals with major publishing and media providers, but argue against the use of licensing models for all content being used as training data.
Clarity around copyright and Text and Data Mining (TDM)
Using artwork obtained through TDM to train generative AI products without allowing artists to provide consent, negotiate compensation, or determine if/how they will be credited violates those artists’ rights under the Copyright Act. The Federal Government’s consultation is an opportunity for them to educate generative AI companies to ensure they comply with the law.
Questions about moral rights are notably absent from the government’s survey; however, the violation of artists’ moral rights is inevitable based on the current business models used by most generative AI companies. It is common for generative AI models to distort original works which may harm the reputation of artists, and artists do not commonly have the choice to be credited or remain anonymous. Generative AI also enables an environment in which artists are unable to protect their works from association with causes, products, services, or institutions to which they are personally opposed.
Eighty-two percent of artists responding to our survey indicated they were very or extremely concerned that their artwork is used without consent to train generative AI products. This concern is so deep and widespread that independent countermeasures are required. For example, the University of Chicago has developed Glaze, a tool that artists can use to protect their works online from becoming AI training data. While these efforts are appreciated, protecting the intellectual property rights of artists against non-consensual use by some of the world’s largest corporations should be done through copyright law and federal regulation. It should not rely solely on these independent initiatives.
Terms such as “training data” are used frequently, and this language can devalue a creator’s intellectual property. For artists, this is not “training data”; this is their life’s work.
Challenges faced by rights holders in licensing their works for TDM activities
The plurality of stakeholders, the legal uncertainty, the need for more transparency in data management systems, and the opacity of AI systems are insurmountable obstacles for artists to defend their copyrights without support. The critical challenge currently faced by Canadian rights holders in licensing their works is the inability to determine what copyright-protected works have trained generative AI products; this opacity prevents parties from negotiating licensing terms and stifles the development of emerging licensing markets.
It is also challenging to establish that the infringing party had access to the original work, that the original work was the source of the copy, and that the work was significant in informing the creation of the new content produced. However, we understand that AI developers and researchers in the sector document their training data. Therefore, greater transparency of this data with rights holders is therefore technically feasible.
Most artists have yet to have opportunities to negotiate licenses for their works already used to train generative AI models. Though many mainstream generative AI companies do not employ licensing models, such business frameworks exist within the AI industry. Getty Images, for example, has released an AI Image Generator trained exclusively on its content. Getty compensates creators for the use of their work in their AI model.
Resistance from generative AI companies to engage in licensing negotiations with the arts sector is another critical challenge in establishing a market-based approach to consent and compensation for artwork used in TDM. Meta, for example, has argued that imposing a licensing regime after the fact would cause chaos for the industry and result in little benefit for artists, given the insignificance of their respective works within larger datasets.
Already, however, we are seeing contradictions in these arguments. OpenAI recently entered a licensing deal with Axel Springer, the parent company of Business Insider and Politico; such an agreement could become the norm. Companies that regularly violate the Copyright Act should not benefit from an exemption on the grounds that those actions have already occurred. Even when the financial value of an individual work is small, this does not preclude the rights of artists to provide consent and receive payment for using that work.
The Canadian Government should avoid entertaining arguments that complying with the Copyright Act and obtaining prior consent from artists would slow the development process of generative AI products. While AI technology may be complex, basic principles of fairness, justice, and asking permission before taking things are straightforward and baked into Canadian laws and social values.
Generative AI companies are rightfully excited about the products they produce and understandably feel a sense of urgency to accelerate the development of those products. Artists are no different; we must regard their needs with the same level of importance, innovation, and urgency. Neither group can be permitted to operate outside of the law or develop their products in ways that harm individuals or society at large.
Amending the Copyright Act to clarify the scope of permissible TDM activities
The Copyright Act is sufficient and applicable to protect the rights of creators in the context of generative AI. There is no reason to believe that current copyright laws do not, or should not, apply. Situations in which private companies use, without permission, the copyrighted works of Canadian artists to develop and grow the value of their commercial products is precisely the kind of scenario that the Copyright Act should prevent.
The Federal Government should refrain from implementing new fair dealing exceptions for TDM. Doing so would devastate the economic environment for Canadian artists – many of whom live at or under the poverty line. A TDM exception would result in long-term negative social and cultural externalities, including compromising the global competitiveness of Canadian arts and culture and harming small creative businesses.
Proposed obligations on AI developers to keep records of copyright-protected content
The current environment must enable rights holders to determine if their works have been used to train generative AI models. An opaque operating model both encourages the unauthorized use of Canadian artists’ works by AI developers and prevents licensing negotiations from taking place. We, therefore, recommend that generative AI companies be required to publish records of copyright-protected works that have trained AI models.
Developers and researchers in the generative AI sector are already documenting their training data, for example, using model cards. Model cards can record structured information, such as the names of domains where training data is collected. Therefore, introducing a record-keeping obligation should not entail additional costs for the AI industry and would provide much-needed transparency.
Remuneration for the use of a given work in TDM activities
Canadian artists face growing labor disruptions due to the proliferation and use of AI-assisted and AI-generated content by businesses and consumers. This trend is unsurprising as organizations that once licensed the use of original works can now use generative AI to meet their needs without paying creators.
Artists and generative AI companies should negotiate remuneration for licenses without government intervention. This could be facilitated by collective licensing options to simplify the process so artists need not have to negotiate with companies on an individual basis, and this option is already being explored in several countries.
The Government can enable a market-based solution by ensuring that the generative AI companies operating within Canada comply with current Canadian copyright law without exception, and that records of copyright-protected works that trained AI products are made public. Generative AI has negatively impacted labour opportunities in our industry. The Federal Government can contribute to stabilizing this fallout by ensuring that generative AI companies operating in Canada adopt appropriate licensing models.
Authorship and ownership of content generated by AI
Existing copyright laws are sufficient to address authorship and ownership, and no legal amendments are required. As the Supreme Court of Canada noted in CCH v. The Law Society of Upper Canada, “An original work must be the product of an author’s exercise of skill and judgment. The exercise of skill and judgment required to produce the work must not be so trivial that it could be characterized as a purely mechanical exercise”.
These same criteria should apply when evaluating the granting of copyright to AI-produced or AI-assisted works. Entering a series of text prompts into an AI Image Generator is decidedly a “purely mechanical exercise,” that does not require the user to exercise “skill and judgment.”
There may be, however, other situations where AI-generated or AI-assisted artwork meets the criteria for copyright protection. For example, suppose an artist designs an AI model and trains that model with their artwork so that the model can understand and interact with the training data in unique ways specified by the artist. In that case, the content resulting from this process may meet the copyright criteria.
The question of authorship of AI-generated works is essential but difficult to consider in a landscape where private companies use Canadian artists’ intellectual property without consent, credit, or compensation to develop their products and increase the value of those products. Suggestions that generative AI companies could be able to continue developing their products using unauthorized Canadian artists’ works while simultaneously considering if the resulting content generated by those products should receive copyright protection are concerning.
The devastating impact this would have on the creative economy in Canada is profound and difficult to predict, though it is essential to highlight the specific effects on Indigenous artists and communities. As the theft of original Indigenous cultural expressions is already widespread, its unauthorized use by generative AI companies is unconscionable and contrary to notions of Truth and Reconciliation. Moreover, including counterfeit Indigenous artwork in training datasets accelerates the spread of counterfeit imagery, and the generation of AI content based on authentic or fake Indigenous artwork cannot be permitted. This issue deserves a separate analysis and consultation, and with thorough consideration of the work already done by the Indigenous Protocol and AI Working Group.
Infringement and liability
When generative AI companies use Canadian art to train their models and build the commercial value of their products without consent, they commit copyright infringement and must assume liability for those actions.
Requiring generative AI companies to keep and publish records of copyright-protected works used to train their models will address the large-scale copyright infringement that has already happened and provide parties involved with the information needed to negotiate terms for using those works. This will enable the development of licensing markets and strengthen Canada’s creative economy while potentially accelerating growth and competition within the AI industry itself.
Conclusion
RAAV and CARFAC do not wish to hinder the advancement of AI, but we need to preserve the balance that the Copyright Act underpins, and we must uphold the interests of copyright holders. Indeed, we see the potential of AI: if adequately regulated, it could fuel creativity, promote content discoverability, and equip creators to defend their rights.
Nevertheless, it is essential to be aware of the negative impacts that AI can have on all sectors, on the foundations of our society, and the rights of artists. As generative AI profoundly impacts the cultural industries, creators must be centrally involved in developing the governance and policy frameworks affecting our sector, and invited to participate in the design of future consultations.
In summary, our primary concern is to ensure compliance with the Copyright Act. The “3 Cs” principle (consent, credit, and compensation) must guide the Government’s actions in this public consultation and any potential amendments to the Copyright Act. Our request is consistent with those called for by artists in other countries at the present time.
Creators’ consent must be obtained, and the Government must not undercut their options to be paid when their content is used for text and data mining purposes. We also recommend that a transparency obligation be imposed on users. Specifically, this framework should require disclosure of any works used in the context of generative AI. Such a mechanism is feasible and poses no technical difficulties for generative AI companies. Rather, it would lay the foundations of the edifice, to ensure fair and equitable remuneration for artists and copyright holders.