Conflict between studios and artists over 'AI scope of learning’
한국 주요 방송사(KBS、 MBC、 SBS)가 한국 인터넷 포털 네이버를 뉴스데이터 저작권 위반으로 고소했다。
이들은 네이버가 생성형 인공지능(AI) 모델 ‘하이퍼클로바’ 및 ‘하이퍼클로바 X’의 학습 과정에서 자사 뉴스를 무단 활용했다며, 저작권법 및 부정경쟁방지법 위반을 이유로 손해배상과 학습금지 조치를 법원에 청구했다.
KBS, MBC, SBS 등 39개 지상파 방송사가 회원사로 참여하는 한국방송협회는 “방송사의 뉴스 콘텐츠는 다년간의 노하우와 인적·재정적 투자가 집약된 자산”이라며 “이를 무단으로 AI 학습에 활용하는 것은 저작권 침해에 해당한다”고 강조했다.
이번 소송은 국내에서 언론사가 빅테크 기업을 상대로 제기한 첫 번째 저작권 침해 사례로, AI 학습용 데이터 활용에 대한 법적 기준을 세우는 중요한 계기가 될 전망이다。
Major South Korean broadcasters (KBS, MBC, and SBS) have sued South Korean internet portal Naver for copyright violation of news data.
The broadcasters claimed that Naver used their news in the training process of its generative artificial intelligence (AI) models, HyperClova and HyperClova X, without permission, and asked the court for damages and a learning ban, citing violations of the Copyright Act and the Unfair Competition Prevention Act.
The Korea Broadcasting Association, whose members include 39 TV stations including KBS, MBC, and SBS, emphasized that "the news content of broadcasters is an asset that has accumulated years of know-how and human and financial investment," and that "using it for AI training without permission constitutes copyright infringement."
The lawsuit is the first copyright infringement case filed by a media organization against a big tech company in Korea, and is expected to set a legal standard for the use of data for AI training.
생성AI의 학습을 둘러싼 갈등
생성AI의 정확도는 학습에 나온다。다양한 콘텐츠와 기사를 학습해 더 나은 결과물을 생성하는 것이다。 때문에 할리우드 스튜디오들은 아티스트와 애니메이터들의 작품과 노동 결과물을 생성AI로 학습시키고 있다. 그러나 이런 학습은 갈등을 불러일으킬 수 밖에 없다。
할리우드에서 AI의 침공에 가장 영향을 많이 받는 직종은 게임과 이미지 담당 아티스트다。
스튜디오에서 자신들이 작업한 이미지 또는 비디오 자료를 AI 모델에 학습시킬 수 있지만 이에 대한 대응책은 없다。 이미 인력이 부족한 독립 AI 스튜디오에서 ‘소속 아티스트의 저작물을 AI에 학습 도구로 제공하는 것’은 익숙하다。
스튜디오들은 현재 양가적인 감점을 보유하고 있다。 외부 AI 개발사를 저작권 침해로 고소하는 동시에 자체 AI모델을 만들기 위해(Fine tuning)도 진행하고 있다。
할리우드 스튜디오 등은 특정 캐릭터 디자인과 거의 일치하는 AI 이미지 결과물을 만들거나 특정 아티스트의 스타일을 다른 애니메이션 자료에 적용하는 등 콘텐츠에서 일관된 룩을 구현하기 위해 이미지 및 비디오 AI모델을 미세 조정하고 있다.
하지만 이런 긍정적인 측면에도 불구하고, 대형 애니메이션 또는 게임 스튜디오는 고용한 아티스트가 만든 에셋(Asset)으로 사전 허락 없이 AI 모델을 훈련시키는 등 아티스트의 권리를 침해할 우려가 있다。
The accuracy of gen AI comes from learning, which means learning from different content and articles to generate better results. Therefore, Hollywood studios are training their artists and animators to generate AI based on their work and labor. However, this learning is bound to cause conflict。
In Hollywood, the jobs most affected by the A.I. invasion are game and image artists.
Studios can train AI models with their own image or video material, but there's nothing they can do about it. Independent AI studios, which are already understaffed, are used to "giving their artists' work to A.I. as training tools.
Studios are currently ambivalent about suing external A.I. developers for copyright infringement while also moving forward with creating their own A.I. models. Hollywood studios and others are fine-tuning image and video A.I. models to achieve a consistent look across content, such as creating AI image output that closely matches a specific character design or applying a particular artist's style to different animation materials.
Despite these positive aspects, however, large animation or game studios may infringe on the rights of artists by training their A.I. models with assets created by hired artists without prior permission.
데이터 윤리, 노동 및 아티스트 인재(Data Ethics, Labor and Artist Talent)
애니메이션 길드(IATSE LOCAL 839, Animation Guild (IATSE Local 839)는 제작자 협회(AMPTP와 지난 2024년 12월 새로운 근로조건 계약을 맺었다。 찬성률 76.1%였다。
그러나 AI모델 파인 튜닝(fine tuning) 가능성을 포함한 아티스트가 만든 자산에 대한 보호 조항은 포함하지 못했다。 현실적으로 어려운 점이 있었다。 모든 아티스트나 스튜디오가 노조에 가입되어 있는 것은 아니다(Pixar는 가입되어 있지 않지만 Marvel Animation은 가입되어 있다). 많은 아티스트가 프리랜서로 일하고 있다。
새로운 TAG(The Animation Guild)과는 달리 WGA(Writers Guild of America)는 협상 당시 AI 관련 조항을 포함했다。
TAG 계약은 또한 스튜디오가 아티스트에게 제작 과정의 일환으로 생성AI를 쓸 것을 요구할 수 있게 됐다。 아티스트의 거부권은 주어지지 않는다。하지만 AI학습은 아티스트에게는 매우 고통 스러우운 과정이다。 일부 아티스트는 이를 노동 착취(labor theft)에 비유하기도 했다.
AI가 인간 예술가의 작품을 학습해 능력치가 향상되면 ‘인간을 대체할’ 우려도 있다。버라이어티에 따르면 할리우드 아티스트들은 올해 들어 이미 해고, 일감 감소, 비정상적인 보상 감소를 경험하고 있다.
The Animation Guild (IATSE Local 839) negotiated a new labor contract with the AMPTP in January, 2000, with a 76.1% approval rate, but it did not include protections for artist-created assets, including the ability to fine-tune models.
There were practical difficulties: not all artists or studios are unionized (Pixar is not, but Marvel Animation is). Many artists work as freelancers。
Unlike the new TAG (The Animation Guild), the WGA (Writers Guild of America) included AI-related provisions in its negotiations。 The TAG contract also allows studios to require artists to write generative AI as part of the production process。
Artists are not given a veto, but learning AI is a very painful process for artists, and some artists have likened it to labor theft.
There are also concerns that A.I. will "replace humans" if it learns from the work of human artists and improves its skills. According to Variety, Hollywood artists have already experienced layoffs, reduced workloads, and unusual reductions in compensation this year.
스튜디오가 아티스트를 고용하여 일부 에셋(ASSET)을 제공하고 해당 에셋을 사용하여 콘텐츠 제작용 모델을 미세 조정하면, 미세 조정된 모델은 이후 유사한 새로운 에셋(Asset)을 제작하는 데 사용될 수 있다.
반복 콘텐츠를 만들기 위해 인간 아티스트가 필요 없는 단계에 오는 것이다。배우가 자신의 디지털 스캔이 향후 제작에 영구적으로 사용되는 것에 맞서 싸우는 시나리오와 유사하다.
If a studio hires an artist to provide some assets and uses those assets to fine-tune a model for content creation, the fine-tuned model can then be used to create new, similar Assets.
This is similar to the scenario where actors fight against their digital scans being permanently used in future productions.
고도 학습된 AI 인간 창작자 대체 가능
애니메이션 조합 AI TF(AI Task Force)에서 스토리보드 아티스트 샘 텅(Sam Tung)은 “스튜디오는 아티스트를 고용해 제작한 그림으로 원하는 대로 제작할 수 있다”고 말했다.
그는 또 “AI가 스튜디오 내부 자료를 대거 학습해 AI 시스템이 캐릭터나 스토리보드를 (사람보다) 더 잘 만들도록 만들면 사실상 인간이 스스로 무덤을 파는 것이나 마찬가지라는 우려가 창작자들 사이에서 나오고 있다”고 덧붙였다. 일부 아티스트들은 이 경우 사람들이 역할이 AI 결과물을 정리하는 수준에 멈출 것으로 예상하고 있다。
Highly trained AI can replace human creators
"Studios can do whatever they want with the drawings they hire artists to create," said Sam Tung, a storyboard artist at the animation union's AI Task Force.
"If A.I. can learn a lot of the studio's internal material and make the AI system better at creating characters and storyboards than humans, it's practically a human.
"There are concerns among creators that if Ai learns a lot from the studio's internal materials and allows the AI system to create characters or storyboards better than humans, it will actually be digging its own grave," he added. Some artists expect that in this case, people's role will be limited to organizing A.I.'s output.
파인 튜닝은 아티스트들에게는 새로운 전쟁터
버라이어티는 6월 보고서(The State of Generative AI in Hollywood)에서 "파인 튜닝(미세 조정)은 배우들이 자신의 데이터를 영구적으로 저장하지 않기 위해 싸우는 것과 비슷하게 비주얼 아티스트(visual artists)들에게 새로운 전쟁터가 될 수 있다”며. “프로젝트 진행 중 개발된 아티스트의 스타일이나 에셋에 대한 파인 튜닝은 사진 동의와 보상이 계약 조건에 반영되어야 한다”고 저술했다.
즉、 파인 튜닝에 인간 창작자들의 자료가 반영되고 활용되는 만큼 이를 만든 사람들에게 보상이 돌아가야 한다는 이야기다。
고용 시 계약서에 미세 조정에 관한 명시적인 조항을 요구해야 한다는 아티스들이 늘고 있다。콘셉트 아트 협회(Concept Art Association)는 변호사를 고용하여 일러스트레이터가 일러스트레이션 작업 계약서에 사용할 수 있는 법률용어를 만들었다.(Concept Art Association hired a lawyer to produce boilerplate legal language artists can use in their contracts for illustration gigs.)
고용된 아티스트가 AI 교육을 위한 원본 에셋을 제공하거나 스튜디오가 향후 제작에 사용할 수 있도록 미세 조정(Fine Tuning)된 모델을 제작하는 경우 공정 보상의 범위를 재정의(백엔드 참여의 확대 또는 제공)할 필요가 있다。
존 램(Jon Lam) 라이어트게임스(RIOT GAMES) 스토리보드 아티스트는 버라이어티와의 인터뷰에서 “에셋을 제공하는 것과 기술(TECH을 제공하는 것에는 차이가 있다”며 “저작물을 참고용으로 사용할 수는 있지만 저작물을 AI 미세 조정에 쓰는 권한은 주지 않는다는 식으로 계약서를 수정해야 한다”고 말했다.
TAG의 새로운 계약에 따라 프로듀서는 AI 시스템 사용에 대해 우려가 있는 경우 아티스트와 면담해야 한다. 이미 많은 아티스트들은 AI효율성에 대한 불만부터 저작권이 없는 저작물을 기반으로 제작된 도구 사용의 법적 위험에 이르기까지 다양한 우려를 감독관에게 전달하고 있다.
하지만 그 과정에서 AI를 통한 저작권 침해를 입증하기는 어렵다。 램은 현재 아티스트를 '탄광의 카나리아(canary in the coal mine)'라고 표현했다。램은 “그동안 생성AI의 작동 과정와 저작권 침해、 동의 없는 이용 등을 입증하는 역할은 아티스트의 몫이었다”며 “아티스트 입장에서는 최종 결정권을 가진 당사자에게 매우 명확하게 침해 증거를 제공해야 하는 경우가 많다”고 설명했다.
Fine-tuning is a new battleground for artists
"Fine-tuning could become a new battleground for visual artists, similar to how actors fight to keep their data from being permanently stored," Variety wrote in a June report (The State of Generative AI in Hollywood). "Fine-tuning of an artist's style or assets developed during the course of a project should be reflected in the terms of a photo consent and compensation agreement."
In other words, since fine-tuning reflects and utilizes the work of human creators, the people who created it should be compensated.
Artists are increasingly demanding explicit fine-tuning clauses in contracts when hired. The Concept Art Association hired a lawyer to produce boilerplate legal language artists can use in their contracts for illustration gigs.(Concept Art Association hired a lawyer to produce boilerplate legal language artists can use in their contracts for illustration gigs.)
The scope of fair compensation may need to be redefined (expanding or providing back-end involvement) if the hired artist is providing original assets for AI training or creating models that are fine-tuned for the studio to use in future productions.
Jon Lam, Lightgames(RIOT GAMES) "There's a difference between providing assets and providing skills," the storyboard artist told Variety, "You have to amend the contract to say that you can use the work for reference, but you don't give them the right to use it to fine-tune the work."
TAG's new agreement requires producers to meet with artists if they have concerns about the use of AI systems. Already, many artists have expressed concerns to supervisors, ranging from complaints about efficiency to the legal risks of using tools built on out-of-copyright works.
Lam describes artists as the "canary in the coal mine."
"The onus has been on the artist to demonstrate how the creation process works, copyright infringement, and non-consensual use," he says, "and often the artist has to provide very clear evidence of infringement to the party that has the final say.
파인튜닝이 저작권 해결에 최적인가
레거시 스튜디오는 소비자 반발과 법적 리스크를 이유로 AI를 콘텐츠 제작에 적극적으로 사용하지 않고 있다. 그러나 파인 튜닝 모델에 대한 관심이 많다。
파인 튜닝 모델은 결과물에서 저작권이 해결된 데이터를 찾는 등 데이터 우선 순위를 정할수 있다。스튜디오는 자체 소유한 IP 또는 아티스트가 제작한 원본 작품을 파인튜닝해 저작권 침해 위험을 최소화할 수 있다.
퍼킨스 코이의 기술 거래 및 개인정보 보호 실무 부문 선임 변호사이자 영화 및 TV 산업 그룹의 공동 의장(Technology Transactions & Privacy Practice and co-chair of the film and TV industry group at Perkins Coie)인 미카 본디(Meeka Bondy)는 버라이어티 인터뷰에서 “파인 튜닝은 스튜디오가 소유하거나 권리를 가진 것만 AI교육에 추가하기 때문에 위험이 훨씬 줄어든다”고 말했다。
Is fine-tuning best for copyright resolution?
Legacy studios are not actively using AI for content creation, citing consumer backlash and legal risks. However, there is a lot of interest in fine-tuning models.
Fine-tuning models can prioritize data, such as looking for copyright-resolved data in the output. Studios can fine-tune their own IP or original works created by artists to minimize the risk of copyright infringement.
Meeka Bondy, senior counsel in Perkins Coie's Technology Transactions & Privacy Practice and co-chair of the film and television industry group at Perkins Coie, told Variety, "Fine-tuning is much less risky because it only adds to the training what the studio owns or has rights to."
그러나 파인 튜닝 역시 저작권 문제에 완전히 자유롭지 않다。
전문가들도 파인 튜닝이 생성 AI의 저작권 침해 위험을 제거하지는 못한다는 데 동의하고 있다.
스토리보드 아티스트인 퉁(Tung)는 “스튜디오는 아티스트가 사용하는 소프트웨어에 대해 확신을 가져야 한다“며 “그렇지만 그 결과물에도 문제가 있을 수 있다”고 강조했다。
However, fine-tuning is not completely immune to copyright issues either。
Experts agree that fine-tuning does not eliminate the risk of copyright infringement in generative AI. "Studios need to be confident in the software their artists use," said Tung, a storyboard artist, "but the results can be problematic."