지브리 스타일 AI가 던지는 경고...'스타일은 보호 받을 수 있는 권리인가' (Ghibli Style AI's warning...'Is style a protected right?)
지브리 스타일 AI가 던지는 경고
- 오픈AI(OpenAI)의 GPT-4o 이미지 생성 기능이 IP(지적 재산권) 스타일 복제를 지원함에 따라, 새로운 저작권 침해 소송 제기가 가능해질 수 있다는 지적
- 교육 데이터(Training Data)로부터 무단으로 학습된 결과물을 AI가 출력할 잠재성이 커짐에 따라, 원 저작물과 ‘실질적 유사성’을 띨 위험이 높아짐
- IP 스타일 복제를 의도적으로 가능하게 하는 것은 시장에서 원 저작자 및 원작과 직접적으로 경쟁할 수 있어, 페어 유스(Fair Use·공정 이용)에 해당하지 않을 소지도 큼
- 지브리 스튜디오 풍 스타일 이미지가 소셜 미디어 상에서 폭발적으로 확산되면서, 오픈AI(OpenAI 4o) 모델의 저작권 침해 논란을 부추기는 근거로 작용할 수 있다는 법적 시각이 있음
Ghibli-Style AI Sparks Fresh Warnings on Copyright Infringement
Since OpenAI introduced its GPT-4o image generation feature in March, the internet has been flooded with user-generated content mimicking distinctive artistic “styles,” from Studio Ghibli animations to Pixar, The Simpsons, LEGO, The Muppets, and Dr. Seuss. While this has triggered a viral social media trend—particularly for Ghibli-style transformations—it has also raised new copyright concerns.
Legal experts argue that GPT-4o’s ability to intentionally replicate protected styles or characters could pose a direct threat to original creators’ markets, potentially leading to an upsurge in copyright litigation.
The debate centers on whether AI-generated images that closely resemble certain IP or creative works merely draw abstract “inspiration” or cross the line into “substantial similarity.” With GPT-4o showing relaxed content filters (so-called “guardrails”) compared to earlier models, it may be easier than ever for users to generate images that infringe on existing copyrights. And as Ghibli-like artwork goes viral, the prospect of large-scale infringement claims looms larger than before.
지브리 스타일 열풍과 GPT-4o의 등장
3월 25일, OpenAI가 ChatGPT 내에 4o 이미지 생성 모델을 도입한 이후, 사용자가 개인 사진이나 기타 이미지를 ‘지브리 애니메이션 스타일’로 바꾸는 시도가 온라인에서 급격히 퍼졌다.
‘지브리’뿐만 아니라 픽사(Pixar), 심슨 가족(The Simpsons), 레고(Lego), 머펫(Muppets), 닥터 수스(Dr. Seuss) 등 다양한 IP나 독특한 화풍을 가진 아티스트들의 작품 스타일도 AI를 통해 재창작되고 있다.
특히 스눕 독(Snoop Dogg)처럼 유명인의 이미지를 지브리풍으로 바꿔보는 등 퍼블릭 피겨(공인)에 대한 2차 저작물 형태의 생성도 이루어져, ‘무단 이용’ 논란이 이중삼중으로 가중되는 모습이다.
대중적으로 각광받는 ChatGPT의 이미지 생성 기능이 수많은 일반 사용자들을 단숨에 저작권 이슈와 윤리적 고민의 장으로 이끌었다. 사실 이런 AI 활용 스타일 복제는 2022년 말 ‘스테이블 디퓨전(Stable Diffusion)’이 보급된 직후부터 시도된 바 있다. 실제로 최초의 저작권 침해 소송(Andersen v. Stability AI)은 2023년 1월, 시각 예술가들이 AI 기업들을 상대로 제기한 것으로 이미 세간의 주목을 받았다.
하지만 이번 지브리풍 열풍을 계기로, GPT-4o 모델이 보유한 IP 침해 가능성이 광범위하게 드러났다는 점이 부각된다. 이처럼 수많은 IP의 파생 콘텐츠가 한꺼번에 쏟아져 나오는 상황은, 대규모 데이터를 학습한 AI 모델이 손쉽게 생성한 '유사 작품'이 소셜 미디어를 뒤덮고 있음을 반증한다. 단지 몇 마디 텍스트 프롬프트(지시문)만으로 원작 IP와 유사한 무수한 파생물이 제작·배포되면서, 디지털 공간에 진짜와 유사한 ‘시뮬라크르(simulacra)’가 넘쳐나는 결과를 초래하고 있다.
스튜디오들이 이 같은 위험을 인지하고 있지 않은 것은 아니지만, 아직 AI 기업을 상대로 한 소송에 스튜디오들이 적극적으로 나서지는 않고 있다. 다만 4o 이미지 모델로 생성된 콘텐츠가 대대적으로 확산되면서, 저작권 침해 증거로 활용될 소지가 커졌고, 향후 이에 집중하는 소송 제기가 잇따를 가능성도 제기된다. 또 저작권을 보유한 원작자들의 측면에서 보았을 때, 4o 모델이 특정 IP를 재현할 수 있다는 사실만으로도 이미 원저작물이 학습 데이터로 활용되었다는 점을 방증한다.
Widespread Ghibli-Style Craze Fuels Copyright Debate
On March 25, OpenAI rolled out GPT-4o’s image generation in ChatGPT, enabling users to transform personal photos or other images into a “Ghibli animation style.” This sparked a viral trend online, with users posting Ghibli-style versions of celebrities (like Snoop Dogg) and beloved characters. Ghibli is just one among many stylistic “targets,” which also include Pixar, The Simpsons, LEGO, The Muppets, Dr. Seuss, and more.
Yet while the popular fascination is undeniable, so is the legal backlash.
Similar controversies arose in late 2022 with Stable Diffusion, resulting in high-profile copyright lawsuits such as Andersen v. Stability AI (January 2023). Now, legal observers believe GPT-4o’s extensive style-replication capabilities may bring these issues even further into public view.
조사는 2024년 5월 2일부터 13일까지 미국 성인 1,001명을 대상으로 이루어졌으며, AI 훈련 데이터로서 활용되는 창작물(책, 기사, 사진, 영상 등)에 관한 인식과 태도를 묻는 설문이다.
- “창작자의 작업물이 AI 모델을 훈련하기 위해 사용되기 전에, 반드시 허락(동의)을 받아야 한다”
- 동의: 77%
- 반대: 11%
- 모르겠다: 12%
- “AI가 특정 창작자의 스타일을 모방(copy)하는 데 활용된다면, 창작자는 이에 대한 보상을 받아야 한다”
- 동의: 75%
- 반대: 12%
- 모르겠다: 13%
- “특정 작가/음악가/아티스트의 고유 스타일을 AI가 복제하는 것에는 제한이 있어야 한다”
- 동의: 76%
- 반대: 11%
- 모르겠다: 13%
- “창작자는 자신의 작품이 AI 모델 훈련에 사용되는 것을 거부(opt-out)할 수 있어야 한다”
- 동의: 74%
- 반대: 12%
- 모르겠다: 14%
이를 종합하면, 미국 성인의 약 3/4 정도가 창작자 권리를 보호하는 방향에 찬성하고 있으며, 저작권과 스타일 모방에 관한 동의·보상·제한·거부권을 인정해야 한다는 의견이 강하게 나타납니다.
Survey: Americans Overwhelmingly Want Creator Consent and Compensation
A U.S. survey conducted May 2–13, 2024, with 1,001 adult respondents, asked about using creative works (books, articles, photos, videos, etc.) for AI training. Results showed strong support for protecting creators’ rights:
“Creators must give permission before their work is used for AI training.”
Agree: 77%
Disagree: 11%
Unsure: 12%
“If AI is used to copy a specific creator’s style, that creator deserves compensation.”
Agree: 75%
Disagree: 12%
Unsure: 13%
“AI replication of a unique style should be subject to restrictions.”
Agree: 76%
Disagree: 11%
Unsure: 13%
“Creators should be able to opt out of having their work used to train AI.”
Agree: 74%
Disagree: 12%
Unsure: 14%
Roughly three-quarters of respondents favored greater protections for creators, including consent, compensation, the right to refuse, and restrictions on style copying.
GPT-4o, 더욱 정밀해진 스타일 복제 능력
OpenAI는 자사의 공식 블로그에서 4o 모델이 이전 모델보다 개선된 표현 능력을 갖췄음을 언급했다. 그런데 이 모델의 뛰어난 스타일 복제 능력은, 원작권을 보호하기 위한 가드레일(내용 검열 및 제한 규칙)이 완화된 것도 큰 요인입니다. 일반적으로 AI 시스템은 문제적 콘텐츠를 선별하고 차단하는 ‘분류기(Classifier)’를 통해, 학습 데이터와 생성 결과물에 대한 기준을 적용한다.
그러나 4o 모델의 경우 생성 규정이 이전 모델보다 덜 엄격하여, IP 캐릭터나 유명인의 이미지를 만들어 달라는 요청에도 잘 응답하는 모습을 보인다. 여전히 폭력적·성적 콘텐츠를 거절하기는 하지만, OpenAI는 이번 버전에서 “실제적 피해”에 집중하며, 전반적인 정책을 “더 관대한 방향으로(more permissive)” 전환했다고 밝힌 바 있다.
조앤 장(Joanne Jang OpenAI 제품·모델 거버넌스 책임자)은 자신의 서브스택 글에서 “이전처럼 일률적으로 거부하기보다, 현실 세계의 피해 예방에 집중(preventing real-world harm)하는 방식으로 바뀌었다”고 설명했다.
오픈AI(OpenAI)가 공개한 4o 이미지 생성의 안전성·통제성 관련 추가 문서(expanded addendum)에서도 “프롬프트(지시문)에 특정 예술가의 이름이 들어가면 그 스타일을 모사한 이미지를 만들 수 있다”고 명시하고 있다. 다만 이때 “작고하지 않은(생존해 있는) 예술가”에 대한 스타일 모사는 차단하는 조치를 일부 적용하기도 하며, “성인 유명인에 대해서도 원하지 않는 경우 옵트아웃할 수 있다”고는 하지만, 실제로는 상당히 많은 케이스가 필터 없이 생성되고 있다.
프랑스에 본사를 둔 윤리적 AI 연구소 Pleias의 공동 설립자인 피에르 칼 랑글레(Pierre-Carl Langlais)는 블로그 글에서 "현재로서는 OpenAI가 신경 쓰지 않는 것 같다."라고 말하며, 여러 적대적인 프롬프트로 모델을 테스트한 결과 "알려진 지적 재산과 잘 알려지지 않은 지적 재산의 대다수를 즉석에서 생성할 수 있게 됐다”고 확인했다.
“현재 생성 차단 기준은 IP가 개인 또는 사회에 잠재적인 위해(웰빙) 위험을 초래하는지 여부뿐이다.” 그는 이어 “디즈니 같은 대형 스튜디오의 일부 IP는 여전히 생성이 완전히 차단되고 있지만, 그 외 많은 IP에 대해서는 문제가 크지 않다고 보는 것 같다”고 덧붙였다.
랑글레는 이처럼 제약(가드레일)이 느슨해진 현상을 두고, 오픈AI(OpenAI) 트럼프 행정부의 친(親)AI 기조와 AI 업계의 강력한 로비 영향력에 힘입어 더 대담해진 것이라고 해석했다. 그러나 가드레일이 완화되면서(slacker guardrails), 모델이 저작권을 침해할 만한 콘텐츠(학습 과정에서 사용된 원작과 실질적으로 유사한 결과물 )를 출력할 위험도 커진다고 그는 지적했다.
GPT-4o’s Enhanced Style Replication—and Relaxed Guardrails
OpenAI has touted the model’s improved ability to produce “nuanced expressions.” Observers note, however, that GPT-4o’s ability to replicate styles has grown partly because it has fewer automatic filters compared to earlier versions. AI systems typically rely on “classifiers” or “guardrails” to block problematic outputs (e.g., explicit material).
With GPT-4o, OpenAI has adopted a more “permissive” policy, focusing on “preventing real-world harm” rather than blanket blocking. In practice, this can mean requests for imagery referencing real people, fictional characters, or copyrighted works are more likely to succeed. While OpenAI still purports to prohibit certain content (e.g., requests for violence, sexual content, or illicit use of living artists’ personal images without consent), many users report relatively few restrictions in practice.
Pierre-Carl Langlais, co-founder of AI ethics research lab Pleias, tested GPT-4o with numerous prompts referencing well-known and obscure IP. He concluded that “OpenAI doesn’t seem to care,” noting that the model can generate images for “the vast majority of known and lesser-known intellectual properties.” According to Langlais, GPT-4o only blocks those deemed to pose a “well-being” or “harm” risk to people or society—and it still blocks certain large franchises like Disney. But other IP, including Ghibli, is largely fair game.
느슨해진 가드레일, 무단 이용 리스크 증가
가드레일이 느슨해지는 것은, AI 모델이 저작권을 침해할 소지가 있는 결과물을 직접 출력할 가능성을 높일 수 밖에 없다. 불필요한 제약을 제거했다는 것은 역으로 말해, 원작자의 입장에서 볼 때 잠재적 무단 이용이 더 광범위하게 발생할 수 있음을 의미한다.
AI 모델이 학습 단계에서 원저작물을 사실상 ‘암기’하여, 요청에 따라 거의 그대로 “회상”해낼 수 있음을 여러 연구가 보여준 바 있다. 클라리스(Klaris) 로펌의 IP 소송 파트너인 랜스 쿤스(Lance Koonce)는 버라이어티와의 인터뷰에서 “AI 기업들이 가드레일을 적용하는 이유 자체가, (가드레일이 없으면) AI가 저작권 침해 소지가 큰 결과물을 얼마든지 생성해낼 수 있기 때문”이라고 지적합니다. 과거에도 AI 모델이 특정 책의 전체 장(章)을 그대로 복제(generating verbatim entire chapters of books)해내거나, 다른 창작물 전체를 통째로 재생산한 사례가 보고됐다.
Evidence of “Memorization” in Large Language Models
Concerns over IP infringement also tie into whether models like GPT-4o can directly reproduce copyrighted material—or large chunks of text or imagery—verbatim. Recent analyses of GPT-3 and Google’s PaLM (62B and 540B parameters) demonstrate that large-scale language (and image) models can indeed “memorize” portions of their training data.
For instance, GPT-3 DaVinci v2 reproduced open-source license text in near-original form in 55% of relevant prompts (compared to just 1% with v1). Meanwhile, PaLM 540B, with its massive parameter count, showed 30% reproduction rates for famous speeches or monologues, significantly higher than smaller models.
This phenomenon signals that as model size and complexity grow, so do risks of generating outputs that closely match original protected content, thereby increasing potential for copyright infringement.
참고 “LLM, 얼마나 훈련데이터를 ‘암기’하고 있을까? – GPT-3∙PaLM 모델 분석 결과”
출처 버라이어티
최근 공개된 표에 따르면, 대형 언어 모델(LLM)이 자신의 학습 과정에서 노출된 텍스트를 어느 정도까지 ‘암기’(memorization)해 그대로 재현하는지를 보여주는 흥미로운 지표가 확인됐다. 대표적인 영문 LLM 모델인 GPT-3 DaVinci(v1, v2)와 구글의 PaLM(62B, 540B)를 대상으로 ‘open-source 라이선스’, ‘유명 연설문’, ‘소설 도입부’, ‘노래 가사’ 등 다양한 텍스트 유형에 대해 얼마나 ‘원문에 가까운 답변(approximate memorization)’이 발생하는지를 측정한 결과, 모델·버전에 따라 편차가 뚜렷하게 드러났다.
■ 오픈소스 라이선스: GPT-3 DaVinci v2, 뜻밖의 높은 비율
- GPT-3 DaVinci v1: 1%
- GPT-3 DaVinci v2: 55%
- PaLM 62B: 36%
- PaLM 540B: 48%
가장 두드러진 차이는 ‘오픈소스 라이선스(Open-source licenses)’에서 나타난다. GPT-3 DaVinci v1은 응답 중 약 1%만이 원문에 가깝게 복원됐지만, v2에서는 무려 55%까지 상승했다. PaLM 모델에서도 36~48% 수준으로 꽤 높은 편이다. 이는 텍스트 형태가 비교적 고정적이고 반복되는 요소가 많은 ‘라이선스 문구’가 모델 내부에 선명하게 각인되어 있을 수 있음을 시사한다.
■ 유명 연설문·유명 모놀로그: 모델 크기와 암기 확률의 상관관계
- 유명 연설문(Famous speeches)
- GPT-3 v1: 3%, v2: 8%, PaLM 62B: 15%, PaLM 540B: 30%
- 유명 모놀로그(Famous monologues)
- GPT-3 v1: 16%, v2: 5%, PaLM 62B: 12%, PaLM 540B: 23%
유명 연설문은 파라미터 규모가 큰 모델(예: PaLM 540B)일수록 암기 비율이 두드러지게 높다(30%). 반면 GPT-3 DaVinci v1은 3%로 비교적 낮고, v2에서는 8%로 상승했다.
흥미로운 점은 ‘유명 모놀로그’에서 GPT-3 v1이 16%를 기록해, v2(5%)보다 오히려 높다는 것이다. 모델 업데이트 과정에서 학습·샘플링 방식이 달라지거나, 데이터셋 구성이 달라짐에 따라 특정 텍스트의 재현 확률이 변동된 것으로 해석될 수 있다.
■ 소설 도입부·가사: 최신 콘텐츠일수록 암기율 낮아?
- 소설 도입부(Novel openings)
- GPT-3 v1: 1%, v2: 5%, PaLM 62B: 9%, PaLM 540B: 25%
- 노래 가사(Lyrics 2011 / 2021)
- 2011: GPT-3 v1 1% / v2 11% / PaLM 62B 5% / PaLM 540B 18%
- 2021: GPT-3 v1 0% / v2 4% / PaLM 62B 2% / PaLM 540B 5%
소설 도입부는 PaLM 540B에서 25%까지 상승해, 대규모 모델일수록 특정 문장이 뚜렷이 기억될 가능성이 높음을 보여준다.
가사(Lyrics)의 경우, 2011년 이전 작품보다 2021년 가사가 상대적으로 암기 비율이 낮은 편이다. 이는 해당 텍스트가 학습 데이터에 덜 포함되었거나, 저작권 이슈로 인해 제거·축소됐을 가능성을 시사한다.
■ ‘오리지널’ 텍스트, 입력 형태(Spaces, Lowercase) 변화 효과도 주목
- Original 텍스트: GPT-3 v1 6%, v2 15%, PaLM 62B 18%, PaLM 540B 30%
- Spaces 변화: GPT-3 v1 2%, v2 11%, PaLM 62B 9%, PaLM 540B 23%
- Lowercase 변환: GPT-3 v1 3%, v2 13%, PaLM 62B 12%, PaLM 540B 25%
‘오리지널(Original)’ 카테고리는 일반 텍스트가 모델에 그대로 담겨 있을 확률을 보여주는데, 모델이 클수록(예: PaLM 540B) 그 비율이 30%로 높아진다. 또한, 텍스트의 대소문자나 공백(Spaces) 처리 방식을 바꿔 프롬프트를 입력하면 암기 재현율이 변화한다는 점도 관심을 끈다. GPT-3 v1 대비 v2에서 ‘Spaces’ 항목이 2%→11%로 크게 높아진 것은, 모델 업데이트 시 토큰화(tokenization)나 전처리 방식이 달라졌을 수 있음을 암시한다.
■ 의미와 함의: 모델 규모·데이터 처리 방식 주시 필요
이번 결과는 “LLM이 훈련 데이터 일부를 (거의) 그대로 암기할 수 있다”는 사실을 수치로 보여주며, 특히 모델 규모가 클수록 이러한 경향이 더 두드러질 수 있음을 시사한다. 이는 저작권 침해나 개인정보 유출 등 여러 법적·윤리적 문제와 직결될 수 있어, 실제 서비스 환경에서의 출력 제한 및 필터링 기술이 더욱 중요해지고 있다.
또, 프롬프트 설계(prompt engineering) 단계에서 텍스트 형태나 포맷 변경(공백, 대소문, 띄어쓰기 등)에 따라 모델이 어떤 출력 패턴을 보이는지 세밀하게 점검해야 함을 보여준다. 궁극적으로 LLM의 안전하고 투명한 활용을 위해서는, 데이터 수집·정제·필터링 과정에서의 가이드라인 및 모델 추론 단계에서의 제어 기법이 함께 발전해야 할 것으로 보인다.
이처럼 GPT-3 DaVinci와 PaLM 시리즈를 비교한 ‘암기율(Memorization)’ 분석은 대형 언어 모델이 텍스트를 단순 학습하는 데서 나아가, 특정 문장을 거의 원문 형태로 재현하는 현상이 발생함을 수치로 확인시켜 준다. 모델 업데이트나 파라미터 규모 확장 등 연구·개발 과정에서, 데이터 윤리와 개인정보·저작권 보호가 더욱 중요해지고 있음을 시사하는 지표라 할 수 있다.
‘스타일’만으로는 저작권 보호 어려워도… 실질적 유사성 문제
법적으로 ‘스타일’ 자체는 추상적 개념이기 때문에 저작권 보호 대상이 아니다. 그러나 AI가 특정 작품이나 IP의 “스타일”을 재현한다고 할 때, 그 ‘스타일’이 구체적 표현 요소와 실질적으로 유사할 경우에는 저작권 침해 가능성이 제기될 수 있다. 원작 IP의 방대한 이미지를 학습 데이터로 삼아 사실상 의도된 표현 요소를 그대로 반영해내는 것은, 단순한 “영감”과 구분된다. AI의 “학습”은 사람이 어떤 화풍을 참조해 ‘새로운 창작물’을 만들어내는 과정과는 본질적으로 다르다.
프라이어 캐시먼(Pryor Cashman)의 IP 소송 파트너인 조쉬 바이겐스버그(Josh Weigensberg)는 버라이어티와의 인터뷰에서 “AI가 IP의 수많은 원작 이미지를 직접 학습해, 해당 표현 요소들을 복사·재조합하는 과정이 이뤄진다면, ‘스타일 모방’이라 주장하더라도 결과물이 원작의 보호받는 표현 요소와 ‘실질적 유사성’을 보일 수 있다”고 말했다. 즉, AI의 생성물이 ‘스타일’ 수준을 넘어 특정 표현을 그대로 반영했는지, 결과물이 원작과 얼마나 유사한지는 향후 소송에서 핵심 쟁점이 될 수 있다.(The output may well contain copies of expressive elements of the original works. The question is, are the resulting images substantially similar to or the same as the expressive elements to what the plaintiff creator owns)
쿤스도 “만약 AI 생성물이 원작에 지나치게 근접해진다면, 이는 ‘표현’에 대한 침해가 될 수 있다”며 “단순히 분위기나 테마를 차용하는 것과, 저작물의 창작적 표현을 거의 그대로 따르는 것은 다른 문제”라고 지적했다.
Style vs. Substantial Similarity
Copyright law generally does not protect an abstract “style.” However, if AI-generated images go beyond borrowing an aesthetic “mood” to closely replicating a copyrighted work’s specific expressive elements, legal problems arise.
Josh Weigensberg, an intellectual property litigator at Pryor Cashman, told Variety that if an AI model “copies and recombines numerous elements from the original,” the resulting output can be deemed “substantially similar,” thereby infringing. The crux in potential lawsuits is how close the final result is to the original—if it’s merely reminiscent of a style, it might be safe. If it “substantially copies” the original artist’s unique expression, it crosses the line into infringement.
4o 모델의 ‘스타일 복제’, 공정 이용(Fair Use) 성립 어려울 수도
다른 쟁점은 4o 모델이 특정 IP나 작가의 스타일을 복제할 수 있는 기능 자체가 공정 이용 범위(fair use of the copyrighted works for AI training)를 벗어날 수 있다는 것이다 AI가 이처럼 원작의 수요를 대체할 수 있는 수준의 작품을 생산하게 된다면, 이는 공정 이용 여부를 판단하는 기준 중 하나인 ‘시장 대체 효과’(원작자나 저작물의 시장 가치 훼손 directly competes in the market with the original creator)에 저촉될 가능성이 크다.
바이겐스버그는 “AI가 시각 예술을 무단으로 학습해, 사용자가 사실상의 ‘짝퉁(노크오프 knockoffs)’을 생성하도록 지원한다면, 이는 원작자 혹은 IP 보유자의 시장을 잠식하는 행위”라며, 공정 이용 논리로 보기에 어려움이 있다”고 설명했다. 오픈AI 역시 4o 모델을 '유용하고 가치 있게' 쓸 수 있다고 홍보하지만, 사용 목적을 구체적으로 제시하지는 않았습니다. 그럼에도 불구하고, AI를 통한 유사품(대체재) 생성이 원작자 입장에서 시장 손실로 이어질 위험성은 명백하다.
Fair Use? Possibly Not
Proponents of training AI on copyright-protected data often argue fair use, claiming these models transform works and serve an innovative function. But if GPT-4o effectively competes with the original by letting users generate near-knockoff images or products—thus displacing the market for the original creator—fair use claims become weaker.
When an AI systematically learns from an artist’s entire portfolio and then produces nearly identical works on demand, it arguably undermines the market for that artist’s own licensed content. As Weigensberg puts it, “It’s essentially an act of helping users produce knockoff work that can directly undercut the IP owner,” an outcome that fair use doctrine rarely tolerates.
Shifting Guardrails, Shifting Legal Landscape
One critical concern is that AI companies can “flip a switch” to adjust or remove guardrails in real time, potentially exposing creators’ works to infringement again. Lance Koonce, an IP litigation partner at Klaris, warns that “courts decide cases based on what’s presented before them” and often do not anticipate how fluid AI policies may be. AI firms could tighten restrictions one month (mitigating lawsuits) but loosen them again later, forcing creators to file repeated legal claims.
Scott Sholder (Cowan, DeBaets, Abrahams & Sheppard) stresses that guardrails do not address the core complaint of “unlawful acquisition and ingestion” of copyrighted works for training. Whether or not the AI model filters the output, the underlying issue remains that copyrighted material was used in training without consent or compensation.
소송은 장기전… AI 기업은 계속 진화
AI 기업이 생성형 AI 기술의 ‘가드레일(안전장치)’을 임의로 변경할 수 있다는 우려가 제기됐다. 미국의 법률 전문가인 쿤스(Koonce)는 최근 AI 기술이 지식재산권(IP) 보호와 창작자의 권리에 미치는 영향을 분석하면서, 법원이 단순히 제시된 사건만을 기준으로 판단하는 구조적 한계를 지적했다.
콘스는 버라이어티와의 인터뷰에서 “법원은 제출된 사건을 기준으로만 판결하기 때문에, 직접 문제가 되지 않은 사실 관계까지 확장해서 해석하지는 않는다. 하지만 이와 같은 사건에서는, IP 소유자와 창작자들이 기술이 어떻게 변화하고 있는지를 법원에 명확히 보여주는 것이 매우 중요하다”고 설명했다. 그는 “AI 기업들은 명백히 ‘스위치를 뒤집듯’ 어떤 지점에서든 기능을 바꿀 수 있기 때문’이라고 강조했다.
쿤스는 이어 “가장 큰 문제는 AI 기업이 이 가드레일을 크리에이터나 IP 소유자에게 불리한 방식으로 바꾸기 시작한다면 어떻게 될 것이냐는 것”이라고 강조했다. 그는 “그럴 때마다 창작자나 권리자가 변경된 가드레일을 이유로 계속해서 소송을 제기해야 하는 상황이 올 수도 있다”며 현행 법제도와 소송 방식에 대한 한계를 제기했다.
이처럼 AI 기업이 기술적·정책적 파라미터를 ‘실시간’으로 조정할 수 있다는 점은, 급변하는 AI 생태계 내에서 창작자의 권리를 어떻게 보호하고 분쟁을 예방할 것인가에 대한 중요한 과제로 떠오르고 있다. 특히 AI 모델이 학습 데이터, 생성 결과물 등에 대해 투명한 방식을 취하지 않는 한, 실제로 문제 발생 시 법적 분쟁이 연쇄적으로 이어질 가능성이 높다는 것이 전문가들의 공통된 지적이다.
때문에 AI 기업들을 상대로 한 저작권 소송은 오랜 시간이 걸릴 전망이다. 그 사이에 AI 업계는 “공정 이용”이 합당하다고 주장하며 새로운 모델을 잇달아 공개하고, 학습 데이터 활용 방식을 확대해갈 것으로 예상된다.오픈AI(OpenAI)는 “실제 세계에서 어떤 사용 사례가 나오는지”에 따라 콘텐츠 정책을 지속적으로 바꿔나갈 것이라고 밝힌 바 있다.
이는 IP 소유주들이 “가드레일이 조금씩 달라질 때마다, 침해 여부를 다시 다퉈야 하느냐”는 고민을 하게 한다. 랜스 쿤스는 “AI 업체가 모델 생성 능력이나 정책을 어느 순간 ‘스위치 전환’하듯 바꾸면, 권리자들은 또다시 침해 사안을 입증해야 하는 문제가 생긴다”고 지적한다.
가드레일이 엄격하든 느슨하든, “학습 단계에서 무단으로 저작권을 침해했다”는 비판에서 자유롭지는 못하다. 스콧 숄더(Scott Sholder, Cowan, DeBaets, Abrahams & Sheppard 로펌 파트너)는 “가드레일은 원작자의 저작권 보호에 일시적으로 도움을 줄 수 있으나, 그것이 AI 모델이 원저작물을 무단으로 ‘취득’하고 ‘입력’했다는 사실 자체를 부정하지는 못한다”고 지적했다.
AI 기술의 발전 속도와 활용 범위가 빠르게 확장됨에 따라, 국내외 법조계에서도 생성 AI와 지식재산권 관련 가이드라인 제정의 필요성이 꾸준히 거론되고 있다. 다만, 제도나 가이드라인이 기술 발전 속도에 발맞춰 신속하게 개정·보완되지 않으면, 창작자와 IP 보유자들의 권리가 훼손될 수 있다는 우려가 커지고 있다. 법적 분쟁이 일어난 뒤 뒤늦게 문제점을 찾아내는 방식이 아니라, 사전에 기술적·법적 장치를 마련해야 한다.
AI’s Rapid Evolution and Prolonged Legal Battles
Meanwhile, the legal process can be slow-moving. Plaintiffs may wait years for judgments, during which time AI technologies keep advancing. OpenAI, for instance, has promised to “continue evolving its content policy” in response to real-world use. This dynamic environment frustrates IP holders, who worry they’ll have to demonstrate fresh infringements every time GPT-4o’s parameters or filters are tweaked.
At the same time, U.S. and international courts have yet to produce definitive precedents on generative AI’s status under copyright law. Ongoing lawsuits like Andersen v. Stability AI in the United States may pave the way, but outcomes are uncertain—and each new AI model iteration could raise fresh issues.
현실적 대처 방안: 기술적·법적 장치 활용
이런 관점에서 향후 창작자와 IP 소유주가 AI 기업의 ‘무단 크롤링 및 데이터 활용’을 직접적으로 막는 방법은, 기술적·정책적 해결책 도입이 될 전망입니다. 버라이어티(Variety)가 2025년 3월 발행한 특별 보고서 「AI 학습: 동의(Consent) & 콘텐츠」, 그리고 2024년 12월 보고서 「생성 AI: 셀러브리티 딥페이크 & 디지털 복제」에서도 다룬 것처럼, 웹 크롤링을 막는 로봇 배제 표준(Robots.txt) 강화나, 생성 AI 훈련용으로 사용될 수 있는 데이터에 대한 라이선싱 규약 확립 등 다양한 논의가 이뤄지고 있다.
물론 단순히 AI 학습 데이터를 유료·유료화 형태로 라이선싱하는 방안이 문제를 완전히 해소하진 못할 것입니다. 작가나 권리자가 전혀 원하지 않는 경우에는 아예 데이터 “인제션(Ingestion)” 자체를 금지하는 선택지도 마련돼야 한다는 지적이 많다.
참고: “생성 AI 도입, 온라인 프리랜서 시장 흔들까?”
최근 공개된 연구(CESifo 워킹페이퍼, 2024년 10월 발표)에 따르면, ChatGPT·이미지 생성 AI(Midjourney, DALL·E 등) 같은 생성 AI가 본격적으로 도입된 이후 온라인 프리랜서 시장에서 특정 업종의 구인 공고가 두드러지게 줄어든 것으로 나타났다. 연구진은 2021년 7월부터 2023년 사이, 전 세계 61개국 약 54만 명 이상의 고용주가 올린 122만 건의 프리랜서 구인 공고(예: Upwork, Fiverr 등)를 분석했다. 그리고 필요한 기술·업무 내용을 기준으로 다음과 같이 세 그룹으로 분류했다.
- 자동화 위험 직군: 글쓰기(Writing), 소프트웨어·앱·웹 개발, 엔지니어링
- 이미지 생성 활용 직군: 그래픽 디자인, 3D 모델링
- 수작업 중심 직군: 데이터·오피스 관리, 오디오·비디오 서비스
이후 ChatGPT 출시(2022년 말~2023년 초)와 이미지 생성 AI 보급 시점을 기준으로 전후 비교를 진행했는데, 결과적으로 자동화 위험 직군이 가장 큰 폭으로 하락했다. 반면, 그래픽 디자인·3D 모델링 역시 AI 활용이 늘면서 감소세를 보이긴 했으나, 데이터·오피스 관리, 오디오·비디오 서비스 등은 상대적으로 구인 감소가 제한적이었다. AI로 일자리 감소 수준 차이는 모두 인간의 개입 여부였다. 글쓰기나 코딩처럼 규칙에 기반한 반복 작업은 AI를 활용해 자동화하기 쉽다. 이러한 작업들은 정형화된 패턴과 구조를 따르기 때문에 AI가 효율적으로 처리할 수 있다. AI는 코드 작성, 테스트 자동화, 버그 탐지 등 반복적인 코딩 작업을 수행하며 생산성을 크게 향상시킬 수 있다.
반면, 물리적 작업이나 현장성이 요구되는 데이터 관리 및 오피스 업무, 그리고 창의적 감각이 필요한 영상 편집 등은 자동화 수준이 아직 제한적이다. 영상 편집(Video Services)에서 AI는 색상 조정, 장면 선택 등 일부 반복 작업을 자동화할 수 있지만, 창의적인 스토리텔링이나 감정적 깊이를 표현하는 데는 한계가 있다. 또 협업과 커뮤니케이션이 중요한 작업에서는 인간의 직관과 판단력이 필수적이며, AI는 이를 완전히 대체하기 어렵다.
1. 가장 큰 타격: ‘자동화 위험 직군’
- 글쓰기(Writing)
- ChatGPT 출시 전후: 2.23 → 1.74 (로그 스케일 기준 약 30~40% 감소)
- 이미지 생성 AI 도입 전후: 2.23 → 1.74 (동일)
초급 수준의 기사·블로그 콘텐츠 작성, 짧은 카피라이팅 업무가 AI로 대체되면서 글쓰기 관련 구인이 현저히 줄었다고 볼 수 있다.
- 소프트웨어·앱·웹 개발
- 출시 전후: 3.59 → 3.23
- AI 도입 전후: 3.59 → 3.23
코딩 보조 AI(GitHub Copilot 등)와 함께 자동화 범위가 넓어지면서, 단순 개발이나 디버깅 위주 작업이 줄어든 것으로 추정된다.
- 엔지니어링(Engineering)
- 출시 전후: 1.10 → 0.86
- AI 도입 전후: 1.10 → 0.86
엔지니어링은 절대 공고 수는 많지 않지만 감소 비율은 높은 편이다. 복잡한 계산이나 도면 검토 업무를 AI가 보조하면서 초급 엔지니어 채용이 줄어든 것으로 보인다.
이처럼 자동화가 가능한 업무가 많은 직군들은 ChatGPT, 코드·문서 자동생성 툴 등으로 인력 수요가 빠르게 감소하는 양상을 보였다.
2. ‘이미지 생성 활용 직군’: 그래픽 디자인·3D 모델링도 하락세
- 그래픽 디자인
- 출시 전후: 3.05 → 2.69 (약 0.36 로그 포인트 하락)
포스터·배너·카드뉴스같이 반복적 디자인 업무를 AI가 1차 시안을 생성해주면서, 디자이너가 투입되는 공수가 줄어든 것으로 해석된다.
- 3D 모델링
- 출시 전후: 1.81 → 1.49 (약 0.32 포인트 감소)
2D 이미지를 3D로 변환해주는 AI 기술이 늘면서, 단순 모델링 작업이 감소하는 추세다.
고급 일러스트나 복잡한 3D 디자인·시각효과처럼 창의적 아이디어나 정교한 기획이 필요한 분야는 여전히 인간 전문가의 역량이 중요하다. 따라서 단순 작업은 줄어도, 차별화된 역량을 가진 디자이너나 3D 아티스트는 시장에서 여전히 각광받을 수 있다.
3. ‘수작업 중심 직군’: 상대적으로 감소폭 제한
- 데이터·오피스 관리
- 출시 전후: 2.08 → 1.84
- AI 도입 전후: 2.13 → 1.88
서류 정리, 엑셀 입력, 일정 관리 등은 여전히 현장적·단순 반복 요소가 많아 완전 자동화가 쉽지 않다.
- 오디오(Audio) 서비스
- 출시 전후: 0.63 → 0.56
- AI 도입 전후: 0.64 → 0.57
녹음·편집·더빙 작업이 일부 AI 기술(TTS, 음성합성)로 보조되긴 하지만, 감성적 표현이나 실제 음원 편집은 사람 손이 필요하다.
- 비디오(Video) 서비스
- 출시 전후: 1.26 → 1.19
- AI 도입 전후: 1.31 → 1.17
영상 편집 툴은 발전하고 있으나, 후반 작업에서의 크리에이티브한 편집·이펙트 적용은 여전히 수작업 비중이 크다.
이런 업종들은 자동화가 제한적이어서 구인 공고가 비교적 ‘천천히’ 줄어드는 모습이다.
4. 왜 이런 차이가 날까?
- 자동화·AI 적용 범위 차이:
글쓰기나 코딩처럼 일정 규칙에 따라 “반복 생산”이 가능한 작업은 AI로 대체하기 수월하다. 반면 물리적 작업, 현장성이 필요한 데이터·오피스 관리나 전문적 감각을 요하는 영상 편집은 자동화 수준이 아직 제한적이다. - 시장 재편 속도:
디자인·개발처럼 원격 협업이 쉬운 분야는 AI 툴이 등장하면 곧바로 적용 가능해, 프리랜서 수요 변화가 비교적 빨리 나타난다. - 업무 복잡도·창의성:
단순 반응형 업무는 감소세가 크지만, 창의력이나 상호 소통이 중요한 업무는 대체가 어려워 유지된다.
5. 앞으로의 전망과 자성(自省)
- 단순 업무 vs. 고부가가치 업무
- 줄어드는 업종:
- 기초 글쓰기(콘텐츠 양산), 단순 코딩, 반복적 그래픽 작업 등은 이미 AI가 생산성을 크게 높이고 있어 구인 건수가 눈에 띄게 감소하고 있다.
- 피해가 적은 업종:
- 물리적·현장성이 필요한 데이터·오피스 관리, 오디오·비디오 제작 등은 일정 부분 AI가 보조하더라도 완전 대체가 어렵다.
- “인력이 필요 없어진다”가 아니라 “업무가 바뀐다”
- 생성 AI가 각종 업무를 빨리 처리해주면, 프리랜서 입장에서는 “양적” 일자리가 줄어드는 동시에, “질적” 역량을 요구하는 프로젝트가 증가할 수 있다.
- 예컨대 코딩도 단순 자잘한 스크립트 작성 대신 설계·아키텍처 기획에 초점을 맞춰야 살아남을 가능성이 높다. 디자인도 AI가 초안을 뽑아주면, 디자이너는 콘셉트 기획이나 최종 컨펌에 집중할 수 있다.
- “숙련 인력 소수화” vs. “새로운 기회”
- 단순 작업이 줄어듦에 따라 초급 인력이나 처음 시장에 뛰어드는 사람이 진입 장벽을 느낄 가능성이 커진다.
- 그러나 AI 활용 능력 자체가 새로운 기회가 될 수도 있다. 생성 AI를 효율적으로 다루고, 창의적 결과물을 만들어낼 수 있는 ‘AI 활용 전문가’가 앞으로 중요한 경쟁력이 될 것으로 보인다.
생성 AI 기술은 “단순 업무를 대체”하면서도 “새로운 가능성”을 동시에 열어주고 있다. 프리랜서 시장에서는 ‘대체당할’ 위험이 높은 업무가 빠르게 사라지는 대신, 고부가가치 업무나 창의적·복합적 역량을 갖춘 일을 찾는 수요가 오히려 늘어날 수 있다.
- 글쓰기·소프트웨어 개발, 그래픽 디자인 등은 AI를 활용한 업무 자동화로 인해 구인이 상당히 줄어들고 있어, 해당 분야 프리랜서들은 더 높은 수준의 역량을 개발해야 한다.
- 수작업이나 현장성이 필요한 분야(데이터 정리·오디오·비디오 등)는 감소 폭이 제한적이지만, 이미 부분 자동화가 시작되고 있으므로 AI 활용 능력이 여전히 중요하다.
“AI가 인간을 완전히 대체한다”기보다는, “프리랜서 시장에서 요구되는 업무와 역량이 달라진다”고 보는 편이 적절하다. 앞으로도 생성형 AI 기술이 빠르게 업그레이드되면서, 더 전문적이고 창의적인 분야로 옮겨갈 수 있는 능력이야말로 프리랜서들의 핵심 생존 전략이 될 것으로 보인다.
Impact on Freelance Markets
In parallel with the copyright debate, new data suggests that the rise of generative AI is transforming the freelance job market, particularly in tasks that are easily automated or standardized. A CESifo working paper (October 2024) examined over 1.22 million job postings from platforms like Upwork and Fiverr between mid-2021 and 2023. It found:
“Automation-risk” roles (e.g., content writing, software/app/web development, engineering) experienced the most significant decrease in freelance job postings, aligning with AI’s strengths in repeating predictable patterns.
“Image generation” roles (graphic design, 3D modeling) also showed a notable decline, as AI tools can handle initial drafts or simpler design tasks.
More “manual” or collaborative fields (data/office management, audio/video services) saw smaller decreases due to limited AI capabilities in physical or highly creative tasks requiring nuanced human judgment.
Analysts conclude that while AI has reduced demand for basic writing or coding tasks, it may push freelancers toward higher-level planning, conceptual design, or creative oversight. AI is becoming a standard part of many production workflows, so “AI literacy” and specialized creativity may become crucial for freelancers’ continued relevance.
생성AI의 능력 고도화가 한국에 미치는 영향
1) 국내 AI 시장 및 저작권 보호 제도의 충돌
한국에서도 네이버, 카카오, LG 등 주요 기업이 생성 AI 개발에 앞다투어 뛰어들고 있다. 네이버의 ‘HyperCLOVA’나 카카오의 ‘KoGPT’ 모델 등이 지속적으로 고도화되고 있는데, 이 과정에서 대규모 데이터셋을 활용하는 것이 핵심 전략이다.
그런데 해외 AI 기업들과 마찬가지로, 한국 내에서도 저작권이 있는 문서·이미지·영상·음원 등이 무단으로 학습에 활용될 수 있다는 우려가 제기되고 있다. 현행 저작권법상으로는 학습 단계에서의 ‘데이터 크롤링’을 어떻게 규제할지 명확한 가이드라인이 부족해, IP 소유자들이 법적 분쟁에 휘말릴 가능성이 크다. 지상파 방송사들이 중심이 된 방송협회는 네이버를 AI훈련에 콘텐츠 무단 사용으로 네이버를 고소하기도 했다.
2) 국내법적 쟁점: 공정 이용 범위와 새로운 판례 가능성
한국도 미국처럼 저작권법에 ‘공정 이용 조항’(제35조의3)이 있지만, 실제로 대규모 AI 모델 훈련에 적용하기에는 판례가 많지 않다. 미국에서처럼 “학습 목적”이 과연 공정 이용으로 인정될 수 있느냐, 또는 “스타일 모방”이 저작권 침해에 해당하느냐를 두고 새롭게 법원에서 해석이 이뤄질 여지가 크다. 만약 미국이나 EU 등지에서 생성형 AI가 저작권 침해로 인정된 판례가 나오면, 국내 소송에도 직접적인 영향을 줄 것입니다.
3) K-콘텐츠 IP 보호의 딜레마
한국은 한류(K-팝, K-드라마, K-무비, 웹툰 등)를 통해 대규모 IP를 보유하고, 해외 수출에서도 막대한 이익을 올리고 있다. 만약 GPT-4o와 유사한 AI 모델이 K-드라마나 웹툰 스타일을 무단으로 복제해 대량의 파생 콘텐츠를 만든다면, 이는 원작자와 소속사의 시장 가치를 훼손하는 심각한 문제가 될 수 있다. 예컨대 인기 웹툰 작가의 화풍을 그대로 본떠 “새로운 웹툰”을 AI가 생성해내면, 해당 작가와 출판사에 대한 수익 구조와 브랜딩에 직접적인 타격이 예상된다.
4) 국내 기업의 책임과 법적 리스크
OpenAI, Stability AI와 같은 해외 기업 뿐 아니라, 국내 AI 기업도 비슷한 소송에 직면할 가능성이 있다. 국내의 유명 IP 소유자(예: 엔터테인먼트 기업, 출판사, 방송사 등)들은 AI 기업이 학습 단계에서 자신의 저작물을 무단 활용했다는 증거를 확보하고, 손해 배상이나 모델 사용 제한 등을 요구할 수 있다. 만약 법적 분쟁이 발생한다면, 미국/유럽 등 주요 선진 시장과 달리 한국은 상대적으로 AI 관련 판례나 가이드라인이 부족해 불확실성이 매우 클 것으로 전망된다.
5) 정책 및 제도 개선 방향
- 데이터셋 라이선싱 체계 구축: 정부 차원에서 AI 학습용 데이터 라이선싱 혹은 로열티 체계를 마련해, 원작자에게 정당한 보상을 지급할 수 있도록 하는 방안 고려
- 가드레일(내용 필터링) 규정화: AI 서비스 제공 기업이 일정 수준 이상의 IP 또는 개인 이미지를 무단으로 복제·재생산하지 못하도록 규정하는 세부 정책 필요
- 공동 협의체 구성: 문화체육관광부, 방송통신위원회, 과학기술정보통신부 등 정부 부처, 저작권 단체, AI 기업, 예술가·창작자 단체가 함께 참여해 실질적 논의 진행
GPT-4o 모델의 지브리풍 이미지 생성 열풍은 단순한 놀이를 넘어, 생성 AI가 촉발한 저작권·윤리 논쟁을 전 세계적으로 재점화시키는 계기가 되고 있다. 특히, 원저작물 무단 활용과 가드레일 완화가 겹치며, 다양한 IP 소유자들이 법적 조치를 검토할 가능성이 커졌다.
한국 역시 이와 무관하지 않다. K-콘텐츠가 전 세계적으로 사랑받는 만큼, 이러한 AI 모델을 통한 ‘스타일 복제’ 문제는 곧바로 국내외 시장 경쟁력 및 창작 생태계에 영향을 미칠 것이다. 법적·정책적 대안 마련이 시급하며, 단순한 데이터 크롤링 수익모델 구축을 넘어, 창작자의 권리와 신기술 활용 간 균형점을 찾는 사회적 논의가 절실하다.
Implications for South Korea
South Korean firms—Naver, Kakao, and LG—are also racing to develop advanced AI models. The nation’s booming K-Content industry (K-pop, K-dramas, webtoons, etc.) raises the stakes. If GPT-4o or similar models replicate “K-drama” or “webtoon” styles en masse, local IP owners fear market erosion.
Yet Korea’s legal framework for AI-related copyright cases remains nascent. While there is a “fair use” clause in Korean copyright law, it lacks the extensive case history found in the United States. Major IP holders (e.g., entertainment agencies, broadcasters, webtoon publishers) might bring large-scale suits against AI companies for unauthorized training data usage. The potential disruptions to K-content’s global business are significant, prompting calls for clearer guidelines and effective data-licensing or “opt-out” mechanisms.
The Search for Balance: Possible Solutions
Experts emphasize that merely licensing training datasets for a fee is not a complete solution; many creators or rights holders simply do not want their works ingested. Potential avenues include:
Strengthening Robots.txt or “Do Not Crawl” protocols to prevent AI from scraping copyrighted materials.
Mandatory licensing systems requiring AI firms to compensate artists whose works are used in training.
Refined guardrail policies enshrined in law, so that commercial AI systems must filter outputs that closely mimic or replicate protected IP.
Multi-stakeholder collaboration among government bodies, copyright collectives, tech companies, and creator groups to draft robust AI/IP guidelines.
Conclusion
GPT-4o’s “Ghibli-style” image trend is more than a playful social-media experiment; it is a flashpoint for urgent copyright and ethics debates in generative AI. By easing guardrails, OpenAI has allowed users to produce derivative works that may infringe upon well-known (and lesser-known) IP. With broad market implications and mounting legal scrutiny, the Ghibli-inspired phenomenon could hasten formal policies on AI-driven style replication.
In the United States, South Korea, and beyond, IP holders are watching closely. Should AI-generated “knockoffs” significantly undercut original works, major lawsuits and stricter regulations may follow. At the heart of the debate lies a broader question: How will society balance creators’ rights against the promise of AI innovation? The answer remains in flux, but one thing is clear: As GPT-4o and other generative models race ahead, the law—and creative communities—must scramble to keep up.