The Take It Down Act: What It Means for Celebrity Deepfakes(AI 시대, 딥페이크 포르노와의 전면전)
생성 AI 시대가 도래하며 ‘딥페이크(Deepfake)’ 기술은 그 어느 때보다 강력하고, 동시에 위험해졌다. 온라인상에서 특정인의 신체 일부나 얼굴을 합성해 노골적인 장면을 만들어내는 ‘딥페이크 포르노’는 이미 심각한 사회 문제다.
이와 관련 최근 ‘ 이런 비동의 사적 이미지(Non-Consensual Intimate Imagery, NCII) 문제를 해결하기 위해 법안이 제정됐다. 테이크 잇 다운(Take It Down)법’은 연방 차원에서 본격적으로 칼을 빼든 첫 사례로 주목받고 있다. 이 법에 따르면 유명인이든 일반인이든 상관없이, 내 동의 없이 만들어지거나 공개된 노골적 이미지·영상은 이제 강력한 규제의 대상이 된다. 법이 발효되면 플랫폼들은 NCII 콘텐츠를 신고받은 후 최대 48시간 내에 삭제해야 할 의무가 생기고, 불응할 경우 FTC(연방거래위원회) 제재를 받게 된다.
지난 5월 19일, 트럼프 대통령은 동의 없는 친밀한 이미지(NCII) 확산 방지를 목표로 하는 테이크 잇 다운 법(Take It Down Act)에 서명했다. 비동의 사적 이미지(Non-Consensual Intimate Imagery, NCII)란 본인의 동의 없이 온라인에 게시되거나 유포되는 노출·성적 영상·이미지를 말한다. 이 법은 실제 이미지와 비디오뿐만 아니라 생성 AI에 의해 생성되거나 조작되어 실제 인물의 모습을 담고 있는 "디지털 위조물" 또는 딥페이크도 규제한다. 아래 기사는 버라이어티의 표와 기사 등을 참조해 작성됐습니다.
The Take It Down Act: What It Means for Celebrity Deepfakes
The law provides recourse for celebrities and ordinary people as generative AI has scaled non-consensual intimate imagery (NCII) online. The act is expected to make NCII takedowns more effective, compel non-compliant platforms, and shut down deepfake porn sites.
On May 19, President Trump signed the Take It Down Act into law, which aims to prevent the spread of non-consensual intimate imagery (NCII). The act addresses both real images and videos as well as "digital forgeries" or deepfakes that have been created or manipulated by generative AI and contain real people's likenesses.
Targeting harms including revenge porn and explicit deepfakes, Take It Down is officially known as the Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act. Currently a state-level patchwork, the act fills a legislative gap against NCII at the federal level. Additional regulation is in progress to address deepfake content of individuals more broadly, notably the No Fakes Act.
Key Provisions
Take It Down makes it a federal crime for any person to knowingly post non-consensual "intimate visual depictions" of others, with penalties that could include fines and/or up to three years in prison. It requires covered online platforms to remove reported content upon request within 48 hours, with civil penalties for those failing to comply enforceable by the FTC. The notice and removal requirements for covered platforms don't take effect until May 19, 2026.
The law has become critically needed as generative AI has scaled the non-consensual deepfake problem into a crisis with little recourse for victims, who include public figures as well as non-famous people, including children, teens, and disproportionately, women. Among the act's endorsers was SAG-AFTRA, which has been consistently fighting for regulation to protect its members from AI harms, whether inside or outside the workplace.
Luke Arrigoni, CEO at Loti, a deepfake detection and takedown service that works primarily with public figures, stated, "It's crazy we've gotten this far into the internet and we're just now making it a law that says if it's you in an explicit situation, you get to say whether that stays up published or not."
Expected Initial Outcomes
First, it creates a more direct path to NCII takedowns on major public platforms. Having a law that specifically addresses NCII makes it easier and faster for victims to get takedowns, as it compels platforms to take action quickly on requests. Josh Weigensberg, IP litigation partner at Pryor Cashman, explained, "This is giving victims real recourse and mechanisms to get this stuff off of online platforms."
Second, it compels platforms that haven't previously complied. Arrigoni noted, "Take It Down has been really effective for platforms that didn't want to work with us. Most sites have been compliant, even the most nefarious ones, but it's sites like X that we've had to use the Take It Down Act for. Now we have a superpower with them."
Third, it compels platforms to proactively ban NCII. Multiple 404 Media reports have detailed how the popular AI model hosting and sharing site Civitai allows users to AI-generate non-consensual pornographic images and videos as well as share LoRAs (custom AI models) of real-world celebrities.
Fourth, it squashes sites intentionally distributing NCII. Just days after Congress passed Take It Down, the prominent deepfake porn site MrDeepFakes, on which the vast majority of content was NCII deepfake videos featuring celebrities, shut down.
Concerns and Criticisms
Advocacy groups have criticized the law, arguing it will enable overreach, censorship, and selective enforcement while undermining user privacy. Some speculate Trump would end up trying to abuse the law to censor negative speech about him, as he hinted in a speech to Congress earlier this year.
Other concerns include that platforms aligned with the administration would "feel emboldened to simply ignore" takedown requests, automated systems used to identify NCII for removal are faulty and tend to suppress lawful speech, rampant "false reports" would swarm platforms and hurt their ability to operate, and end-to-end encrypted (E2EE) messaging services could be forced to expose users' private messages to comply.
Some of these critiques will need to be addressed. For example, language in the act doesn't explicitly list E2EE services under excluded platforms, meaning they might indeed be considered covered platforms. It's further possible that some platforms won't comply, at which point it will be up to the FTC to bring cases against them.
Weigensberg stated, "I expect we'll see some refinement [of the law] in the future for a victim that tries to get non-consensual images taken down from a site and the site isn't complying. The act is clear that the FTC can step in and help, but we're looking at options the victim would have in that scenario, additional steps he or she could take."
Yet free-speech concerns feel abstracted from the reality of NCII online, which the law is narrowly scoped to deter, disincentivize, and help real victims remove.
Weigensberg added, "Some of these First Amendment concerns presuppose that bad actors are going to abuse the notice and takedown process that's designed to help victims of deepfake pornography and sharing of other non-consensual intimate images. There are so many victims of deepfake pornography and other non-consensual intimate images being shared, and they need tools to be able to fight it. This seems like a very good one."
‘테이크 잇 다운(Take It Down)법’
이 법의 정식 명칭은 ‘Tools to Address Known Exploitation by Immobilizing Technological Deepfakes on Websites and Networks Act)이다. 법안의 주요 내용은 이렇다.
- 비동의 친밀 이미지(NCII): 피해자 본인의 동의 없이 온라인에 게시·유포되는 성적 이미지·영상 전반을 가리키며, 복수 포르노(revenge porn), 노골적인 합성물(딥페이크)도 포함한다.
- 처벌 수위: 위반 시 벌금 또는 최대 3년 형사처벌이 가능하다.
- 콘텐츠 삭제 의무: 법에서 정한 ‘플랫폼’에 해당하는 웹사이트나 소셜미디어 등은 NCII 콘텐츠 신고가 접수되면 48시간 안에 삭제해야 하고, 이를 어길 경우 FTC가 민사 처벌을 내릴 수 있다.
- 시행 시점: 플랫폼들이 이 ‘삭제 의무’를 본격적으로 준수해야 하는 시기는 2026년 5월 19일부터다.
왜 지금 이 법이 필요한가?
- 생성 AI의 급격한 발전: 소수 전문가만 가능하던 딥페이크 제작이 이제는 누구나 온라인에서 쉽게 관련 툴과 모델을 구해 만들 수 있을 정도로 보편화되었다.
- 피해 규모의 폭증: 특히 여성 연예인이나 여성 일반인들이 그 표적이 되기 쉽고, 2차·3차 유포가 빠르게 진행되는 특성상 한 번 퍼지면 회복이 어렵다.
- 기존 법률 공백: 일부 주(州)에서 비동의 친밀 이미지를 규제하는 조항이 있었으나, 연방 차원에선 명시적 보호법이 미비했던 상황이다.
딥페이크 시대를 겨냥한 강력한 규제
‘테이크 잇 다운 법’은 NCII 전반을 규제하면서도 딥페이크 문제에 초점을 맞추고 있다는 점이 특징이다. 가짜 음란물 제작·유포가 디지털 위조(digital forgeries)”라는 명칭으로 분류되어, 실제 피해자가 촬영에 참여하지 않았어도(합성이어도) 성적 이미지로서 본인의 초상·신체가 사용됐다면 법적 규제를 가한다.
루크 아리고니(Luke Arrigoni), 딥페이크 탐지·삭제 서비스 로티(Loti) CEO는 버라이어티와의 인터뷰에서 “인터넷이 이렇게까지 발전하는 동안, 피해자가 ‘내가 등장하는 노골적 이미지’에 대해 거부권을 행사할 수 있다는 기본 법률조차 제대로 없었다는 점이 더욱 놀라웠다’고 강조했다.
NCII 삭제 절차가 더 쉬워진다
이 법은 플랫폼들이 피해자의 NCII 신고에 빠르고 직접적으로 대응하도록 만든다. 예컨대 기존에는 각 플랫폼 이용약관이나 커뮤니티 가이드라인에 의존해 “이건 명백히 문제이니 삭제해 달라”고 요청했어야 했다. 하지만 이제는 *것은 연방법 위반”임을 내세울 수 있게 됐다.
- 시간제한(48시간): 법이 정한 삭제 기한이 존재하기 때문에 플랫폼 입장에서는 신고 처리 속도를 늦출 수 없다.
- 제재 수단 강화: 불응하는 플랫폼에 대해서는 FTC가 민사 소송을 제기할 수 있고, 이러한 집행이 현실화되면 기업 입장에서 막대한 벌금이나 법적 분쟁 비용이 발생한다.
미국 행정부는 딥페이크 콘텐츠에 대한 추가 규제가 진행 중이며, 특히 페이크 금지법을 통해 보다 광범위하게 페이크 콘텐츠에 대한 규제를 강화할 계획이다. (No Fakes Act)
출처 버라이어티
설문 조사 결과 미국 성인 대다수는 합성 비동의 사적 이미지(성적 합성물)가 신고 즉시 삭제되어야 한다고 생각하 제작·유포자에 대한 형사처벌에도 높은 찬성(69%)을 보이고 있다.