事件背景:名人、明星遭遇AI“克隆”直播引热议
旧素材盗播:未经授权内容再利用在新、中、欧、美分别会被怎么处罚
AI伪造盗播:各国治理框架的“三快一慢”差异
不是“没法律、没监管”,盗播为何依然猖獗?治理时差、灰产暗线,深伪治理仍缺“最后一公里”
01
事件背景:名人、明星遭遇AI“克隆”直播引热议
2025年10月28日,在全球科技圈最受关注的 NVIDIA GTC 大会期间,YouTube 上同时出现了一个名为 “NVIDIA Live” 的“官方直播”。画面里坐着的,是会说话、会眨眼的“黄仁勋”,语气、神态几可乱真。他宣布了一项“加密货币活动”,并在直播画面中展示二维码,号称“扫码即可参与赠币计划”。
AI深度伪造的黄仁勋直播现场(Credit: @DylanOnChips)
据报道,一度有近 95,000 人收看了虚假直播,而观看真正主题演讲的人数约为 12,000 人。[1]
伪造名人的直播已经存在很久,但此前发生的“苹果发布会”期间的假冒直播[2]以及长期存在的“SpaceX 官方”“Elon Musk 直播”等假直播间[3]都主要是用这些名人过往采访素材做拼接,随着AI技术发展,“假直播”也进入了新阶段。
近日,据报道,中国也有明星疑似遭遇类似问题。[4]
这场“分身术”背后的,是技术飞速发展下“监管赤字”的又一具象表现。
我们亟需拆解,这些行为到底踩在了什么灰色地带:一方面,用旧素材盗播——剪切、拼接他人视频或直播片段,在不同平台“二次开播”,牟取流量与收益;另一方面,用AI伪造视频盗播——直接合成他人形象与声音,制造虚假直播、假带货或假发布会。这两类行为在视觉呈现上越来越难区分,却在法律层面跨越了不同的监管边界。
接下来,本文将梳理中国、新加坡、美国与欧洲现行法律和政策框架,看看各地如何应对这类“数字替身”的泛滥,又为何在明知风险上升的情况下,这些假直播仍能一再上演。
https://www.extremetech.com/internet/jensen-huang-deepfake-draws-nearly-8x-the-views-as-the-real-nvidia-gtc
https://www.theverge.com/2022/9/7/23342120/apple-fake-youtube-live-stream-crypto-scam
https://www.cloudsek.com/knowledge-base/elon-musk-deepfakes-are-fueling-crypto-scams-a-dangerous-trend
https://tv.cctv.com/2025/11/07/VIDEJH9TohSShvXJIaiuP5ce251107.shtml
02
旧素材盗播:未经授权内容再利用在新、中、欧、美分别会被怎么处罚
2.1新加坡:版权+消保,重视平台责任
根据新加坡《版权法》(Copyright Act 2021)第 114 条:
“Copyright subsists automatically in original works which are fixed in a tangible medium, without any need for registration.”
也就是说,只要视频内容具备一定的创作性(例如演讲者的表达方式、采访问答的内容、画面构图、剪辑等),并且被固定在有形载体(例如视频文件)中,版权就自动产生,无需申请或登记。通常版权所有者为制作方(如电视台、媒体机构或公司),而不是演讲者本人,除非合同另有约定。例如,一段新闻采访或企业活动视频,其版权可能属于制作公司;但如果是个人独立录制、个人上传,则作者即是录制者本人。
如果第三方未经许可,将这些片段剪辑后用于带货直播,极有可能构成该法框架下的侵权。因为《版权法》(Copyright Act 2021)第 191 条中明确若行为具有商业性质、对作品市场造成影响、使用量大、未获授权,就难以归入合理使用范畴。
《消费者保护(公平交易)法》(Consumer Protection (Fair Trading) Act,Singapore)
第 4 条(Unfair practices)规定:
如果盗用名人的旧直播或采访视频,未获授权却被用于带货或产品宣传,从而让消费者误认名人真实参与或背书,那么供应商/账号运营者可能构成“未经许可的代言或认证”——即违反 (a) 项“声称有赞助、认证、批准而实际上并无”的条款。
新加坡在这方面有典型的例子可追溯到上世纪Chiam See Tong 诉 Xin Zhang Jiang Restaurant Pte Ltd 案 。[5]一家餐馆为了吸引顾客,私自将前反对党资深政治人物詹时中(Chiam See Tong)的照片印在宣传海报上。当广告曝光后,詹时中提起诉讼,称自己从未授权使用肖像,也不愿被卷入商业宣传。法院认为,普通公众看到这样的广告,很容易误以为詹时中与餐馆存在代言或利益关系,属于对其名誉的利用与歪曲,因此判定餐馆构成诽谤并责令赔偿数万新币,同时禁止继续使用其肖像。
而在 Hanis Saini Hussey 诉 Escort Agency 案 中,情节更为尴尬。Hanis Hussey 是一位在新加坡为人熟知的时装模特,她之前为公益项目拍过一张照片,用在 Action for Aids 的宣传海报上:画面是她的肖像,配合防艾公益信息。
Hanis Hussey 曾登上TIME封面,具有高知名度[6]
后来,一家提供 escort(陪伴服务) 的机构,从这张公益海报上“顺手牵羊”,擅自把 Hanis的照片剪下来,用在自己的广告里,放在一堆电话号码和服务字样旁边,看上去就像她是这家陪伴公司的“形象女郎”甚至从业人员一样。
The Straits Times, 18 April 1998, Page 56[7]
这则广告并不是贴在街头或杂志上,而是刊登在《新加坡黄页》(Singapore Yellow Pages) 里。
值得注意的是,随后《新加坡黄页》(侵权信息发布平台)和escort机构(侵权行为者)都受到的处罚。这也奠定了“平台责任”的追责基础。
Chiam See Tong v Xin Zhang Jiang Restaurant Pte Ltd [1995] 1 SLR(R) 856
Hanis Saini Hussey v Integrated Information [1998] SGHC 219. 29
https://eresources.nlb.gov.sg/newspapers/digitised/issue/straitstimes19980810-1
2.2中国:著作权+人格权+市场监督
对于盗播他人内容或剪辑未授权短视频,中国法律以著作权保护为主。根据《著作权法》,视听作品(如影视剧、直播录像)受版权法保护。虽然《著作权法》第 24 条(2021 版)规定了合理使用情形,但在实务中,任何摘剪片段的短视频只要未经权利人授权且具有商业目的,一般都构成侵权。
中国司法实践中多次认定短视频切片侵权:例如2024年上海知产法院判决优酷诉快手案,认定快手平台用户上传的《甄嬛传》“切片视频”大量侵权,判令平台赔偿160万元。[8]
人格权法也提供救济:如他人剪辑内容歪曲原意损害名誉,权利人可依民法典请求停止侵害、赔礼道歉等。
此外,中国广告法等规定禁止未经授权代言商品,商家若用明星假直播推广可能构成虚假宣传,由市场监管部门查处。
https://www.sohu.com/a/888424535_121709950
2.3欧盟:自动拦截侵权内容
欧洲对于盗用他人影音内容的立场一贯严格,著作权法体系完备且执法力度大。
欧盟《信息社会版权指令》(2019/790号指令)[9] 中特别的第17条要求大型内容分享平台对用户上传内容承担更大责任:平台必须与权利人事先许可受保护内容的传播,未获许可的,应采取措施确保未经授权的作品不能上传或在通知后迅速下架。
换言之,YouTube、抖音此类平台在欧盟需要过滤侵权内容或与版权方合作,否则可能承担侵权连带责任。这为打击未经授权的直播切片提供了法律基础。
实践中,欧洲各大视频平台均建立了内容指纹和版权检测系统(如YouTube的Content ID),以自动识别和阻止侵权片段上传。[10]
2.4 美国:自由主义的版权保护,但从严打击商业冒用
美国有“通知-移除”机制(DMCA避风港):互联网平台在收到版权所有人通知后须及时移除侵权内容,否则可能丧失法律免责地位并承担赔偿责任。因此,一旦明星发现自己的直播被盗播或剪辑上传,可通过发送DMCA删除通知要求平台下架内容。如不从,平台和上传者均可能被起诉。
在直播语境下,这一机制面临挑战。不过,除了知产法,美国还有其他角度可以更便捷地帮助此类侵权者维权:
冒用名人过往视频假装其代言产品,可能触犯联邦商标法(兰哈姆法)关于虚假代言的禁止条款(即在商业广告中制造令人误认名人背书的虚假描述)。
美国联邦贸易委员会(FTC)也对广告代言有严格规定,要求真实透明——假冒名人直播推销商品显然属误导行为,FTC有权介入制裁。
在知名案例中,歌手贝特·米德勒曾成功起诉一家车企在广告中找人模仿其声音唱歌(被判侵害她的形象/公众认知权益)。[11]在数字时代,若他人剪辑明星直播片段宣传商品,属于“直接盗用”推“间接模仿”,以宽适严,显然可类推适用此权利提出索赔。
Directive (EU) 2019/790 of the European Parliament and of the Council of 17 April 2019 on copyright and related rights in the Digital Single Market (and amending Directives 96/9/EC and 2001/29/EC) https://eur-lex.europa.eu/eli/dir/2019/790/oj/eng
https://wellbeingmagazine.com/how-youtube-detects-copyrighted-content-a-beginners-guide-to-content-id/
Bette Midler v. Ford Motor Co., 849 F.2d 460 (9th Cir. 1988)
03
AI伪造盗播:各国治理框架的“三快一慢”差异
3.1新加坡:深度伪造正在被政策层面高度重视,刚刚落地专门法规和专职监管机构
2025年10月15日在议会首读的《线上安全(救济与问责)法案》Online Safety (Relief and Accountability) Bill(简称 “OSRA Bill”),在2025年11月5日已通过。[12]
律政部针对OSRA Bill发文称“拟议新法旨在赋予网络伤害受害者寻求及时救济和获得赔偿的权利”
该法案将设立新的监管机构Online Safety Commission(OSC),受理包括“线上冒充”和“虚假材料/深伪滥用”在内的13类网络伤害投诉。
个人若遭假视频、假音频侵害,可请求OSC专员发出指令,要求平台删除内容、限制账号等,违规者将面临罚款或监禁。
该法案还赋予受害者民事诉权,可起诉不作为的平台索赔。
https://www.mlaw.gov.sg/proposed-new-law-to-empower-victims-of-online-harms-to-seek-timely-relief-and-obtain-redress
3.2 中国:行政规范率先出台,人格权法规定明确
中国在监管层面率先出台了针对深度伪造的规定,早在2022年,中国国家网信办等部门发布《互联网信息服务深度合成管理规定》(2023年初施行),首次明确深度合成服务提供者需履行内容标识等义务。
2023年9月又施行《人工智能生成合成内容标识办法》,要求所有AI生成的文字、图片、视频内容必须“亮明身份”添加标识。该办法细化了显式标识(如在视频开头添加提示水印)和隐式标识(在文件元数据加水印)的技术要求。
因此,在中国使用AI换脸、配音制造假视频/直播而不标明,其行为本身已违反网络信息内容管理规定,可被责令改正或处罚。
另一方面,中国的《民法典》人格权编赋予自然人肖像权和声音权,禁止任何组织或个人未经同意以伪造手段使用他人肖像,并规定对自然人声音的保护。假直播中不论盗播或AI合成,“毋庸置疑”侵犯了温峥嵘本人的肖像权和声音权。
3.3 欧盟:法规健全,但执法有盲区
欧洲层面正通过综合立法应对深伪技术带来的挑战。欧盟《人工智能法案》(AI Act)在2023年通过立法协商,将于2025-2026年分阶段生效。法案要求:凡使用AI系统生成深伪内容的部署者,必须清晰披露内容系人工生成或修改,标明其人工来源。未履行标识义务的,将面临最高可达全球年营业额7%或€3500万的巨额罚款。这一点对于深度伪造假直播来说,是关键一击。
不过,虽有法规,但执行落地仍有距离,目前通行的策略有三种:
“水印”法:有研究建议应强制所有有生成能力的模型,AI 生成内容时,应“嵌入可检测标识(机器可读)”的方式,使得平台或监管方可以很方便地辨别[13]。但也有人指出:水印方案在实践中“仍具挑战”,如不同媒体格式、剪辑、再转码后水印可能失效。[14]
“技术溯源”法:欧盟研究资料指出,合成内容还可通过“生成模型日志、训练集摘要、输出特征识别”方式追踪来源。[15]
“平台备案”法:AI Act 要求提供者/部署者保留技术文档、合规记录、检测记录等,并接受国家主管机构的监督、审查。[16]
虽然有水印+溯源+平台备案机制,但目前尚无单一“万能检测算法”可准确判断所有 AI 生成内容。研究指出,合成技术进步迅速,许多深伪内容几乎以假乱真,检测仍有盲区。
此外,欧洲多国已有维护个人肖像和名誉的法律传统,可以为个人自主维权提供抓手,但仍然存在伪造内容泛滥且下架后很容易换号再来,权利人根本“举报不过来”等维权难问题。
例如法国、德国法律早已确认公民对自己肖像享有控制权,未经许可不得用于商业用途;如深伪内容损害名誉,亦可提起诽谤诉讼。
北欧国家甚至尝试创造新型权利:丹麦计划修法赋予个人对自己身体、面部特征和声音的“版权”,以便个人有法律依据要求平台移除未经同意的AI合成影像、索赔损失。此举开欧洲先河,体现了对每个人数字肖像的财产性保护思路。[16]
https://arxiv.org/abs/2503.18156
https://datainnovation.org/2024/07/the-ai-acts-ai-watermarking-requirement-is-a-misstep-in-the-quest-for-transparency
https://www.europarl.europa.eu/RegData/etudes/BRIE/2023/757583/EPRS_BRI(2023)757583_EN.pdf
https://www.theguardian.com/technology/2025/jun/27/deepfakes-denmark-copyright-law-artificial-intelligence#:~:text=The Danish government is to,body%2C facial features and voice
3.4 美国:目前以公开形象权为主要保护依据,联邦层面的深伪防治立法还有距离
美国许多州承认“公开形象权(Right of Publicity)”:即未经许可利用他人姓名、肖像作商业用途,当事人可提起民事诉讼求偿。在AI时代,夏威夷、伊利诺伊等州更新法律扩大肖像权范围,明确禁止未授权使用个人姓名、肖像、声音生成数字替身。
加州出台多部AI法案,以“合同基准法”原理,实质化保障AI时代的个人人格和创作权益:
如AB 2602法案防止演艺人员被合同强制让渡数字替身权利,规定任何允许制作数字人像/声音复制的合同条款,若无具体用途约定且签约者无律师/工会代表,即属不可执行;
AB 1836法案则禁止未获许可制作逝者的数字复刻形象用于视听作品。
此外,加州新法要求AI生成内容透明:自2025年起,政治广告中凡使用AI生成或改动的内容,必须显著标示“人工智能生成”。大型AI平台也需提供AI内容检测工具和水印选项供用户标识。
前文提到的“歌手贝特·米德勒声音维权案”,在AI时代成为了一个重要先例。
美国对深伪的监管呈现碎片化,各州在选举、隐私、欺诈等具体领域各自立法,联邦层面仅有少数议案提案(如《2023深伪问责法案》Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act of 2023 尚未通过)。[17]
为何在这一个新、中、欧都较迅速达成立法界共识的领域,美国反而长时间未能实现联邦层面统一立法呢?
这是因为:
一方面,美国联邦立法存在 言论自由保护(First Amendment) 的高度门槛。针对“声音、影像、伪造代言”立法容易触及“表达自由”与“艺术创作自由”界限,引起较强议论。[18]
另一方面,法案范围广、技术复杂、利益相关方众多(包括平台、内容创作者、科技公司、个人隐私权利等),且检测与执行机制尚未成熟,比如如何界定“深伪”“未披露”、如何追责、平台责任范围等尚不明确,导致美国相关利益集团之间往往认为时机不成熟、彼此协商困难。[19]
此种多元立法的共同趋势是,美国各种在不同力度下积极保障公众不被AI虚假信息欺骗、维护个人对自身形象声音的控制权。
总的来说,美国正在通过扩张既有人格权、隐私权法律和制定专项州法来应对深伪挑战,但在联邦统一立法和执法层面仍有空白和争议。
https://www.congress.gov/bill/118th-congress/house-bill/5586/text
https://www.thomsonreuters.com/en-us/posts/government/deepfakes-federal-state-regulation
https://www.omm.com/insights/alerts-publications/proposed-legislation-reflects-growing-concern-over-deep-fakes-what-companies-need-to-know
04
不是“没法律、没监管”,盗播为何依然猖獗?治理时差、灰产暗线,深伪治理仍缺“最后一公里”
在新加坡、美国和欧洲,尽管“数字伪造”和“旧素材盗播”已经被普遍视为严重问题,但监管仍滞后于技术。这种“真空期”让违规行为有了可乘之机。
首先,从立法与政策层面看,法规仍在等待生效或彼此磨合。美国在州一级已有若干“Deepfake 法案”,但缺乏全国性统一标准;欧盟的《AI 法案》(AI Act)虽已通过,但具体实施细则要到 2026 年后才能全面落地;而新加坡的《在线安全(Online Safety)法案》和《个人数据保护法》(PDPA)主要聚焦数据滥用与儿童保护,对于伪造视频、假直播的“传播责任”尚未细化。
这意味着,执法机关往往只能援引“旧法条”,如诽谤、虚假广告、版权侵权,去勉强处理“AI伪造+盗播”的新型问题,存在取证困难、适用模糊、跨境管辖复杂等现实瓶颈。
其次,从执行与治理层面看,监管工具与平台协作机制仍在搭建中。无论是欧盟数字服务法案(DSA)要求的平台透明化系统、美国 FTC 的 AI 广告误导指南,还是新加坡 IMDA 的内容审查与行业自律体系,都还处在“试运行”阶段。
换言之,识别、下架、取证与追责的系统性闭环尚未建立,平台算法识别伪造视频仍不稳定,举报机制碎片化,跨平台数据共享困难。监管者、平台方与司法体系之间的协同尚未形成“即时反应链条”,这让违法者有了缓冲时间与灰色空间。
至此,很多人当然会疑惑,中国的情况似乎更复杂:
为什么中国在有《人工智能生成合成内容标识办法》以及人格权法的情况下,AI合成的假直播仍然泛滥?
制度“已具雏形”,执行却仍在追赶现实。当前问题的核心在于:
首先,高水平的伪造往往能逃过平台的AI检测。随着生成式模型能力提升,假视频的画质、口型、语音合成逼真度已足以混淆算法判别。部分深伪视频在上传环节并未被识别为“合成内容”,导致它们能在短时间内通过平台审核并迅速传播。
其次,《人工智能生成合成内容标识办法》虽已于2025年9月1日正式施行,但“标识规范+平台审核”机制仍在推广磨合阶段。该办法要求生成内容需加注显式或隐式标识,但在实践中,不同平台的执行标准尚未统一,技术接口对接仍不完善。大量“早期生成”或“转制传播”的视频游离在监管之外,使治理呈现“法规先行、落地滞后”的状态。
第三,人格权救济在AI时代面临结构性迟滞。按照现行法律,侵权行为需由被侵权人主动投诉或起诉,方能启动救济程序。但在“假直播”情境下,名人或公众人物往往难以及时发现、取证,更难跟上内容生成与扩散的速度。AI深度伪造和短视频传播的结合,让传统的“事后维权”模式明显滞后于“即时侵害”的速度。
最后,假直播背后已形成灰色产业链。从模型开发、合成服务、视频剪辑、账号包装到平台推广,一条完整的“AI仿冒生产线”已然成熟,参与主体分散、层级隐蔽。取证和执法部门需要跨平台、跨地区追踪才能锁定责任方,而现有技术与程序性资源仍难以支撑这种高复杂度的执法行动。
因此,即便法规已出台、原则已明确,中国在治理AI假直播问题上仍处于从“确立规则”向“形成执行能力”的过渡期。未来的关键不在于是否有法可依,而在于能否真正实现“有法必依、违法必究”,让监管速度赶上算法速度。
设计 / Eloise Nguyen 版式 / 刘凡文 校对 / 钱政英
欢迎关注各大栏目
AADE将持续致力于
促进数字经济
普惠、互信与交流创新
期待您与我们
携手同行
✦
END
✦
Adress: #06-08 PLQ 2, Singapore 408533
Email: contact@aades.academy
Website: www.aades.academy

