1
谁在"数字盗墓"?
距离张雪峰离世不到二十天,一款名为"张雪峰.skill"的AI技能包悄然上线。
不是简单的AI换脸配音蹭热度。开发团队把他的五本著作、数十场访谈、上千条答疑视频、完整的语言风格和思维逻辑全部喂给大模型,训练出一个高度还原其表达风格和判断模式的智能体。
测试者反馈,这个AI确实"有那味儿"——问它孩子该不该学某个专业,它不会机械罗列数据,而是先反抛几个现实问题,再给出风格鲜明的判断。语气、节奏、那股扎心的劲儿,都跟本人生前如出一辙。
消息传开后,张雪峰公司火速辟谣:不是官方行为。
换句话说,有人趁着热度,未经授权将逝者的数字遗产打包封装,做成了可售卖的产品。
这事如果止步于侵权争议,还算简单的。真正让人后脊发凉的,是它揭开的一个更大问题——当"数字复活"变成一门生意,谁在收割谁?
2
从情感寄托到商业变现,边界早已模糊
用AI复刻逝者或故人,早期多出于私人情感需求。
有人把去世亲人的语音做成AI陪自己聊天,有人把分手恋人的聊天记录训练成永远不会吵架的对话模型。这些虽然存在伦理争议,但至少停留在私人领域,旁人不好多说什么。
真正危险的,是它正在快速商业化。
去年某招聘平台的一项调研显示,超过四成受访HR承认,公司已经在用离职员工的过往数据训练内部AI系统。操作方式并不复杂:把员工在职期间的工作记录、邮件往来、沟通风格、项目经验等数据喂给模型,训练出一个能接手基础工作的数字分身。
这意味着什么?
你在公司干得越久,留下的数据足迹越完整,公司手里的"数字版你"就越成熟。等到哪天AI能覆盖你七成以上的日常工作,你的议价空间还剩多少?
这不是科幻情节。山东某游戏公司曾被曝出,员工离职后公司将其过往数据训练成AI分身,继续处理客户咨询和日常协作,而当事人完全不知情。
你辛辛苦苦攒下的经验,正在变成别人的固定资产。
3
你的脸、声音和二十年经验,正在成为"免费饲料"
比职场替代更隐蔽的,是个人数据被无差别抓取。
配音圈有个真实案例。一位给知名动画角色配音的演员发现,自己的声音被多家AI平台抓取训练,生成的语音模型在电商平台公开售卖,定价从几十到几百不等。他尝试维权,光取证就花了近十万元,至今没有一例胜诉。
更荒唐的是他统计出的数据——单日声音被盗案例超过七百条。有合作方甚至直接告诉他:现在AI合成的声音跟你差不多,还免费,所以我们不用真人了。
给角色配音配火了,火完就被自己的声音替代了。
短剧领域同样离谱。一位汉服博主在网上发了组写真,照片被AI换脸技术植入某部付费短剧,演的还是被恶意丑化的反派角色,她本人全程不知情。这类案例去年增长了近三倍,维权难度极高——侵权链条太分散,从模型训练方到内容制作方再到发布平台,责任归属几乎无法追溯。
你在社交媒体发的每一张照片、每一段语音、每一个随手拍的视频,理论上都可能被爬取、清洗、标注,进入某个训练数据集,最终变成AI模型参数的一部分。
而你对此一无所知,更没签过任何授权协议。
4
法律跟不上技术,普通人正在裸奔
问题的核心不在于AI技术本身——工具没有原罪。问题在于,规则远远落后于技术。
目前国内针对AI训练数据的法律框架,基本处于空白状态.
什么样的数据可以抓取?公开数据是否等于授权数据?
逝者的数字人格由谁来主张权利?未经家属同意商业化复刻算不算侵权?
员工在职期间产生的数据,离职后公司能否继续使用?这些数据的所有权到底归谁?
这些问题,现行法律给不出明确答案.
结果就是:技术公司把"数据真空期"当成红利期,能抓的先抓,能用的先用,出了事再说"法务在研究".
而普通人的肖像权、声音权、隐私权、劳动成果权,在AI面前几乎处于裸奔状态.
5
技术可以狂奔,规则不能永远缺席
AI是趋势,没人否认.但任何技术应用都有边界,这个边界应该由法律和社会共识来划定.
至少有三条底线应该尽快明确:
第一,未经本人明确授权,不得抓取个人公开信息用于AI训练."公开"不等于"授权",这个基本逻辑不能被技术冲垮.
第二,逝者的数字人格权益应由近亲属主张,未经许可不得商业化复刻.人走了不代表数字遗产可以随便捡.
第三,员工在职期间产生的工作数据,离职后公司无权继续用于AI训练,除非签署过明确协议.你的经验是你的事,不能悄无声息变成公司的永久资产.
技术本身是中性的,但技术的使用方式是有善恶的.
把逝者做成AI产品拿出去卖钱,把员工的工作经验无声无息喂给模型,把普通人的脸和声音当成免费素材随便用——这些行为不该被"技术进步"四个字一笔带过.
AI可以不知疲倦地学习,但法律必须知道边界在哪.
别让我们辛辛苦苦攒了一辈子的东西,最后全变成了喂养怪物的饲料.
点赞
收藏
分享

