大数跨境

被AI夺走工作的白领们,正在被雇来训练AI夺走更多工作

被AI夺走工作的白领们,正在被雇来训练AI夺走更多工作 DeepTech深科技
2026-03-13
0
导读:1952 年,库尔特·冯内古特(Kurt Vonnegut)写了一本叫《自动钢琴》(Player Piano)的小说。

AI训练背后的“白领零工”:专业知识正被系统性拆解为一次性消耗品

1952年,库尔特·冯内古特在小说《自动钢琴》中预言:自动化将取代蓝领工人,而失业者被迫维护取代自己的机器。七十多年后,这一图景重现,但主角已变为律师、编剧、设计师与科学家——他们不再维护机器,而是被雇佣去“教AI做自己的工作”。

被裁者成为训练者:AI裁员潮催生新型劳动力市场

美国就业咨询机构Challenger, Gray & Christmas统计,2025年约5.5万个岗位因AI被直接削减,全年雇主宣布裁员总数达117万,创新冠疫情以来新高。

更值得关注的是其背后隐性的“吃人链条”:被AI挤出原岗位的专业人士,正成为AI公司最主要的数据劳动力来源。他们将十年甚至二十年积累的职业判断力,拆解为结构化数据,用于训练模型替代更多同类从业者。

典型职业链条案例

  • 内容营销人员被ChatGPT取代后,转而受聘训练聊天机器人撰写营销文案;
  • 电视编剧发现剧组用ChatGPT起草剧集,随即承接AI公司科幻剧本的数据标注合同;
  • 平面设计师因85%客户转向生成式AI流失,最终注册数据标注平台,为其曾凭手艺谋生的视觉素材打标签。

这些人在旧体系中是受训专业者,在新体系中却沦为按秒计酬的零工。

为何需要人类专家?AI遭遇“能力天花板”

大语言模型依赖海量文本学习模式,但公开互联网数据正快速枯竭,性能增长明显放缓。2024年前后,“Scaling Law撞墙”成为行业共识。早期RLHF(基于人类反馈的强化学习)虽能提升回答“像样度”,但可靠性提升有限。

法律分析、广告文案、管理咨询、教育方案等专业领域缺乏天然验证机制——何为优质投资建议?客服邮件语气如何才算“恰当”?这类判断高度依赖人类经验。于是AI公司选择“花钱制造标准”:雇佣专家定义标准、审核标准、打分、撰写“黄金答案”(golden output)、构建推理链(reasoning trace),甚至开展“世界构建”(world-building)项目,由律师或咨询师角色扮演虚构企业团队,产出会议纪要、财务模型与决策备忘录供模型训练。

数据训练产业迅速扩张

Mercor是该赛道成长最快的企业之一。三位湾区青年2023年创立,初期聚焦AI招聘匹配,后转向为AI实验室提供专家级训练数据。2025年10月完成C轮融资3.5亿美元,估值达100亿美元,创始人以22岁之龄跻身全球最年轻白手起家亿万富翁行列。Scale AI、Surge AI等亦为重要竞争者。

这些公司大规模招募具备学位与实操经验的专业人才,招聘范围覆盖厨师、管理顾问、野生动物保护科学家、私家侦探、记者、教师,甚至“北美青少年幽默专家”。业内评价称,这是“人类历史上规模最大的专业知识采集行动”。

图丨Mercor 创始团队(来源:Mercor)

体面口号下的劳动困境

“参与AI经济”听来体面,现实却充满落差:

  • 项目初期待遇尚可、有人类主管沟通,但很快任务量激增、时限缩短、薪酬下调,未达标者被静默“下线”;
  • 有编剧指出,不少获奖导演与制片人私下从事此类工作,却不愿公开承认;
  • 为Meta做视频标注的项目关闭后,数千人被转入新项目,时薪从21美元降至16美元,低于加州等多州最低工资;新项目Slack群删除茶水间与互助频道,甚至关闭私信功能;
  • Mercor要求工人安装Insightful软件,精确追踪键盘操作至秒,无输入即弹窗质询,“非生产性时间”可能被扣减报酬;
  • 一位资深编剧坦言:“上厕所、倒咖啡、伸懒腰……所有构成‘你是一个人’的琐碎时刻全被剥夺。”

图丨Insightful App(来源:Insightful)

Surge AI旗下Data Annotation Tech平台则更不透明:工人常在登录后发现任务面板清空、客服失灵,被称为“死亡仪表盘”(dash of death)。

结构性问题:不确定性向下传导

AI实验室发现模型在化学领域薄弱,便向数据供应商下单招募化学家;产出数据后项目暂停,待实验室评估效果——期间需求可能调整、供应商更换,甚至转向生物学家。一位数据公司高管坦言:“AI实验室自己也常不确定要什么,不确定性一路向下传导,全部由底层工人承担。”

为应对波动,数据公司维持庞大待命劳动力池。因工人多被定义为独立承包商,无需医保、带薪假或失业保险,边际成本近乎为零。

严苛保密协议进一步削弱议价能力:工人不知服务对象,合同仅写“客户”,不得透露工作细节,无法积累可迁移职业声誉。一位从业超十年的管理者直言:“沉默本身就是雇主的定价权。只要工人无法证明做过什么,就永远无法获得与能力匹配的报酬。”

全球劳动力池加剧压价压力

加州正尝试建立制度阻力:过去半年,至少三起集体诉讼指控Mercor错误归类工人;Scale AI与Surge AI此前亦涉类似诉讼,Scale AI已在和解进程中。原告核心主张是:公司对工人实施“非同寻常的控制”(指定平台、安装监控、设定流程),法律上难以成立独立承包关系。

2026年2月,美国劳工部发布拟议新规,试图厘清雇员与独立承包商界定标准,但能否追上新型劳动形态扩张速度仍存疑。

相较Uber司机需物理存在方可接单、具备本地组织维权基础,数据工人完全远程可替。若美国工人争取更高报酬,企业可迅速转向全球南方国家。世界银行估计,全球数据劳动者达1.5亿至4.3亿人。

终极悖论:训练AI,即加速自身淘汰

每个训练项目都指向自我消亡:教会AI法律分析后,法律分析数据即失效;掌握冷门语言学分支后,该需求即从清单中移除。

一位语言学硕士从事rubric编写一年后发现,无论提问多冷僻的理论或濒危语言,模型均能精准回应。其周提交量从三四个锐减至勉强一个;项目结束后,五个月未获新岗。

Marketing AI Institute的Paul Roetzer描绘终极场景:AI实验室高价聘用百名资深注册会计师微调模型,使其超越人类水平;随后,初级会计岗位即被自动化。“整个行业膨胀,但对个体而言,技能被完整提取之日,即是被‘下线’之时。”

“人类特质更有价值”?现实远比口号复杂

Mercor CEO Brendan Foody曾表示:“AI自动化90%经济后,人类成为剩余10%瓶颈,单位产出杠杆效应可达十倍。”逻辑成立,但适用对象实为顶尖少数。

对绝大多数专业人士而言,其能力恰处于“足够好、可被标准化提取”区间——足以训练AI,又不足以令AI学成后仍需其服务。数据标注行业的残酷性,正在于此精准利用。

Anthropic最新报告《AI的劳动市场影响》指出:AI实际采用率远低于技术可行替代率。这“时间差”既是缓冲期,也是倒计时——大量高学历者唯一可得的工作,是在不稳定条件下,以最值钱的专业知识换取临时报酬,并加速该报酬归零进程。

政策缺位与组织缺位

当前政策讨论聚焦于AI引发大规模失业后的再培训或全民基本收入,但另一种趋势更需关注:任务级替代而非岗位级替代——人类被重新分配至AI生产流程的中间环节,如修改半成品、编写rubric。这类工作天然间歇性,由独立承包商承担,而现行法规几无保护。

麻省理工学院经济学家Daron Acemoglu指出:“若无适配数据经济的法律基础设施,许多数据生产者将被低薪雇用,甚至被剥削。”他呼吁建立类似工会的集体组织,防止大公司以分而治之策略持续压低数据价格。

时代寓言:在咖啡店与算法之间弹跳

Katya拒绝16美元时薪的Nova项目,转而应聘咖啡店:“至少有能聊天的同事、假装在乎你的老板、确定的下周班表。”这不是她读研时设想的职业路径,但她认为,相比被算法监控抢活儿,做咖啡师更具尊严。

手机响起——此前暂停的项目重启了。

这个结尾成为时代的缩影:一位合格、有经验、受过高等教育的人,在“训练AI取代自己”与“去咖啡店打工”之间反复横跳。问题不在某一家公司,而在技术发展路径与劳动制度安排本身——它将“人类专业知识”系统性地转化为一次性消耗品:被提取、被训练、被丢弃。

如今AI行业热衷讨论“人在回路中”(human in the loop)的伦理与效率,但从数据工人真实处境看,在AI真正接管完整工作回路、社会生产分配方式发生根本变革前,回路中的他们更像一根燃烧的蜡烛:存在价值,即在于把自己烧完,然后“退出”。

问题是:烧完之后怎么办?至今无人给出像样的答案。

(来源:HISTORY)

【声明】内容源于网络
0
0
DeepTech深科技
DeepTech 是一家专注新兴科技的资源赋能与服务机构,以科学、技术、人才为核心,通过科技数据与咨询、出版与影响力、科创资本实验室三大业务板块,推动科学与技术的创新进程。DeepTech 同时是《麻省理工科技评论》中国区独家运营方。
内容 5014
粉丝 0
DeepTech深科技 DeepTech 是一家专注新兴科技的资源赋能与服务机构,以科学、技术、人才为核心,通过科技数据与咨询、出版与影响力、科创资本实验室三大业务板块,推动科学与技术的创新进程。DeepTech 同时是《麻省理工科技评论》中国区独家运营方。
总阅读41.4k
粉丝0
内容5.0k