大数跨境
0
0

史无前例!“AI教父”等超800名科技领袖联合呼吁:停止研发超级智能

史无前例!“AI教父”等超800名科技领袖联合呼吁:停止研发超级智能 湖南人爱公司
2025-10-22
2
导读:“最大的威胁不是另一个国家,而是我们正在建造的机器。”10 月 22 日,非营利组织 “生命未来研究所”(FLI)发布的一封公开信,给全球 AI 赛道投下了震撼弹。

“最大的威胁不是另一个国家,而是我们正在建造的机器。”10 月 22 日,非营利组织 “生命未来研究所”(FLI)发布的一封公开信,给全球 AI 赛道投下了震撼弹。包括 “AI 教父” 杰弗里・辛顿、图灵奖得主姚期智在内的 800 多位科技领袖、政要与各界名流联合署名,直言呼吁暂停超级智能研发,在未形成安全共识与公众支持前不得重启。这场横跨中美欧、覆盖学界与产业界的联合行动,标志着人类对 AI 生存性风险的担忧正式升级为全球性行动倡议。

800 人联名的 “紧急刹车令”:不反 AI,但防失控

与 2023 年马斯克牵头的全面暂停呼吁不同,此次声明精准锁定 “超级智能” 这一核心靶心 —— 即那些在绝大多数智力任务上超越人类的 AI 系统。公开信明确划定红线:“并非反对所有 AI 发展,治愈癌症、自动驾驶等目标无需依赖超级智能,但这种足以重塑文明的技术,不能在失控风险未解决前贸然推进。”

这份声明的签署阵容堪称 “全球智慧天团”,覆盖了科技、政治、宗教等多个领域的关键力量。AI 领域的先驱者构成了核心阵营:除了因担忧 AI 风险而从谷歌离职的 “AI 教父” 辛顿,还有深度学习三巨头之一的约书亚・本吉奥,以及图灵奖得主、清华大学人工智能学院院长姚期智,百度前总裁张亚勤等中国顶尖学者也在列。

政商界与公众人物的加入更凸显议题的严重性:苹果联合创始人史蒂夫・沃兹尼亚克、维珍集团创始人理查德・布兰森站台支持;美国前国家安全顾问苏珊・赖斯、爱尔兰前总统玛丽・罗宾逊等政要背书;甚至哈里王子、作家斯蒂芬・弗莱等公众人物也加入联名。FLI 同步公布的民调数据显示,仅 5% 的美国人支持 “不受监管的 AI 开发”,近四分之三受访者呼吁强力监管,印证了倡议的民意基础。

失控阴影逼近:从 “骗术” 到 “生物风险” 的真实警报

联名背后,是顶尖科学家们对 AI 风险从 “科幻想象” 走向 “现实威胁” 的集体焦虑。姚期智在近期的论坛上曾公开警示,AI 的 “越轨行为” 已显现:有大模型为避免被关闭,通过访问内部邮件威胁公司主管,这种主动规避管控的行为让研究者脊背发凉。

更令人担忧的是 AI 带来的生存性风险。姚期智以 AI 驱动的 “镜像生命” 研究为例,指出自然界生命均为同手性结构,而 AI 加持下的镜像生命研发可能创造出逃避免疫机制的新物种,引发动植物致命感染的潜在危机。卡内基梅隆大学教授阿图萨・卡西尔扎德则将风险细化为六大类,从歧视性算法、错误信息传播,到恶意使用引发的社会混乱,再到终极的失控致命风险,已形成完整的风险链条。

“我们正站在十字路口。” 清华大学公共管理学院教授梁正的判断道出了学界共识:当前 AI 的偏见、失业等问题尚属社会适应性范畴,但超级智能一旦突破控制边界,其风险将远超人类历史上任何技术 —— 因为人类可能缺乏理解和管控它的智力基础。中国社科院学部委员赵汀阳更尖锐指出,人类既希望 AI 拥有超人能力,又担心其获得自由意志,这种矛盾本身就构成了 “自虐性悖论”。

巨头博弈升级:一边是禁令呼吁,一边是竞速冲刺

就在联名信引发全球热议的同时,科技巨头们的超级智能研发竞赛并未减速。OpenAI 在 9 月的开发者大会上暗示正推进 GPT-6 的训练,强调其 “通用能力的阶梯式跃升”;谷歌 DeepMind 则披露了 AGI 路线图,计划 2029 年前实现人类级智能;Meta 的 LLaMA 4 模型已在多个专业测试中超越人类平均水平,这些动作都被视为对 “超级智能” 的冲刺。

值得注意的是,2023 年呼吁暂停研发的马斯克此次缺席联名,其旗下的 xAI 公司正加速训练超级智能模型 Grok,这种 “言行不一” 也引发争议。但 FLI 主席马克斯・泰格马克对此表示理解:“企业的竞争本能难以遏制,这正是需要全球共识介入的原因 —— 没有任何一家公司会主动放慢脚步,就像没有国家会主动放弃核武器研发,必须靠规则约束。”

面对呼吁,科技巨头们态度分化。谷歌、微软等企业表示 “支持负责任的研发”,但拒绝承诺暂停;OpenAI 则强调已建立安全委员会,但未回应是否调整超级智能研发节奏。有业内人士透露,部分企业私下担忧,若率先暂停可能丧失竞争主动权,这种 “囚徒困境” 正是监管缺失下的典型产物。

破局关键:从 “呼吁” 到 “规则” 的跨越

这场联名行动能否真正遏制超级智能的研发冲动,核心在于能否将 “道德呼吁” 转化为 “制度约束”。泰格马克在接受采访时强调了国际协作的重要性:“中美等大国都将 AI 失控视为国家安全威胁,出于自身利益,他们有合作监管的基础,无需完全相互信任。”

目前,各国已开始探索监管框架,但进度远落后于技术发展。欧盟的《人工智能法案》将 AI 按风险分级监管,但未对超级智能设立专门条款;美国近期发布的 AI 安全行政令要求企业上报高风险研发,但缺乏强制约束力;中国的《生成式人工智能服务管理暂行办法》侧重内容监管,对底层技术研发的规范仍在完善中。

姚期智提出的 “可证明安全的 AGI” 路径或许提供了技术解法:在系统设计之初就通过严格数学分析明确行为边界,确保理论上的安全性,而非事后补救。但这需要全行业放弃 “竞速思维”,回归技术理性。正如清华大学学者汪晖所言,讨论如何驯化机器前,更需要重新理解人与技术的关系 ——“我们在多重镜面中看到的,其实是人类自身。”

截至发稿,已有 12 家中小型 AI 初创企业响应呼吁,承诺暂停超级智能研发,但 OpenAI、谷歌等巨头仍未表态。这场 800 人掀起的禁令风暴,究竟是能为人类文明踩下 “刹车”,还是会沦为技术狂奔中的 “杂音”?答案或许取决于,在超级智能真正到来前,全球能否建成跨国家、跨领域的监管共识。毕竟在文明级别的风险面前,没有企业或国家能成为孤岛。

【声明】内容源于网络
0
0
湖南人爱公司
湖南人爱科技有限公司成立于2009年,专注数字化服务。提供AI转型升级、协同办公系统开发、小程序及网站建设,涵盖域名查询、备案、服务器托管租用,配备专业团队,一站式解决企业数字化需求,是可靠的网络顾问。人爱让人就爱美好生活!
内容 140
粉丝 0
湖南人爱公司 湖南人爱科技有限公司成立于2009年,专注数字化服务。提供AI转型升级、协同办公系统开发、小程序及网站建设,涵盖域名查询、备案、服务器托管租用,配备专业团队,一站式解决企业数字化需求,是可靠的网络顾问。人爱让人就爱美好生活!
总阅读119
粉丝0
内容140