大数跨境
0
0

Ilya震撼预言:Scaling Law已死,我们错失了AGI的真正密码!

Ilya震撼预言:Scaling Law已死,我们错失了AGI的真正密码! AIGC 深一度
2025-11-27
0
导读:点击上方蓝字 关注我们人类情绪或是解锁超级智能的最后一块拼图“扩展时代已经终结!

点击上方蓝字 关注我们




人类情绪或是解锁超级智能的最后一块拼图


“扩展时代已经终结!”OpenAI首席科学家Ilya Sutskever近日在长达1.5小时的深度访谈中,抛出了这一足以震动整个AI界的观点。


五个月前,这位AI巨匠在NeurIPS 2024上宣告“预训练时代终结”,如今他更进一步,判定整个Scaling Law路线虽能继续但已无法通向AGI。

基准测试的幻觉:AI为何在现实世界中频频“翻车”?
访谈伊始,Ilya指出了当前AI最矛盾的现象:模型在各类基准测试中表现惊艳,却在真实应用中屡犯低级错误。


“假设你用AI编程出现bug,让它修复后却引入第二个bug,再指出第二个bug,它修复后却又把第一个bug带回来。”Ilya用这个生动的例子说明了当前模型的局限性——它们像是在两个bug之间来回“跳房子”,而人类至少懂得不重复犯同样错误。
为什么会这样?Ilya给出了两种解释:
其一,强化学习训练会让模型目标变得单一化,削弱其全局感知能力;
其二,预训练使用“全部数据”,而RL则定向优化特定目标,导致开发者不自觉地“从各种评测里获得灵感”。
核心问题在于:真正钻测评空子的不是模型,而是设计基准和RL环境的人类研究者。结果就是,AI成为“竞赛题训练营”中的高手,却无法在陌生场景下举一反三。

人类“天赋”的奥秘:情绪竟是价值函数?
当被问及为何人类泛化能力远胜模型时,Ilya提出了一个深刻观点:人类的学习能力不仅来自经验,还来自进化硬编码的“价值函数”。
他引用神经科学发现:因脑损伤失去情绪能力的人,智力、语言和逻辑能力未变,却变得极其不会做决定,甚至连穿袜子都要思考半天。


“情绪并不是‘多余的噪音’,而是决策系统的一部分。”Ilya表示,情绪本质上是一种“价值函数”,它告诉我们“这条路可以走”、“那个方向危险”。
相比之下,当前AI的价值函数(如模型打分器)既脆弱又粗糙,且非内置。这解释了为何模型缺乏真正的判断直觉。

Scaling时代终结:我们从“大力出奇迹”回归“研究驱动”
Ilya将AI发展分为三个阶段:2012-2020年是“研究时代”,2020-2025年是“Scaling时代”,而现在我们正回归“研究时代”。


“预训练最大的突破,就是大家意识到这套Scaling‘配方’真的有效。”但问题在于,数据终将用尽,而当前算力已经非常强大。
Ilya指出,我们已经见证了一种Scaling方式的转换——从预训练Scaling切换到RL Scaling。但RL极度消耗算力且效率低下。
更关键的是,“Scaling把屋子里的空气都吸干了”,导致所有人都在做同一件事:构建更大模型。结果就是“公司数量远多于创意数量”。
Ilya预测,未来创新将回归“小而美”的实验模式,就像AlexNet仅用两张GPU、Transformer用8-64块GPU一样,下一次范式转变可能来自“看起来不够大”的实验。

超级智能路线图:5-20年内降临,但不是你想象的那样
关于超级智能的时间表,Ilya预测5-20年内将出现能像人类一样学习并最终超越人类的AI系统。
但他对AGI的定义独树一帜:超级智能不是能胜任每一项工作的“完成形态”,而是能够学会做每一项工作的心智。


“人类好比造出了一个超级聪明的15岁少年,他懂的虽不多但是个好学生。你可以对他说:‘去当程序员,去当医生,去学习吧。’”
Ilya认为,部署本身将包含通过试错学习的过程,而非直接投放“最终成品”。一旦拥有这种学习算法,将引发快速经济增长。

安全悖论:为什么我们难以“感受”AGI的威胁?
Ilya坦言,实践中很难“切身感知”AGI的威胁:“你可以对话,可以想象,但这很难,你终究会回到现实。”
他认为,AGI与AI的本质区别是“力量”差异。随着AI真正变得强大,人们的行为将改变:
前沿AI公司将在安全方面展开合作(OpenAI和Anthropic已迈出第一步);
政府和公众将产生采取行动的意愿;
AI公司将变得更加“充满危机感”。

终极解决方案:构建关爱“有感知生命”的AI
Ilya坚信,比“自我进化AI”更值得构建的,是一个稳健对齐、专门关爱“有感知生命”的AI。
他特别指出,构建关爱有感知生命的AI,比仅关爱人类的AI更容易,因为AI本身也将有感知能力。这种同理心是一种涌现属性,源于我们使用同一套神经回路模拟自己与他人。

历史回响:从AlexNet到Transformer,创新常源于“小实验”
回顾AI发展史,重大突破往往来自资源有限的实验:
AlexNet(2012)仅用2张GPU训练,引爆深度学习革命;
Transformer(2017)原始模型仅用8-64块GPU开发;
ResNet等里程碑式工作同样不需要超大算力。
这印证了Ilya的观点:当下一次范式转变来临,它可能再次来自一套“看起来不够大”的实验。

小编点评
Ilya此次访谈的价值不仅在于技术洞察,更在于他对AI发展方向的哲学思考。当整个行业沉迷于“更大参数、更多数据”的军备竞赛时,他勇敢指出皇帝的新衣:盲目的Scaling无法通向真正的智能。
而他将“情绪”重新定义为价值函数的观点,或许正是我们寻找的AGI密码。这不禁让人想起科幻电影中那些最终因理解人类情感而真正觉醒的AI角色。
AI正从野蛮生长的Scaling时代,进入精细打磨的研究时代。这将考验的不是谁的算力更大,而是谁的思想更深。
正如Ilya所言:“我们又回到了研究的时代,只是手中有了更大的计算机。”
【互动话题】你认为情绪机制会是AI实现真正泛化的关键吗?欢迎在评论区留言讨论!

【声明】内容源于网络
0
0
AIGC 深一度
专注AIGC领域,关注微软 OpenAI、百度文心一言、讯飞星火 DeepSeek等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC,欢迎关注 个人网站 https://www.chenbaiqi.com
内容 469
粉丝 0
AIGC 深一度 专注AIGC领域,关注微软 OpenAI、百度文心一言、讯飞星火 DeepSeek等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC,欢迎关注 个人网站 https://www.chenbaiqi.com
总阅读40
粉丝0
内容469