Ilya Sutskever 昨天接受了 Dwarkesh Patel 的采访
这是他离开 OpenAI、创办 SSI 之后,最深度的一次公开发言
为了方便大家路上听,这里我做了一份中文配音版,使用了大橘子的 ListenHub 的 API
当然,如果你想看英文原版,可以访问这个地址https://www.dwarkesh.com/p/ilya-sutskever-2
核心判断如下:
AI 行业正在从「扩展时代」回归「研究时代」,从 Age of Scaling 到 Age of Research
2020 到 2025 年,大家发现只要把数据和算力堆上去,效果就变好,于是所有人都只做一个动作:加倍、再加倍
但现在,单纯靠堆预训练数据,已经快到头了
现在的问题不是「要扩大多少倍」,而是「要寻找新方法」
矛盾的现实:模型的「参差不齐」
Ilya 首先聊了一个让所有人困惑的现象:
模型能力的参差不齐(Model Jaggedness)
你看那些评测数据,你会惊叹:题这么难,但模型都能做对
但...现实中,好像没起什么作用
所以...为啥呢?模型一方面能通过高难度测试,另一方面却总是犯蠢
Ilya 举了个例子:
你在 Vibe Coding 做开发,发现了一个 Bug,跟模型说请修一下
模型说:哎呀你说得太对了,我这就修
结果它引入了第二个 Bug
你告诉它这儿又有个新 Bug
它说:天呢噜...我怎么能犯这种错
然后它把第一个 Bug 又改回来了
你就看着它在这两个 Bug 之间来回横跳
Ilya 给了两个解释
第一个稍微异想天开一点:
强化学习虽然让模型在某些方面变强了,但也让它们变得有点轴
第二个解释可能更接近本质:
应试教育
在做预训练的时候,选数据不需要动脑子,答案是「我全都要」
但在做强化学习时,你需要精心挑选训练环境
大家为了让模型在发布时好看,为了让评测分数漂亮,就专门针对评测标准去设计训练环境
这就是 Reward Hacking——人类研究员在 hack 奖励函数
(啊哈哈哈哈哈哈哈哈哈哈哈,笑死了,太真实了)
根本差距:泛化能力
为什么这些模型在泛化能力上,比人类差了十万八千里?
Ilya 打了个比方
假设有两个学生去搞算法竞赛
学生 A 决定要成为最强选手,他练了一万个小时,刷遍了所有的题,背下了所有的解题套路
他确实成了顶尖高手
学生 B 觉得这事挺有意思,大概只练了一百个小时,但他很有天赋,也考得不错
从人类职业生涯的角度,谁会发展得更好?
肯定是第二个
现在的 AI 模型就像是第一个学生,甚至更极端
我们为了让它擅长编程,就收集了世上所有的编程题,甚至还通过数据增强造出了更多题来训练它
结果就是...
它确实把所有解题技巧都背下来了
智能都是刷出来的,一旦遇到没见过的场景,它就很难举一反三
这是当前模型最本质的局限
Ilya 还提到一个神经科学的案例
有个人脑部受损,掌管情感的区域坏了
他的智商没变,说话依然流利,做逻辑题也没问题
但他完全没有情绪了
结果呢?
他变得完全无法做决定,选个袜子都要花几个小时
这说明人类内置的「情感」,其实是让我们成为一个有效率的智能体的关键
在机器学习里对应的就是「价值函数」(Value Function)
现在的强化学习,只有在最后那一刻才告诉模型好坏
而价值函数能在中间过程就给反馈
就像下国际象棋,你丢了一个车,你不需要等到整盘棋下完才知道自己搞砸了
未来的 AI 训练,一定会更多地依赖这种机制
Scaling 的终结
Ilya 把 AI 的发展史分成几个阶段
2012 到 2020 年,是「研究时代」
Age of Research
大家都在瞎折腾、试错、找新点子
2020 到 2025 年,是「扩展时代」
Age of Scaling
大家突然发现只要把数据和算力堆上去,效果就变好
于是所有人都只做一个动作:加倍、再加倍
但现在,预训练数据快到头了
虽然大家开始堆强化学习的算力
但 Ilya 认为那个「无脑堆规模」的阶段已经过去了
我们正重返研究时代
他说了一句话:
世界上的公司,比点子还要多得多....如果点子这么不值钱,那怎么没见谁有点子呢?
这是在说,接下来拼的是想法,不是堆资源
重新定义 AGI
这里有个 Ilya 的重要观点
大家对 AGI 的理解可能被带偏了
我们总是把 AGI 想象成一个无所不知的神
但其实,人类并不是这样的
人类是「持续学习者」(Continual Learners)
所以,真正的超级智能,可能并不是一个出厂时就精通世间万物的成品
它更像是一个极其聪明的十五岁少年
基础很好,求知欲极其旺盛,学习速度极快
你把它投放到社会中,让它去学编程、去学医、去学法律
它是在部署之后,通过在真实世界中不断学习,才最终变成超级智能的
部署本身,将包含某种学习试错期
这是一个过程,而不是你扔出一个成品
对齐的新思路
如果这东西真的这么强,我们该让它以什么为目标?
Ilya 认为,我们真正应该追求的,是一个关爱感知生命(Care about sentient life)的 AI
注意,他说的是「感知生命」,不仅仅是人类
因为 AI 自己,未来也会成为感知生命
如果它具备同理心,它能理解「痛苦」和「快乐」,让它去关爱其他生命,这可能比单纯给它设定「保护人类」这种硬性规则要更稳健、更容易实现
Ilya 还提到一个有意思的事情
进化很容易把「喜欢甜食」写进基因,因为那只是对某种化学分子的反应
但是,进化是如何把「在乎别人的看法」、「追求社会地位」这种极其抽象、复杂的社会性欲望写进我们的大脑的?
这需要调动大脑的大量区域来处理信息,而进化竟然做到了,而且做得非常稳固
如果我们能搞清楚大自然是怎么把这些高层目标「硬编码」进人类大脑的,或许对 AI 的对齐会有巨大的启发
SSI 的定位
Ilya 对 SSI 的策略也有些松动
之前的想法是「闭关修炼,不问世事,直到神功大成再出山」
这种策略很有吸引力,因为它能让你避开商业竞争的干扰
但现在他觉得,如果这东西真的像预期那么强大,那让世界提前看到它、感受到它,其实是有好处的
为什么?
因为「超级智能」太难想象了
如果你只写文章说 AI 未来会如何如何,大家看一眼就忘了
只有当人们亲眼看到 AI 展现出某种力量时,不管是政府还是公众,才会真正开始重视,才会去制定规则
他说 SSI 是一家处于「研究时代」的公司
技术路线上,追求基于对「泛化」更深刻理解的、与众不同的技术路径
资源上,将所有资源投入研究,而非产品、销售或推理服务
最终目标是创造第一个真正安全、对齐的超级智能
研究品味
最后聊到「研究的品味」
Ilya 是公认的 AI 领域品味最好的人之一,从 AlexNet 到 GPT-3,他都押对了
他是怎么做到的?
他说这是一种审美
在思考 AI 应该是什么样的时候,会去参考人类的大脑,但关键,得是要「正确地」参考
比如,神经网络的概念直接灵感来源于大脑神经元——这很美,很简洁,而且它是合理的
大脑通过神经元连接的变化来学习,那 AI 也应该这样
这种审美包含了一种对「美」和「简洁」的追求
如果你看到一个方案特别丑陋、特别复杂,那它大概率是不对的
而且,你需要一种自上而下的信念(Top-down belief)
当你做实验失败的时候,数据告诉你说这事儿不靠谱
如果你只看数据,你可能就放弃了
但如果你心中有一个基于「美感」和「原理」的强大信念,你会觉得:不,这在逻辑上必须是行得通的,肯定是我哪里做错了,或者是代码有 Bug
正是这种信念,支撑着你熬过那些实验失败的时刻,直到你最终把它做出来
最后
回到 Ilya 在采访开头说了一句话:
你知道最疯狂的是什么吗?就是这一切竟然都是真的
这一切正在发生
但接下来怎么走,需要新的想法

