一水 鹭羽 发自 凹非寺
量子位 | 公众号 QbitAI
年底即将正式离开Meta的杨立昆(Yann LeCun),在最新一期播客中直言不讳,系统阐述其对大语言模型(LLM)、世界模型及AGI路径的深层思考。
他明确指出:“通往超级智能之路——只需训练大语言模型,用更多合成数据训练,雇佣成千上万的人在后训练中‘教育’你的系统,发明强化学习的新花招——我认为这完全是胡说八道。这根本行不通。”
针对Meta近年研究风格转变,他坦言:“Meta正在变得更加封闭……FAIR被推动去从事一些比传统上更偏向短期的项目。”
本次近两小时深度对谈聚焦四大核心议题:
- 硅谷盲目扩展语言模型是否已走入死路?
- AI领域最难突破的并非人类级智能,而是狗级智能水平;
- 为何新公司选择构建“在抽象表示空间中进行预测”的世界模型,而非直接生成像素的模型;
- ……
上述内容浓缩了LeCun在Meta近12年的研究主线、离职动因、新公司战略及对未来AGI路径的根本判断。
人生下一程:创办新公司AMI
LeCun确认将于三周后正式离开工作十二年的Meta,创立新公司Advanced Machine Intelligence(AMI),专注开源世界模型研究。
此举被视为对其在Meta长期受抑的研究方向——以开放为基石的世界模型——的一次战略回归。
他强调:“FAIR曾对AI研究生态产生巨大影响,核心就在于高度开放的理念。但在过去几年里,包括OpenAI、谷歌、Meta都在变得封闭。”
“如果不公开发表研究成果,就算不上真正的研究。” LeCun指出,封闭式研发易导致自我验证偏差,而学术界检验是避免“一厢情愿妄想”的唯一途径。
AMI不仅开展基础研究,还将推出具备规划能力的世界模型实际产品,终极目标是“成为未来智能系统的主要供应商之一”。
他重申:“构建智能系统的正确打开方式就是世界模型。” 这一方向已在纽约大学与Meta多个项目中取得扎实进展,现进入工程落地阶段。
关于FAIR后续发展,LeCun明确表示:亚历山大王(Alexandre A. M. P. L. de Oliveira)并非其科研继任者;FAIR目前已由Rob Fergus领导,职责转向支持短期项目与TBD实验室(主攻LLM)。
LeCun的离开,标志着Meta以FAIR为代表的长达十年“学院派”研究黄金时代的终结,也凸显其彻底转向世界模型路线的决心。
要做的世界模型和LLM“根本不是一回事”
LeCun强调,世界模型与LLM本质不同,二者解决的是两类根本性问题:
- 世界模型面向高维、连续、嘈杂的现实世界模态(如图像、视频),是感知与交互的基础;
- LLM专精于离散、符号化的文本处理,在真实世界数据建模上“完全糟糕”。
他断言:“大量经验证据表明,用tokenize化文本模型处理图像/视频数据根本行不通。”
对比数据显示:LLM训练所需约30万亿tokens文本,仅相当于YouTube半小时上传量;而等量字节的视频(约15000小时)信息量,接近一个4岁儿童一生清醒时接收的视觉总量,且结构更丰富、冗余度更高。
因此,LeCun主张回归人类学习本质——让机器像婴儿一样,通过观察世界连续变化,主动构建可预测的内在模型。
世界模型的核心是预测与规划:
- 预测:基于当前状态与潜在行动,推演未来可能状态(或其抽象表示);
- 规划:以预测为基础,搜索并优化实现目标的最佳行动序列。
他驳斥“世界模型需完美模拟现实”的观点,指出科学建模的本质是抽象:“所有科学和模拟都通过‘发明抽象’来工作……这种抽象能带来更长期、更可靠的预测。”
因此,“世界模型不必是完全的模拟器,它们是模拟器,但在抽象表示空间中。”
其实现路径聚焦于联合嵌入预测架构(JEPA),该技术源于其90年代Siamese Networks研究,并经LeJEPA+SIGReg正则化方案有效解决表示崩溃问题,显著提升泛化能力。
从无监督到JEPA
LeCun近二十年坚持认为,构建智能的正确路径是某种形式的无监督学习——正如婴儿无需标注即能认知世界。
早期他尝试自编码器:输入→压缩为低维摘要→重构还原。若还原质量高,则摘要即蕴含关键本质信息。
但后续发现模型存在“作弊”现象——仅机械复制输入,缺乏真正理解。为此引入“信息瓶颈”思想,强制学习精简、有用的抽象表示。
2010年代初,ReLU激活函数与归一化技术的突破,配合ImageNet等大规模标注数据集,使全监督学习迎来爆发,无监督研究一度搁置。
2015年起,他重启世界模型研究,最初尝试像素级视频预测,但很快意识到其不可行:“预测是非决定性的……强行输出确定性结果只会得到模糊平均。”
潜变量模型仍受限于像素空间;最终转向JEPA——在抽象表示空间中建模预测,成为突破关键。
“LLM无法通往AGI,最难的是达到狗的智能水平”
LeCun判断:当前LLM路线无法直达AGI。他质疑AGI概念本身——人类智能高度专业化,所谓“通用”实为自我认知偏差。
相较而言,实现狗级智能反而更难,因其需解决感知、预测、规划等底层能力的系统性融合;一旦达成,向人类级跃迁将更为可行。
他比喻:LLM类似大脑的语言区(Wernicke/Broca区),负责编码与解码;世界模型则类比前额叶皮层,承担规划与决策——二者必须协同,缺一不可。
拒绝退休,人生目标是提升人类智能
65岁的LeCun坦言,放弃退休源于两个字:“使命”。他认为:“智能是世界上最稀缺的资源”,人类发展始终受限于智能总量。
其毕生研究——教书育人、研发机器辅助工具、公开传播AI知识——均围绕“让人类更聪明”这一核心目标展开。
他坦承遗憾,如未能率先实现反向传播算法落地,但强调:“科学进步从来不是少数天才的灵光乍现,而是无数人思想在开放交流中的叠加延伸。”
正因如此,他坚持开源路径;也正因Meta已非昔日鼓励长期开放研究的“科学乌托邦”,其离开成为必然选择。

