【新智元导读】KAN网络作者刘子鸣新作直击痛点:Scaling Law虽能“穷举”达成目标,但本质是用无限资源换取伪智能;真正的AGI应大道至简
继Ilya之后,柯尔莫哥洛夫-阿诺德网络(KAN)一作刘子鸣向Scaling Law发出最新檄文。
2025年圣诞节,斯坦福大学博士后、清华大学助理教授刘子鸣指出:当前大模型实为用无限算力与数据做穷举,换来的仅是“看起来聪明”的假智能。
真正的AGI应如物理学定律——以最简洁的「结构」驾驭无限世界。
刘子鸣直言:“要想聪明地造出AGI,我们缺的不是规模,而是结构。”
Scaling Law终将撞上两堵墙:能源与数据
刘子鸣强调,结构主义AI并非否定Scaling Law,而是正视其边界。Scaling Law终究会撞上能源与数据两堵现实之墙;当二者耗尽,Scaling之路即告终结。
Scaling Law:可靠但低效的黄金法则
过去数年,Scaling Law已成为AI界“黄金法则”,地位堪比“元素周期表”——一旦确立,整个方向被统一。
该经验规律揭示模型性能与参数量、数据量、算力之间的幂律关系:三者持续增加,性能持续提升。
其底层逻辑简单直接:因模型在分布外任务表现不佳,便不断扩充数据与模型,直至所有任务变为“分布内”——即AI版“大力出奇迹”。
刘子鸣明确表示:“如果忽略能源与数据限制,仅靠Scaling Law最终或可实现AGI——我从不怀疑这一点。”
但现实世界并非如此:算力有限、能源有限、高质量数据同样有限。
真正问题由此浮现:有没有一条更明智的路,在资源有限前提下走向AGI?
答案不是更大规模,而是更多结构
刘子鸣指出:“答案不是更大的规模,而是更多的结构。”他特意区分“结构”与“符号”——结构带来压缩,而压缩正是智能的核心,正如Ilya所言:“Compression is intelligence”。
例如雪花:允许分形结构时,其内在复杂度极低、高度可压缩;若拒绝结构、逐点描述,则表观复杂度近乎无限。
当前Scaling Law更接近后者——用海量参数与计算拟合巨大表观复杂度。
再看天体力学:行星运动建模最初需存储每个时刻位置(代价高昂的查找表);随后开普勒发现椭圆轨道,实现第一次压缩;牛顿发现动力学定律,完成第二次压缩——用更少参数解释更多现象。
Keyon Vafa等研究显示,Transformer并不会自然学出牛顿式的世界模型。这意味着:正确物理结构不会因模型变大而自动涌现;将“结构终将涌现”奉为信条,无异于原始人祈祷。
自然科学之所以成立,正因结构显式且无处不在;没有结构,就没有自然科学。
类比“第谷–开普勒–牛顿”轨迹:当前AI仍处“第谷时代”(实验驱动、数据驱动),刚刚进入“开普勒阶段”(出现Scaling Law等经验规律),却已将其奉为信条,而非通往更深理论(如AI的“牛顿力学”)的线索。
另一条路:在联结主义×符号主义之外
刘子鸣立场中性:依“无免费午餐”定理,每种模型均有适用范围与局限——“所有模型都是错的,但有些是有用的”。
关键不在“用不用基础模型”,而在于是否理解:不同任务具有本质不同的结构与可压缩性。
按压缩视角与自然科学类比,任务可分为三类:
- 类物理任务:高度可压缩,符号公式可能从连续数据中涌现;
- 类化学任务:可压缩性强、结构清晰,但符号常不完整或仅为近似;
- 类生物任务:仅弱压缩,依赖经验规律与统计归纳。
理想智能系统应能识别任务类型,并施加恰到好处的压缩。
符号模型擅类物理任务,但在类化学与类生物任务上失效;联结主义模型通用性强,却因缺乏结构,在类物理与类化学问题上效率极低。
结构主义既非联结主义,亦非符号主义,更非二者杂交的“双头怪兽”。它旨在捕捉“类化学任务”这一中间态:符号是严格离散的结构,经验规律是松弛的结构;结构主义期望前者从结构中涌现,后者通过松弛结构从数据中习得。
监督学习中已有体现:线性回归属符号主义,MLP属联结主义,方程学习器(EQL)属神经–符号混合,而Kolmogorov–Arnold Networks(KANs)则是结构主义——其表示理论可紧凑捕获多变量函数的组合结构,既非无结构,亦非过度约束,更无神经–符号不匹配导致的不稳定性。
结构主义不是妥协,而是一种统一。
抽象:AGI最核心的瓶颈之一
真实世界远超监督学习范畴:我们不仅从数据中学习结构,更会比较结构、复用结构,并构建“结构的结构”——即抽象。
范畴论正是研究“结构的结构”。刘子鸣明确指出:“抽象可能是AGI最核心的瓶颈之一。”这与Rich Sutton在OaK架构中对抽象的强调一致:持续学习依赖跨任务抽象不变性;适应性与流动性体现为上下文中即时抽象;ARC-AGI等任务本质上是“直观物理”的简化形式,而直观物理恰为世界模型的关键组成。
内在结构主义:让结构在模型内部涌现
如何让抽象发生?刘子鸣坦言:“还没有完整解法。”但他提出洞见:“抽象来自对结构的比较与复用。”
注意力机制虽是种比较机制,却隐含两个强假设:结构可嵌入向量空间;相似性可用点积度量。现实中,许多结构并不与向量空间同构;该表示方式盛行,主因是适配GPU计算范式,而非认知或科学意义上的正确。
当前AI发展已是“外在结构主义”:推理过程结构化、AI智能体框架结构化,但底层模型仍是联结主义。结果是系统高度依赖Chain-of-Thought(CoT)数据,靠显式监督将结构“贴”在模型外部。
刘子鸣更押注“内在结构主义”——将通用结构注入模型,或令其在模型内部自行涌现,而非持续依赖外部CoT监督。
从应用看,真正通用人工智能必须同时满足:高效、可适应、可泛化、具备物理基础。结构对四者均至关重要:因物理世界本就高度结构化、可压缩——具可组合性、稀疏性与时间局部性。若这些结构无法在模型中显现,“世界模型”仍将遥不可及。
结构主义AI代表一条与Scaling根本不同的道路:它可能更难,但也更有趣、机会更多,长远看更具前途。
到了2026年,是时候把筹码押在不一样的方向上并身体力行:结构,而不是规模。

