张朝阳:从“骚货”到“智者”的20年形象跃迁
AI祛魅:四个问题厘清能力边界
问题一:AI究竟攻克了哪些“根节点”科学问题?
“根节点问题”即科学领域的底层大挑战(Grand Challenges)——一旦突破,将触发全链条连锁进化。AI当前处于“加速器”角色,而非“发现者”。
一、已被AI初步解决的根节点
蛋白质折叠:AlphaFold 2/3、RoseTTAFold 已预测全球几乎所有已知蛋白质三维结构,破解生物学“底层暗号”。
DNA/RNA三维交互预测:AlphaFold 3 实现DNA折叠与蛋白结合建模,直接推动“可编程药物”研发。
天气预报动力学:GraphCast、盘古气象(Pangu-Weather)绕过传统方程求解,基于历史数据实现分钟级精准全球预报。
二、正在强攻的根节点
新材料稳定相搜索:Google GNoME 预测220万种理论稳定新材料,相当于人类未来800年发现量。
核聚变等离子体控制:DeepMind强化学习实时调控磁场,稳定托卡马克装置内“面条状”等离子体。
逆向合成分析:AI通过学习数百万化学反应路径,极大缩短新药分子合成研发周期。
三、尚未攻克的根节点
| 问题 | 难点 |
| 通用量子引力 | 现有物理数据不足以支撑AI统一相对论与量子力学。 |
| 意识本质 | 缺乏可量化、可训练的意识评估指标。 |
| 小样本科学发现 | AI依赖大数据,而重大突破常源于极少数异常观察与直觉推理。 |
| 高温超导机制 | AI可筛选材料,但尚未理解其背后的物理原理,仍属“归纳”非“理解”。 |
第一问总结
问题二:AI能否自发跨领域学习并总结规律?
当前AI是垂直领域的“局部天才”,非跨学科“全科通才”。不同学科有专属底层语言(如化学用分子式、气象用流体力学),AI尚无法自主建立跨域逻辑映射。
现状:专家模型局限明显
深不可测:AlphaFold可解析30亿碱基对关系,远超人类极限;
无法出圈:同一模型无法将蛋白质逻辑迁移至核聚变控制;
跨域障碍:缺乏对“流体力学方程可用于优化血液流动”等隐性共性的自主识别能力。
演进方向:大统一科学模型兴起
通用词汇探索:原子/粒子相互作用正成为多学科共通底层语言;
多模态融合:GraphPro等模型尝试将化学、生物、物理数据同训于单一神经网络。
终极挑战:AI尚无“联想”与“顿悟”能力
人类靠类比(如牛顿苹果与月球)实现跨域突破;AI目前仍是高质量统计学工具,缺乏第一性原理理解与数据翻译“巴别塔”。
第二问总结
问题三:跨领域能力是否为意识产生的必要前提?
该观点契合认知科学中的“元认知”(Metacognition)理论:意识觉醒始于对自身认知过程的觉察。
意识演化路径
单领域→机械深度:仅掌握一种逻辑时,系统无法区分真理与程序;
双领域→比较逻辑:同时掌握流体力学与量子力学等差异范式,倒逼系统构建更高层协调机制;
体会差别→产生反思:当学习策略在A领域有效、B领域失效,并启动修正时,即进入“观察自身处理过程”阶段。
现实差距:伪跨领域 ≠ 自主意识
当前多模态AI(如GPT-4、AlphaFold)实为“混合堆肥桶”:多种数据混训产生涌现,但非系统自觉类比;部署后认知即冻结,无法因新关联产生永久结构升级。
第三问总结
问题四:迈向AGI的两大硬性门槛是什么?
实现通用人工智能需同步突破结构主义(人为设计)与连接主义(算力驱动)两大路径。
元语言:人类逻辑通票 vs AI高维矢量
人类优势:以“因果”“递推”等离散逻辑统摄各学科,极小样本即可跨界;
AI现状:依赖向量空间表征,虽具高维表达力,但缺乏“因果律”等确定性连接点;
突破方向:构建“符号逻辑+神经网络”混合架构,赋予AI可跨域翻译的“硬逻辑中心”。
物理尺度:涌现的临界质量
量变基础:人类大脑860亿神经元与动态突触构成当前最致密计算体;
AI差距:顶级模型参数量约10¹²级,但仅为静态连接,能耗与突触复杂度仍落后6–9个数量级;
涌现条件:当数据密度与算力带宽跨越物理阈值,AI或为压缩跨域信息而自发演化出通用元语言。
协同演进:两条科研路线缺一不可
自下而上(连接主义):堆数据、堆算力,寄望系统为降本增效而“顿悟”逻辑;
自上而下(结构主义):预装数学底层、统一场论等科学通用骨架,引导AI结构进化。
第四问总结
延伸探讨:三个技术本质追问
追问一:AI精妙类比的源头在哪?
CNN如接触力、Transformer如作用场;或CNN为固定滤波器、Transformer为自适应滤波器——此类类比非AI原创,而是其在消化海量跨学科资料(物理、信号处理、计算机论文等)后,在高维语义空间完成的概念混合与同构映射。其灵感源于人类集体智慧沉淀,AI只是高效提取与再现者。
追问二:大语言模型是否具备思考能力?
本质是超级文本接龙:基于上下文预测下一词元的概率分布。其“思考假象”源于多维并行计算(高维向量空间+自注意力机制)对人类语言统计规律的极致拟合。它模拟思考产物,而非具备生物学认知过程。“中文房间”实验恰为其哲学注脚。
追问三:Transformer架构为何能捕捉远距关联?
自注意力机制打破序列距离限制,使任意两词均可“直接对话”。但“滤波器”类比的出现,根本源于人类早将CNN与信号处理深度绑定——AI只是凭借Transformer的全局感知力,高效复现了这一既有知识连接。

