AI 终于会“心算”了——这不是偷懒,而是科学家发现了一种新的推理范式。
从显式思维链到隐空间思考
过去几年,大模型在化学等科学任务中的推理主要依赖思维链(CoT),即逐条输出推理步骤后再给出答案。但这种方式在分子优化、反应预测等任务中常出现“说得通、做不对”的问题:分析逻辑看似严谨,生成的SMILES或结构却与推理不一致。
其根本原因在于:化学推理本质上是连续空间中的结构变换(如分子三维构象调整、官能团替换、结合亲和力优化),而自然语言token是离散符号,强行将连续过程翻译为文字,易产生“连续性-离散化差距”。
LatentChem:让AI像化学家一样“默想”
由 Haven 团队联合斯坦福大学丛乐教授、吴英成博士、吴方博士等研发的 LatentChem 系统,提出将推理主干从文本 CoT 转移至连续隐空间,再输出最终结果,模拟人类化学家的“默想”过程。
该框架包含四大核心模块:
ChemAdapter
将分子结构编码为 ChemTokens,作为软提示嵌入语言模型输入,提供结构化分子上下文。
Latent thinking
在隐空间中生成一系列 latent thought 向量,承载多步中间推理轨迹,替代逐 token 的文本 CoT。
ChemUpdater
通过 cross-attention 机制,使每步 latent thought 可递归更新 ChemTokens,实现对分子子结构的动态聚焦与回看,构成“化学记忆”。
Latent Projector
将更新后的隐状态映射回输入嵌入空间,支撑多步迭代闭环推理。
效率与精度双突破
在 ChemCoTBench 基准测试中,LatentChem 相比强 CoT 基线成功率提升 59.88%,平均推理速度达 10.84 倍加速;在阿尔茨海默病靶点 GSK3-β 的虚拟筛选中,成功率由 67% 提升至 82%。
更显著的是效率跃升:在反应预测任务中,推理效率最高提升 29.9 倍;整体实现 5.4–29.9 倍加速,打破“思考越深、速度越慢”的固有认知。
动态推理分配机制
研究发现,模型并非机械压制 CoT,而是形成一种“液压补偿”式动态分配:当隐空间步数充足时,推理内化完成、输出极简(如仅用 “.” 过渡后直出答案);当预算受限(如 latent step < 6),则主动恢复显式 CoT 补足计算容量。
因果验证进一步证实:向 latent states 注入高斯噪声会导致性能随步数增加单调下降,证明这些状态确为关键推理载体,而非冗余变量。
迈向AI科学家的“直觉系统”
LatentChem 的意义远超单一化学模型——它首次实证:显式 CoT 仅为推理的外化形式,而非推理本身;真正的科学推理可高效发生于连续隐空间。
该技术已应用于分子设计、文献分析与实验规划等科研工作流,并有望拓展至材料设计、蛋白质折叠及气候模拟等领域。未来方向包括提升隐空间-显式输出切换精度、增强可解释性支持,构建“直觉推理+语言沟通”的双系统AI科学家架构。
相关论文《LatentChem:从文本思维链到隐空间思考的化学推理》已发布于 arXiv。
图丨叶新武(来源:受访者)
图丨相关论文(来源:arXiv)
图丨化学推理中连续性-离散化间隙的概念性图示(来源:arXiv)
图丨LatentChem 架构概述,该系统通过专用的隐式思考阶段将推理与生成过程解耦(来源:arXiv)
图丨因果必要性分析(来源:arXiv)
图丨预算压力测试(来源:arXiv)
表丨化学基准测试的主要结果(来源:arXiv)
图丨推理效率提升对比(来源:arXiv)

