星河轮转,万物生长。站在2025年与2026年的交界回望,人工智能的发展正从一场狂飙突进的参数竞赛,沉淀为对物理世界本质的深刻重构。如果说昨日的喧嚣,是我们为大模型掌握人类语言图形天赋的惊叹,那么此刻的静水流深,则是我们见证机器智能穿越认知的肃穆——它正在冲破静态字符与像素模仿的藩篱,向着物理世界的底层秩序与运行逻辑进军。
1月8日,北京智源人工智能研究院发布年度报告《2026十大AI技术趋势》。报告指出,人工智能的演进核心正发生关键转移,行业技术范式迎来重塑。其中,具身智能迎来行业“出清”,产业应用迈入广泛工业场景。
基础模型的演进,本质上是一场机器向着人类认知极限逼近的攀登,其核心始终锚定于对物理世界的极致模拟与深刻洞察。
自2024年末以来,业界对于基础模型的训练逐步收敛到“预训练+后训练”范式,OpenAI、Google、xAI等发布的系列模型反复验证了两阶段Scaling Law(规模定律)的有效性。
在多模态大模型领域,主流模型架构如DiT(Diffusion Transformer)或基于CLIP的拼接模式虽在特定任务中表现优异,但由于多模态表征间的割裂,始终无法复现LLM那样平滑的Scaling曲线。在此背景下,回归第一性原理,实现多模态数据的前融合,或成突破泛化瓶颈的重要解法。
更为关键的变革在于认知维度的升维:从“Next Token Prediction”向“Next-State Prediction”(NSP)跨越。前者在面对真实物理环境时往往缺乏对因果律的把控,而NSP范式不仅是生成像素,更是像人类一样,从多模态数据中自主学习世界的动态规律,例如物理动态、时空连续性、因果关系。对于复杂任务,能够将高层意图转化为可执行的多步行动路径,实现“理解—预测—规划”的完整能力,这正是AI从“感知”进化为“认知”的核心标志。
如果将2024年定义为具身智能的“百机大战”元年,并将其主要特征归纳为资本涌入与Demo层面的技术展示;那么伫立于2025岁末回望,行业已进入到下一阶段,企业“出清”时点逼近,产业应用迈入广泛工业场景。
当前,我国具身智能企业数量已超230家,其中人形机器人企业超过100家,规模已可媲美移动互联网时代的“百团大战”。然而,本轮人形机器人的技术难度、初始轮次的资金需求均远超百团大战,而资本环境则因全球经济下行等多方面原因,较“百团大战”时期更为艰难。当前的企业数量远超赛道的物理承载量与资本供给能力,行业或将在不久后完成一轮洗牌。
引入世界模型,并在仿真或现实中通过强化学习机制进行自我修正,这种具备自我进化能力的闭环模式,已初步在自动驾驶领域得到验证,后续或将成为具身智能迈向下一阶段的重要技术锚点。
商业进程上,行业逻辑已从技术愿景转向量产销售。相较2024年,2025年的客户主力从高校研究机构向B端产业场景迁移,标志着人形机器人从实验室向真实可用迈进。与商业化进展相呼应的IPO进程也在紧锣密鼓地进行,除智元机器人已曲线上市之外,乐聚智能已启动辅导备案,银河通用和云深处科技也已完成股改,为实现证券化提供了必要条件。预计未来一年内,具身智能企业上市的钟声将频繁回响。
目前,多数企业在智能体应用上仍是以简单任务为主的单智能体系统(SAS)。根据Langchain发布的《State of Agent Engineer-ing》,以客服、代码生成、内容生成为代表的SAS应用占比达63%,以MAS应用为主的研究和数据分析、内部生产力占比则为42.1%。考虑到多数Agent应用仍处于Pilot阶段,MAS落地难度大于SAS,MAS的实际应用比例较该比例更不乐观。
随着企业级应用向复杂场景渗透,多智能体应用体现出成为更优选择的潜力。复杂场景下,单智能体系统(SAS)在上下文遗忘和角色混淆方面的问题凸显,而多智能体系统所具备的对工作流的高拟合,以及通过自我反思、互相辩论以降低幻觉的能力,对于AI向多领域的应用扩展不可或缺。
从行业应用来看,Agent呈现出向复杂工作流为代表的多智能体应用演进的趋势。MA5范式趋于明确,以MCP/A2A为代表的MA5“Narrow Waist”协议层趋于融合统一。考虑到MAS的核心逻辑是从“单体智能”走向“群体智能”,该范式转移成功的关键不仅在于单体模型性能强弱,更在于Agent连接协作的效率和规模。
在2026年,Agent协议栈的进展决定了MAS的下限,而Agent Skills等推高了MAS应用上限。对于决定Agent应用上限的MAS而言,A2A、MCP等Agent通信层协议正是Agent应用的“Narrow Waist”协议层,向下屏蔽大模型差异,向上支撑复杂的MAS应用。现阶段,MAS范式的收敛,Agent通信协议的标准化至关重要。
在经历了大模型辅助科学研究的初步探索后,2025年的AI for Science(AI4S)领域迎来了一次决定性的范式演进,其核心标志是从CoPilot到AI Scientist的身份跨越。
这一趋势的聚焦点,是AI科学家(AI Scientist)的兴起——能够模拟乃至自主执行“假设提出、实验设计、数据分析、结论推断”完整科研链路的智能体系统。这不仅是科研效率的量变,更是科学发现模式的质变,预示着一个由AI驱动的、研发效率呈指数级增长的新时代或将到来。
AI for Science正被纳入举国体制。2025年11月24日,美国白宫发布行政命令,正式启动名为“创世纪计划(Genesis Mission)”的科研举措,旨在以AI技术加速科研进程,继而全面提升美国人工智能发展能力。
相较于美国“创世纪计划”五年前便开始布局的系统性动员,我国目前在科学智能(AI4S)领域尚未形成同等量级的全栈式响应,呈现出“应用强、基座弱”的非均衡特征。
当前,我国在科学基础模型上的进展滞后,成为制约我国AI4S领域快速缩小与美国差距的核心卡点。同时,相比于与庞大的药械市场挂钩的AI辅助药物设计赛道,以及小步快跑、正在实现部分规模化生产的具身智能赛道,AI4S在资本的候选池中仍然坐着冷板凳,依靠初创企业打造基础模型的设想更为艰难。因此,我国的科学基础模型研发仍亟待各方资源倾斜和整合。
当前C端AI应用的竞争目标已逐渐清晰,核心在于对“Super App(超级应用)”的攻略。其典型特征呈现为“All in One”的功能设计,即不再局限于单一工具属性,而是基于高性能基础模型直接产品化,通过一个入口实现从信息获取、任务规划到问题解决的闭环。
海外厂商在此轮浪潮中率先引领了AI超级应用的探索,以ChatGPT、Gemini等海外头部模型为基础构建的App,已初步具备过亿日活(DAU)、高交互频次、高用户停留时长等传统意义上的超级应用必要条件,并在AI 2.0时代首次领跑国内,率先探索“All in One”的功能设计。
国内AI超级应用的机会点同样集中在头部大厂、巨头企业拥有操作系统级的入口权限,发端于互联网时代的自有垂域工具、全栈化的技术积累,具备打造国民级AI入口的实力。这场关于基模能力、流量入口与生态闭环的博弈,可能会为互联网版图带来新的变化,催生出AI时代的新“BAT”。
国内AI垂直应用的土壤同样肥沃。2025年12月,蚂蚁旗下AI健康应用“蚂蚁阿福”全面升级,新版App提供健康问答、健康拍照、健康档案、健康小目标等智能化和个性化的日常健康管理服务。当下,阿福月活(MAU)超1500万,已是第一大健康管理类App,在QuestMobile最新公布的周活榜单上,阿福位列垂类第一。
此外,字节跳动的即梦AI、猫箱,MiniMax的海螺AI、星野,作业帮的快对AI分别在视频/图像生成赛道、虚拟陪伴赛道和教育赛道占领用户心智,有力地印证了:在细分赛道中,精准的场景切入与优质的产品体验,依然是垂直应用在通用产品包围下实现突围的关键。
2025年,AI在多数B端场景仍处于ToC阶段。多数ToB应用仍为“Chat”形式,客户服务、代码辅助、营销等场景应用成熟。至于复杂的自主决策Agent,则仍处于“示范应用”阶段。
进入2026年,行业将迎来“幻灭低谷期”。根据MIT报告,通过对300个企业的AI项目的研究,发现95%的GenAI Pilot项目未能产生任何可衡量的影响。大多数项目在进入生产环境前就已“烂尾”。
随着数据治理与工具链成熟,预计2026年下半年将迎来转折,一批真正可衡量价值的MVP产品将在垂直行业规模落地。
目前,已有主要B端行业在行业标准API上有实际进展。比如,美国政府针对医疗行业于2024年1月发布CMS互操作性新规,强制要求所有受管辖的支付方开放三大API:事前授权、患者访问、医疗机构访问,并必须使用HL7 FHIR数据标准(JSON格式)。该规则要求2026年1月实现部分功能,2027年1月全面上线。这对于Agent在医疗行业全面落地是重大利好。
除此之外,在电信、金融支付、能源等行业,也均已有行业共识性标准接口在加速推进。
自Scaling Law被确定为大模型的基本定律以来,关于真实数据将被耗尽的担忧,成为萦绕在AI学术界和产业界头顶的一片乌云。Epoch AI于2022年提出重要预测——高质量文本数据预计于2026年耗尽,低质量文本数据以及视觉数据预计自2030年起逐步耗尽。这种资源短缺成为推动过去两年AI技术路线从堆数据转向“合成数据+强化学习”的核心驱动力之一。
预测中的2026年时点将近,真实数据资源的枯竭从隐忧逐渐成为现实困难。此时,微软研究院提出了合成数据的“修正扩展定律”,为数据瓶颈问题提供了关键的理论解法。修正扩展定律在公式中引入了预训练数据积累量这一关键变量,量化了合成数据在不同基座模型下的边际收益。
根据Frost&Sullivan的最新洞察,中国合成数据市场规模在短短四年间完成了从11.8亿元到47.6亿元的跨越式增长;而展望2030年,全球市场规模不仅将突破200亿元大关,更将迎来一个历史性时刻——合成数据的体量将正式超越真实数据,成为模型训练的主导性燃料和战略性资产。
合成数据的演进路线已逐渐清晰——模型训练对合成数据的依赖度将持续提升,而它本身正在告别以假乱真的表象追求,转向以虚强实的内核探索。随着如数据合成框架、StereoCarla立体数据集等基础设施的完善,以及“少量真实数据+海量合成数据混合训练”范式的标准化,合成数据将成为组织最核心的数字资产之一。在这场变革中,世界模型与强化学习是两把开启大门的钥匙,世界模型已成为生成极具价值的反事实数据的引擎,强化学习则是大幅降低数据毒性的过滤器。二者结合,加上修正扩展定律的理论证实和未来的实验外推,使合成数据作为AI 2.0时代无限燃料的地位更加稳固。
推理优化在2025年的实践探索远未触及天花板,2026年该领域进展仍将是支撑AI大规模应用的关键因素。根据Epoch AI研究,单个消费级GPU上可运行的领先开源模型,通常在6至12个月平均滞后后,其能力可与前沿模型相匹配。这种相对较短且一致的滞后意味着,最先进的AI能力在不到一年的时间内即可被广泛用于本地开发和实验。
与此同时,根据2025 HAI指数报告,“从2022年11月的每百万个token 20.00美元降至2024年10月的每百万个token 0.07美元……在约18个月内减少了280多倍”。叠加开源模型能力不断逼近商业闭源模型,推理优化已是AI广泛应用进展的重要观测指标。
海外方面,微软发布了基于三元权重的BitNet b1.58模型,证明了在训练过程中直接进行极端量化的可行性。国内方面,DeepSeek V3.2引入DSA高效稀疏注意力机制,将长序列的推理计算复杂度从O(L2)降低到O(L·k),且无明显性能损失;阿里Qwen3模型则引入混合推理,可根据用户任务需求切换思考模式,通过机制的优化在成本效益和推理质量之间寻求最佳平衡点。
在硬件层面,为持续突破传统GPU的能效墙与内存墙,特定负载能效比与数据搬运效率成为业界关注重点,专用集成电路(ASIC)与存算一体架构成果快速涌现。ASIC因其对Transformer结构的极致适配,正逐渐分流GPU负载;而存内计算亦已开始在边缘端等场景应用。如Google TPU及Groq等芯片正在推理端上形成对英伟达的有力挑战,后摩智能等机构在存算一体芯片领域推出相关产品。
当前,全球超过85%的AI训练负载依赖NVIDIA+CUDA单一体系,算力结构的刚性与供应风险成为制约AI普惠应用的隐形壁垒。打破垄断、构建兼容异构芯片的全栈式基础设施愈发关键。
即使是护城河极深的CUDA,也在顺应这一潮流。其最新发布的13.1版本中,通过引入CUDA Tile等功能,提升抽象层级以补齐易用性短板,试图在保留软硬一体极致控制力的同时,给予开发者更接近PyTorch的编程体验。
与CUDA相对应的,是开放且持续丰富的Triton生态。其开发不局限于OpenAI单一厂商,而是纳入AMD、Intel等多元贡献者,通过完善对标准中间表示的支持,使其芯片能够无缝承接上层应用。Triton基于Tile编程范式,抽象层级较高。同时为满足开发者挖掘极致性能的诉求,OpenAI发布Gluon,Meta发布TLX,实现对GPU内核执行的线程束感知与硬件级精细控制。
在这一开放生态蓬勃发展的背景下,硬件始终是奠定整个生态系统的基石与核心。这也是NVIDIA及CUDA体系通过“硬件领先,软硬一体”的闭环,稳居生态链顶端的逻辑。
面对异构芯片与编程语言林立的复杂现实,智源FlagOS平台(飞智)旨在打造串联全栈的操作系统,形成从底层硬件到上层应用的完整体系,通过全栈覆盖与软硬解耦,超越单一工具范畴,以期成为统领异构算力、推动AI技术普惠的坚实底座。
根据AI Incident数据库,2024年全球报告的人工智能安全风险事件(包括幻觉、深度伪造、引诱用户实施危险行为等)数量增至233起,创下历史新高,同比增长56.4%。截至2025年11月底,该年报告事件数量已超330件,远超2024年全年。同时,Future of Life Institute对顶尖大模型安全能力的审查结果表明,包括xAI、OpenAI、Anthropic在内的8家头部企业,其大模型均未能在“防范灾难性滥用或失控”方面达到令人满意的安全水准。
基于大模型构建的Agent系统,在继承了大模型本身的复杂性所带来的安全风险的同时,进一步引入了记忆等外部模块的不稳定性,以及模块和模块间、模块和工具间、工具与工具间通信过程中的安全风险;更为严峻的挑战是,人类将执行权让渡给“代理”,也意味着自身对智能体行为的控制力度的弱化——全面升级安全解决方案刻不容缓。
高发的风险事件和产业应用的持续渗透,迫使安全议题进入深水区,推动着一个精细化、专业化、市场化的AI安全研究、产业生态加速形成。
展望未来,2026年的AI安全将告别事后补救的旧时代。随着更细粒度研究的开展、产业解决方案的落地、自动化评估技术的成熟、监管规则的完善,安全将内化为大模型的一种本能和产业应用的重要防线。
本文仅用于学术分享,如有侵权,请联系后台作删文处理

