10月24日至28日,全球首届 AI 科技玩家盛会——西岸国际科技消费嘉年华(WTCC)在上海西岸国际会展中心圆满举办。无问芯穹“端侧智能全家桶”整体亮相,集中展示了“端模型 + 端软件 + 端IP”无垠终端智能解决方案:在严格受限的本地算力与能耗条件下,通过从模型到推理软件再到芯片 IP 的全链路协同优化,实现终端智能在性能、能效与使用体验上的全面提升。其中,10月26日下午,无问芯穹产品与解决方案总监黄璘璞受邀在论坛上发表《基于 AI Agent 的软硬协同新范式,开启终端智能普惠新纪元》主题分享。
01
让终端智能自演化:Agent赋能的软硬协同新范式
在演讲中,黄璘璞指出,在Agent时代下,智能终端正成为不可或缺的重要组成部分——它既是连接物理世界与虚拟世界的关键媒介,也是感知真实世界用户交互反馈的重要通道,深入渗透到人们生产与生活的方方面面,尤其是在消费终端场景中。然而,当前基础设施层的智能化程度仍显不足:优化仍依赖人工调优,系统迭代效率不足,模型间缺乏高效协作机制,难以支撑智能在端侧的持续演化。面对这一挑战,无问芯穹认为,真正的端侧智能进化,需要一个由Agent自主驱动的、闭环进化的智能优化新范式。
为此,无问芯穹推出的Kernel Mind,由AI Agent驱动的终端通用推理加速优化平台。它通过多智能体协同机制——包括负责“思考”的策略智能体、负责“动手”的代码智能体和担任“测试员”的验证智能体,实现算子级别的自动生成与智能优化。策略智能体分析性能瓶颈并提出优化方案,代码智能体根据策略生成优化后的代码,验证智能体则在真实硬件环境中验证性能并反馈数据,以“思考—执行—验证”闭环实现自动化优化。Kernel Mind的目标是将算子优化周期缩短80%以上,峰值性能提升十倍,为端侧智能提供强大的自动化优化引擎。
在Kernel Mind的基础上,无问芯穹进一步叠加RLinf强化学习训练框架,使系统具备主动理解算力特征、任务需求与模型结构的能力。每一次性能测试结果都将反馈至中央知识库,系统从成功与失败的经验中持续学习,实现知识的积累与自我进化。随着时间推移,优化过程不再依赖人工经验,而是通过强化学习机制实现自我演进。系统会“越用越聪明”,自动提升优化效率与精度,从而让端侧基础设施具备“自学习—自优化—自演化”的智能特性,构建真正意义上的自进化计算底座。
未来智能终端也将超越单模型推理,终端设备可以作为智能体调度中心,而非单一模型的运行载体,这对模型之间的协作方式提出了新的要求。为此,无问芯穹提出通过大小模型混合推理(R2R)+多模型协作交流(C2C)的模式实现端侧性能与能效的最优解。R2R机制结合小模型(SLM)“快”和大模型(LLM)“强”的优势,根据不同推理阶段动态调用,实现推理速度提升1.5至2.7倍、同时保持高精度输出,未来可延伸至云端模型与终端模型的协同,联合执行更复杂的推理任务,兼顾性能与效率;C2C机制则突破了以往模型间“文字沟通”的低效瓶颈,采用KV-Cache表征投影进行高维语义交互,让模型之间以“传心术”式方式交流,相比文本交互精度提升3.1%至5.4%,整体加速2.5倍。
无问芯穹正通过软硬协同的发展路径,推动人工智能基础设施与智能体的共同进化,赋予终端与世界对话和自主成长的能力,加速迈向人机共生的智能未来。
02
从范式到体验:无垠终端智能解决方案齐亮相
展会上,无问芯穹展区重点为现场观众带来了“端模型 + 端软件 + 端IP”终端智能一体化解决方案的实机呈现。其中,具备文本、图像、音频多模态能力的 Infini-Megrez(无穹天权)端侧模型,因其将 3B 的计算成本、7B 的内存需求与 21B 级智能水平合而为一,在同等内存、体积与精度条件下实现更快、更强、更省的智能效果而受到广泛关注。同时,无问芯穹自研端侧AI推理引擎 Infini-Mizar(无穹开阳)与端侧 AI 推理 IP Infini-Merak(无穹天璇)形成“双轮驱动”,不仅支持多芯片生态和异构算力协同,更使得终端智能体在离线场景中也保持毫秒级响应,实现“手停脑停 AI 不停”,让智能终端实现性能与能效的同时提升。
右滑云逛展
展区内,无问芯穹还携手多家生态伙伴带来了智能眼镜、智能戒指、AI 录音设备等多款终端产品,现场展示了端云协同在实时翻译、个人健康监测、内容记录、隐私计算等日常使用场景中的体验方式。无问芯穹的“端模型 + 端软件 + 端IP”无垠终端智能已经融入到这些设备的本地推理与交互流程中,使设备能够在有限算力下依然保持高性能、低延迟和数据不出域的使用体验,互动体验区连续五日人头攒动。
科技嘉年华落幕,黄浦江畔,智能终端加速演进的新图景正悄然展开。未来,无问芯穹将继续致力于人工智能及其基础设施的建设,让云端算力如水和电般触手可及,让终端智能以更快、更稳、更省的方式自然融入日常生活。
无问芯穹(Infinigence AI)作为国际领先的AI基础设施企业,致力于成为大模型时代首选的算力运营商。依托“多元异构、软硬协同”的核心技术优势,打造了连接“M种模型”和“N种芯片”的“MxN”AI基础设施新范式,实现多种大模型算法在多元芯片上的高效协同部署。无问芯穹Infini-AI异构云平台基于多元芯片算力底座,向大模型开发者提供极致性价比的高性能算力和原生工具链,为大模型从开发到部署的全生命流程降本增效。
无问芯穹以“释放无穹算力,让AGI触手可及”为使命,通过不断的技术创新实现普惠AI,让算力成本实现万倍下降,如同水电煤一般为千行百业注入新质生产力。

