大数跨境
0
0

钢铁侠的贾维斯,就是华为Harmony Space

钢铁侠的贾维斯,就是华为Harmony Space 燃擎App
2025-11-30
5
导读:这种识人记事、主动建议、主动服务的情感化交互能力,标志着鸿蒙座舱率先进入了L3时代。

在这波+AI、AI+的时代浪潮里,自动驾驶吸引了智能电动汽车舆论圈几乎所有的注意力,另一个重要的AI终端-智能座舱却处于近乎无人问津的境地。

其实,智能座舱赛道同样暗流涌动,经历着深刻的范式转变和体验升级。

最近,华为推出了基于MoLA(Mixture of Large Model Agent,混合大模型Agent)架构的鸿蒙座舱,向我们展示了新一代AI座舱该有的模样。



矛盾存在于一切事物的发展中,贯穿一切事物的始终。

正如社会的主要矛盾是人民日益增长的美好生活需要和不充分的发展之间的矛盾一样,在智能座舱领域,也存在着消费者日益增长的多模态自然交互、主动服务需要和机械交互、被动反应能力之间的矛盾。

这些矛盾恰恰代表着智能座舱未来发展的三个核心方向:全感官体验、自然交互和主动服务。

鸿蒙座舱通过MoLA架构,将多模态感知、通用大模型、垂域智能体进行有机融合,构建起从用户意图理解到车辆硬件执行的完整链路,解决了智能座舱当下面临的主要矛盾,实现了用户体验的全方位升级。

结合适用于智能系统的“感知-决策-执行”三段论,全感官体验对应感知能力、执行能力的升级。

在感知层面,根据座舱智能等级的划分,L1级座舱的主要代表作品语音助手引入了听觉感知,L2级座舱引入了视觉感知,现在到了L3阶段,开始走向包括视觉、听觉、触觉、嗅觉在内的多模态感知。

多模态能力并不仅仅体现在感知能力上,还体现在表达能力或执行能力上。

在视听融合层面,AI声音处理技术可以将立体声转化为全景声,通过辨别乘客的人数和位置,为每个乘客位打造各自最佳的声场;

同时,各个位置的大屏、可在七八米外投射出巨幕的AR HUD带来临场感、沉浸感俱佳的影院级观影体验。

除了这些视觉、听觉方面的体验,可通风、加热、按摩的座椅从触觉的角度,智能空调从暖觉的角度,香氛系统从嗅觉的角度进一步提升了乘客的舒适感和沉浸感。

有句土味的情话“面对面还在想着你”,全面地揭示了全感官体验的必要性。

面对着面意味着只能看(视觉),耳不能听(听觉)手不能摸(触觉),这么不到位、不全面的体验,当然才会更加疯狂地想你嘛。

对应过来,座舱想要更好地满足用户需求,除了要采集语音、手势、面部表情、车辆状态、外部环境数据等各种模态的输入,提高获取信息的能力。

还要提升智能座舱的“表达能力”,通过触觉、听觉、视觉、暖觉、嗅觉塑造出一个沉浸式、个性化、充满关怀的移动空间。

过去,人们对智能座舱多模态能力的讨论主要聚焦在感知输入上,即车辆如何识别和理解我们需求的层面。

但对一个真正智能的座舱而言,其表达能力的重要性绝不亚于感知能力。

基于此,鸿蒙北向生态首发HUAWEI SOUND空间音专区和HUAWEI SOUND影院专区,拉高了人们对基于多模态协同表达的娱乐休闲体验的期待和想象力。



智能座舱系统不仅包含承担感知环境和乘客任务的各种传感器,还包括智能空调、智能座椅、香氛机、氛围屏、沙发、冰箱、大彩电等各类执行部件,对于这种存在多个组件和实体的智能系统,能不能自然地交互是用户特别看重的一项核心能力。

自然交互的前提是座舱拥有类人的智能,像人一样交流,像人一般做事。

也就是说,不仅具备感知能力、理解能力,从而更懂你,还具备联接能力、执行能力,能像阳明先生那样知行合一。

只耍嘴皮子不干事的人,我们会觉得他讨厌,智能座舱系统也需要完成从理解需求到执行任务的完整闭环,而不能光说不练。

对于同时面向赛博世界和物理世界的智能座舱而言,自然交互意味着要在多模态的全感官体验之上,强化决策能力和执行能力,既能深刻地理解用户的显性指令和隐性意图,又能自主执行复杂的任务链,形成一个流畅、省心、真正智能的交互闭环。

这种能力的出现和进步,来自于AI的范式革命和等级跃迁。

根据厂长对GPT给出的AI智能等级的解读,L2级AI系统开始具备深度推理和理解能力,这正是智能座舱理解泛化语义和模糊意图的关键。

L3级AI系统以Agent生态为核心,通过多个智能体的协作,分解执行复杂的任务。

在人机共驾时代,这种可以大幅度降低用户触控操作的方式尤其能提升驾驶安全。

在AI能力分级的视角下,L2级能力帮助提升的是语义理解和多轮对话能力。

L3级更进一步,从理解需求走向基于Agent的执行闭环,让用户的双手可以紧握方向盘。

展望未来,L3级能力加持的Agent将成为我们跟智能座舱和其它移动终端设备交互的核心方式。

围绕用户开车出行的关键场景,华为打造了导航Agent、车控Agent、新闻Agent、百科Agent和多媒体Agent五大智能体。

未来随着技术的进步,可以通过模块的替换或升级,为Agent注入新的工具,赋予座舱智能持续进化的能力。



AI神经网络成为主流范式之前,按键+触控几乎是我们与电脑、手机、座舱这些智能系统唯二的交互方式。

到了AI小模型时代,语音识别和语音生成技术加持的语音交互开始成为一种新的交互方式.

伴随着AI大模型的出现,交互方式开始随着AI能力的边界拓展而进化,智能座舱也开始进入了多模态自然交互时代。

不过,无论是触控交互、语音交互还是多模态交互,所有这些交互均属于被动响应的范畴。

如果说智能座舱的终局是化身“有温度、懂陪伴”的情感伴侣,被动响应显然是不够的。

随着多模态感知、AI大模型、智能体这三大支柱技术的成熟,座舱开始逐渐具备主动进行场景感知和意图理解,并调用智能体完成跨场景服务闭环的能力。

在华为的鸿蒙座舱中,主动服务也不再是概念,而是体现在了具体的出行场景中。

这种识人记事、主动建议、主动服务的情感化交互能力,标志着鸿蒙座舱率先进入了L3时代。

随着技术的不断突破,以Harmony Space为代表的智能座舱将愈发地聪明,真正成为我们出行生活中的全场景管家。

届时,座舱不再仅仅是一个执行指令的机器,而是成为一个能够察言观色、思考规划并主动提供服务的智能体。

从助手化身为助理,从工具进阶到伙伴,用户怎能不喜欢?

【声明】内容源于网络
0
0
燃擎App
『燃擎App』汽车门户新物种
内容 481
粉丝 0
燃擎App 『燃擎App』汽车门户新物种
总阅读60
粉丝0
内容481