谷歌双线布局AI眼镜与XR设备,剑指2026消费级市场
谷歌正全力推进两条智能眼镜产品线:一款是配备显示屏的AR/AI眼镜,另一款为纯音频AI眼镜,目标直指2026年消费级市场,对标热销的Ray-Ban Meta系列。
根据谷歌官方博客消息,首批AI眼镜预计于2026年上市,合作方包括三星、Warby Parker和Gentle Monster等品牌。目前尚未公布最终量产设计。与此同时,谷歌同步推出Android XR操作系统,意在规避当年Google Glass因技术不成熟和定位模糊导致的失败。
双轨并行:头显深化沉浸,眼镜主打轻便
谷歌在XR领域采取“头显+眼镜”双线战略。Galaxy XR由三星合作开发,专注于重度沉浸体验;而与Xreal联合打造的Project Aura则聚焦全天候轻量佩戴场景。
针对用户反馈,Galaxy XR将上线“出行模式”更新,通过锁定虚拟场景坐标,解决移动中画面抖动问题,提升观影与办公体验。此外,新推出的PC Connect应用支持Windows及未来macOS系统,实现任意电脑连接虚拟桌面,不再局限于三星设备。
Galaxy XR还将引入名为“Likeness”的虚拟形象系统,用户可通过手机扫描生成高拟真3D数字分身,用于视频通话,支持实时表情与手势捕捉,显著增强交互沉浸感。
AI眼镜原型曝光:屏幕可选,功能聚焦实用场景
在纽约谷歌办公室的体验中,多款AI眼镜原型显示其采用“手机协同计算”架构,依赖手机处理主要算力任务,如调用Gemini AI播放音乐或识别食材生成菜谱,从而确保眼镜本体轻薄,外观接近普通近视镜。
两款带屏原型机已现身:单目版仅右侧镜片集成微型显示屏,双目版则两侧均有显示模组。二者均支持基础AR叠加功能,例如在视野中显示Google Maps导航路径或Google Meet通话画面。其中双目版本提供更大、更具包围感的虚拟视界,适合长时间内容浏览。
谷歌强调用户体验平衡,在软件层面确保“有屏”与“无屏”模式均可流畅运行核心功能。以实时翻译为例,用户既可在镜片上查看字幕,也可关闭显示仅通过耳机听取译文,使设备兼具AR眼镜与智能耳机双重属性。
独立设备Project Aura:压缩版XR头显
Project Aura作为独立运行Android XR系统的设备,不同于依赖手机的AI眼镜,更像将Galaxy XR的功能压缩至日常化眼镜形态。该设备需外接电池供电,通过线缆连接,延续了头显外置电源的设计逻辑。
官方参数显示其视场角达70°,优于现有Xreal消费级产品,带来更强沉浸感。交互方面沿用手势追踪技术,虽因摄像头数量减少导致精度略降,但操作逻辑与Galaxy XR保持一致,降低用户学习成本。
战略转型:从实验室玩具到生态协同
相较十年前Google Glass因外形怪异、续航短、隐私争议及缺乏明确使用场景而折戟,当前谷歌策略更为务实:承认Meta在穿戴设备设计上的成功经验,优先保证产品外观日常化;同时将复杂功能封装于Android XR系统与手机算力中,发挥自身AI与平台优势。
谷歌选择与三星、Xreal、Warby Parker、Gentle Monster等伙伴协作,将硬件工业设计与时尚元素交由专业团队,构建多元化产品矩阵。
竞争格局加剧,AI驱动新一轮入口争夺
当前市场格局快速成型:Meta凭借Ray-Ban系列验证“音频+摄像先行,逐步嵌入AI”的路径;Snap计划推出首款消费级AR眼镜;苹果也被预期在同一周期发布轻量化Vision产品线。
谷歌此时入场,处于“非零起点但未定局”的关键窗口期——避开早期试错成本,却面临已被教育过的用户群体对实用性与高频场景的更高期待。单纯“有趣”已不足以留存用户,真正决定胜负的是能否融入日常生活的核心需求。
从更宏观视角看,谷歌此次布局实质是在回应一个根本命题:当AI从屏幕走向佩戴,平台企业应如何定位自身?是成为下一代操作系统提供商,还是局限于超级助手角色?是封闭自研,还是开放生态?
谷歌的选择是分散风险、多线并进,依托合作伙伴覆盖不同用户群体。这一策略既体现其战略成熟,也反映出在激烈竞争下的必要务实。

