苹果VR布局揭秘:百人团队潜研多年 收购多家技术公司
智东西 文|王艺
尽管在2016年WWDC上没有公布VR/AR硬件相关信息,但库克此前曾公开表示该领域“very cool”,苹果早已悄然布局。从技术研发、人才招募到企业收购和专利申请,苹果已为此投入十余年精力,只为等待最佳市场时机。
智东西(公众号:zhidxcom)通过整理相关消息梳理发现,苹果已组建百人专家团队,持续吸纳来自Microsoft HoloLens、Lytro等业内领先企业的人才;收购了包括PrimeSense、Metaio、Faceshift、Emotient、Flyby Media在内的多家关键技术公司;并申请至少五个直接相关的VR头显专利,覆盖多个应用场景。
▎研发团队超过百人
苹果对VR/AR的研究可追溯至十多年前,2015年初次被媒体曝光时已有专门团队。据称目前已有超百名专家从事相关秘密研究。
Doug Bowman是其中最重量级的新成员,曾任弗吉尼亚科研中心人机交互负责人,3D用户界面领域的专家,在VR及AR方面有深厚积累。
此外,苹果还从Microsoft和Lytro挖来大批员工,部分具备HoloLens研发经验。从LinkedIn信息可见,一些软件工程师具备VR从业背景,是否加入VR/AR小组尚不可知。
▎通过收购获取技术和人才
多位核心成员是通过并购引入的,收购对象覆盖硬件、软件等领域:
PrimeSense,技术曾被Kinect采用
2013年被苹果收购,该公司以色列企业提供近红外光三维感应方案,可构建虚拟图像用于动作识别和远程测量。其高精度360度测量技术可用于VR场景建模。
Metaio,增强现实领域最强软件公司
2015年5月被收购,开发过AR创建工具Metaio Creator,可快速搭建AR应用体验。技术曾用于柏林墙历史还原项目,并可融合进苹果地图等App中。
Faceshift,可实时捕捉面部表情
2015年8月被收购,专注通过3D传感器实现面部表情捕捉并映射到动画角色上。B端服务游戏动画行业,C端可用于视频通话中的卡通形象生成。
Emotient,它能看懂人的面部表情
2016年1月被收购,专注AI+机器学习分析人类表情,广告商用其评估投放效果。苹果可将其应用于零售店顾客反馈分析、优化人脸识别系统以及VR社交中的虚拟化身。
Flyby Media,不同扫描结果也能识别相同物体
2016年初被收入囊中,App可在Project Tango设备上运行,实现基于地点的信息绑定与读取。技术优势在于可从不同扫描数据中辨识同一目标物体。
▎专利覆盖VR和AR领域
苹果已注册多项相关专利,最早可追溯至2008年:
- 一种头戴设备设计允许用户观看3D内容,两个模块支持视力矫正功能。
- 眼镜型显示装置通过激光引擎将画面投射到透明镜片上。
- 类Google Glass设备允许嵌入iPhone/iPod实现AR显示。
- 结合摄像头追踪头部动作切换视角。
- 基于iOS设备内置传感器构建“虚拟房间”3D界面。
- AR地图功能利用相机测距显示建筑物相关信息。
- 透明显示屏专利可在实景基础上叠加数字内容。
上述技术涉及观影设备、手势控制、空间计算等多个维度,展现出苹果对VR全生态的布局思路。
▎总结:苹果VR的盖头何时掀开?
苹果显然已在VR/AR领域深耕多年,团队储备、公司收购、专利布局三管齐下,尚未推出产品只是静待市场成熟。
- 多份专利文件显示手机仍是关键交互中枢。
- 招聘Lytro技术路线与MagicLeap相近。
- 同时推进AR与VR方向,最终形态将取决于市场反馈。

