大数跨境
0
0

苹果的AR布局 下

苹果的AR布局 下 凯林数字
2020-07-29
2
导读:乔布斯曾经说过:“苹果卖的从来都是软件,但是一个软件,需要一个好的硬件载体去承载它”。
乔布斯曾经说过:“苹果卖的从来都是软件,但是一个软件,需要一个好的硬件载体去承载它”,苹果从前所有的成就,都来源于他们对软件和硬件赋予同等的重视程度,以及软硬协同设计的能力,而现在,他们要做的事硬件、软件、服务,三个部分同等重视,三位一体协同开发,一切的一切,都是为了AR。


在苹果眼里,AR才是解决目前智能终端瓶颈的最佳方案,并且他们为此已经布局了十多年,他们早就明白,单纯的二维屏幕,已经没有了长远的未来,无论多么大的二维物理屏幕,多么高的屏占比,都无法为个人终端带来根本上的改变,因此,就像苹果在十几年前,毅然砍掉“键盘”这个实体,转而使用虚拟键盘,现在,苹果将要砍掉“触控屏幕”这个实体,转而使用三维的、虚拟的屏幕,而这个三维虚拟屏幕,就是用AR呈现的,这个屏幕的究极载体,就是苹果将在两年内发布的AR眼镜。
为什么本应在2019年“致创新”发布会上发布的产品,被延后了两年,到了2021年呢,个人觉得是苹果觉得当时的产品体验还不足以吸引大多数人吧,不同于单纯是虚拟空间的VR虚拟现实,增强现实的本质,是虚拟物体和现实空间的融合。


于是,通过苹果未来的AR眼镜,整个现实世界就是我们可以与之交互的“三维虚拟屏幕”,信息将会直接呈现在我们周围的空间之中,而不仅仅是在手上的一块方寸屏幕之间,信息流将被极大地丰富,万事万物都将成为数字世界信息的载体,空间即UI,听起来可能没什么,但是真正的去应用了,感觉就会大为惊奇,就像智能设备不存在于任何实体设备之中,而是以虚拟的状态,充斥在我们周围每一处空间之中,人类第六次信息革命将就此拉开帷幕。
要让智能终端实现这一点,需要从三个方面入手:理解现实环境、呈现虚拟物体、AR人机交互,而要实现这三点,依然还是要从硬件、软件、服务三个角度去探索。
首先为了给AR提供强劲的算力,苹果自主研发了处理器至关重要的GPU部分,增加了理解环境所能力所必需的神经网络引擎,设备可以用生命体的方式去学习和理解这个世界中形形色色的物体,因此机器学习能力是其中最重要的部分,为此,硬件上,苹果拥有机器学习加速器;软件上,苹果用于CoreML,机器学习开发API,联合摄像系统,再加上硬件的算力与机器学习能力,苹果希望设备可以真正理解镜头中的现实世界。


iPhone 11系列的摄像过程中,频繁用到的两个新的图像分析步骤:语义分割语义渲染,凭借机器学习和计算机视觉,语义分割可以实现影像的物体区域分割,例如识别出哪里是人,哪里是面部,识别出天空、地面、建筑和道路,并且精准分割,而语义渲染则可以对这些分割出来的区域做针对性的处理和优化,并且,这个过程不是静态的,而是对场景进行持续的分析,于是,设备拥有了初步的环境理解能力。

上次说到LiDAR,它本身还有两个十分重要的意义:
第一,目前苹果的AR布局处在生态构建阶段,需要更多的AR APP来构建这个新的生态,ARkit是较基础的软件解决方案,新的LiDAR和U1芯片的搭载,则是全新的硬件解决方案,LiDAR作为苹果摄像系统的一部分,承载着AR APP内容生态构建的重要一步,先前的ARkit提供了AR模型的转换和放置,这些还不够,很多开发者还没有接触到三维建模,在AR这样一个全三维环境中,开发很困难,这阻碍了AR的普及,现在有了LiDAR,普通开发者也可以很方便地实现物体扫描建模,创建AR三维模型,这大大简化了AR APP的开发流程,最终成就的,将是一个繁荣的AR服务生态圈。
第二,LiDAR将会联合原深感镜头模组和ARkit,实现人机交互的颠覆性革新,在未来的AR时代,人机交互将回归人类与环境最自然古老的交互方式,用眼看,用手摸,以AR kit为基础,LiDAR可以探测用户手部动作,直接用手与虚拟物体和信息进行交互,将三维虚拟手势作为主要交互方式,同时原深感镜头模组会进行眼球追踪,作为辅助交互方式以及信息的显示基础,即窗口会根据眼部的运动来显示,这样,交互无比自然的个人终端就实现了。
以上,便是苹果在AR的全部布局,让我们一起期待着AR时代的到来吧!
【声明】内容源于网络
0
0
凯林数字
全息互动显示设备研发和3D视觉创意设计。主要经营3D建模、3D动画设计、VR仿真开发、3D工业数字孪生、倾斜摄影3D建模、医学影像3D重建、风扇屏游戏互动开发。
内容 138
粉丝 0
凯林数字 全息互动显示设备研发和3D视觉创意设计。主要经营3D建模、3D动画设计、VR仿真开发、3D工业数字孪生、倾斜摄影3D建模、医学影像3D重建、风扇屏游戏互动开发。
总阅读32
粉丝0
内容138