透过iOS 13.1,看看苹果的AR眼镜究竟是什么样

9月29日消息,国外媒体刊文称,作为传言已久的一个神秘项目,苹果公司的增强现实(AR)眼镜其实隐藏在显眼的地方。透过刚发布的操作系统iOS 13.1,可以窥见该正在进行的项目的一些新东西。

以下是翻译内容:

苹果神秘的AR项目最近露出了一些蛛丝马迹。最近在iOS 13和13.1版本中发现的一系列功能和代码似乎明确证实了苹果高管一直拒绝承认的一件事——一款忠实于乔布斯理念的AR设备。事实上,结合苹果过去几年的收购动作和专利申请来看,那些隐藏的功能对于苹果的增强现实梦想的呈现可谓再清晰不过了。

先来说说StarBoard。今年9月初,泄露的iOS 13内部版本被发现包含一个提及StarBoard的“readme”文件,StarBoard是一个允许开发者在iPhone上查看支持立体声的AR应用程序的系统。该系统版本还包括一个用来完成这一任务的、名为StarTester的应用程序。这是苹果的材料第一次提及立体应用。

不久之后,在硬件发布会当天,苹果发布了最新版本的macOS开发环境Xcode 11。在这套工具中,隐藏着两种不同的头盔的数据文件,代号分别是“Franc”和“Luck”。同一天,iOS开发者史蒂夫·特劳顿-史密斯(Steve Troughton-Smith)在iOS 13的官方“黄金大师”(golden master)中发现了StarBoard框架;他还指出了“HME”,许多人猜测HME代表“头戴式体验”(head-mounted experience)。(HMD,头戴式显示器,是VR/AR头盔的一个通用术语。)

到目前为止,这些信息是前所未有的。苹果在2017年首次发布ARKit,这是让开发者熟悉增强现实,并让他们体验各种可能性的漫长旅程的一个开始。然而,该公司一直小心翼翼地将增强现实定位为一项移动技术,让人们通过iPhone或iPad来购物或玩乐高积木,甚至体验公共艺术设施。发现这类数据,即使是隐藏在操作系统开发者文件的深处,也显示出苹果一反常态的透明度。

那些数据信息意味着苹果在做什么产品呢?不同的人有不同的回答。彭博社和知名分析师郭明錤的报道长期以来一直声称,苹果今年将开始生产AR头盔,2020年正式推出——该款头盔更像是一款外围设备,而不是一体化设备,需要依靠iPhone的处理能力。

在深入研究了iOS 13之后,特劳顿-史密斯也得出了类似的结论。他在推特上写道:“透过iOS 13,可以看到苹果的增强现实努力与人们可能预期的大不相同。它指向了一个比自带操作系统的设备被动得多的显示配件。iPhone似乎将为它处理各种任务;ARKit充当合成器。”

上周末,另一个开发者让StarTester在近日正式放出的iOS 13.1上运行,随后苹果将推出被动式显示配件的说法得到了充实。

该开发者还在iOS框架中找到了特定的数字,它们指代两款特定头盔代号的视角:Luck为58度,Franc为61度。(第三个代号Garta似乎指的是一种测试模式,而不是特定的设备。)

这一切都与苹果计划推出一款小型、轻便的产品的想法相吻合——这款产品更像智能眼镜,而不是像微软不灵便的HoloLens那样,因而达到了“可穿戴”的标准。AR/VR市场调查公司VRS分析师JC Kuang表示:“与Oculus Rift相比,58度的视角听起来不算大,但与52度的Nreal Light混合显示设备相比,它已经相当有竞争力了。当我们谈论架构可能会是什么样子时,这正是我们需要关注的产品类别。”

跟踪增强现实行业的ARtillery Intelligence首席分析师马克·博兰(Mark Boland)将这样的产品称为“通知层”,将其定位为某种入门级的设备——衔接当下的移动AR设备和最终可能会取代智能手机的、更加强大的头盔。“我一直对2020年的推出时间持怀疑态度,”他说,“纵观整个行业的基础技术,你就会发现,它还没有准备好打造出既时髦又轻便的产品。”然而,像iOS 13所指向的那样的中间设备似乎可以达到一种平衡,让开发者在需要完全集成到“镜像世界”之前有机会形成打造立体声体验的习惯,开发出最佳实践。

苹果最近的一项专利似乎也支持这一观点。该公司在3月份提交的《带有传感器的显示系统》(Display System With Sensor)专利申请于7月份公开,该文件描述了一个配套的系统:一个内置和外接传感器的头戴式设备将其输入信息输送到一个“控制器”,然后“通过HMD渲染图像”。当然,一项专利并不等同于一项产品计划,但它是一个巨大的数据点。

如何进化

苹果会如何让智能眼镜变成一个完全成形的空间计算平台——或者说需要多长时间实现——目前还不得而知,但其路线图的要素都隐藏在显眼的地方。JC Kuang说道,“他们已经构建并充分部署的诸多技术,对于他们实现打造一个周到的AR HMD平台的目标至关重要。”他提到了iPhone 11机型可以在人像模式下拍摄宠物照片的消息:“这是一个很好的例子,说明他们所做的一些细微的调整看似与增强现实无关,但如果你是一名开发者,这些微调非常有意义。识别非人类面孔的功能可大大扩展你构建工具和体验的能力。”

苹果近年来进行的两笔收购,也暗示该公司可能会如何实现它的目标。JC Kuang将目前的StarBoard测试模式追溯到2017年收购的Vrvana公司。当时,Vrvana的主要产品是一款混合现实头盔——然而,它并没有像HoloLens或Magic Leap One那样依赖于透明的“波导”显示屏,而是使用前置摄像头将视频直接传送给用户。(像Varjo这样的公司也是通过这种方式利用VR头盔来提供混合现实体验。)

JC Kuang就Vrvana继续说道,“这显然是为了测试目的,但它可能会让我们能够更深入地了解苹果是如何测试AR的,它不必为了测试目的而打造几百台支持波导的设备。”

苹果的另一项战略举措是,2018年收购科罗拉多州公司Akonia Holographics。此举似乎有两个可能的原因:不只是因为Akonia Holographics正在研发的波导显示器,还因为该公司最初的目标是“全息存储”。全息存储指的是在三维空间中存储和访问数据,而不是在材料的表面(光存储)。长期以来,一直没有全息存储产品进入市场,但事实证明,该技术对增强现实的长期愿景至关重要。 “最理想的终端用户设备是超轻盈的,且不进行功能运算,不同于我们目前的情况。” JC Kuang说,“一切都在云端发生。全息存储带来的速度和传输可能是一大关键。”

JC Kuang指出,苹果上周刚公布的另一项专利提出了一种AR显示器,它可以通过Akonia式的波导系统传输三维图像。在他看来,这证实了该公司正致力于克服当今设备的局限性——尤其是同时专注于虚拟物体和现实世界的物体所带来的视觉疲劳。他表示,“苹果认识到这是一个大问题,并打算解决它。这一点意义重大,比微软据称正在做的更有意义。”

这也表明,虽然iOS上的发现指向一款中间设备,但那也可能只是一个开始。苹果正在大力进军服务领域,以抵消iPhone收入持续下滑带来的影响;推出像Arcade和TV+这样的订阅服务,意味着该公司要向其宣称的每年服务收入超过500亿美元的目标迈进。但服务业务并不能解决苹果在iPhone问世后没能再造重磅产品的难题——博兰认为AR是苹果后iPhone计划不可或缺的一部分。

JC Kuang表示认同。谈到苹果的做法,他指出:“这是非常具有前瞻性的增强现实愿景。他们把它视作一种计算形式,而不是一种显示形式,这一点非常关键。”

(0)
上一篇 2019年9月28日 16:38
下一篇 2019年9月29日 07:46