Apple Vision Pro作为苹果的首个空间计算设备,自发布以来就备受关注。虽然距离这款革命性的混合现实头显发布时间已经越来越近,但是人们对visionOS的操作方式一直抱有疑虑,这是一款运行在三维空间中操作系统。
根据之前苹果官方发布的Apple Vision Pro演示视频中可以看到,visionOS的主要操作以手指手势的点触和捏合为主,在需要更高精度的使用场景下允许用户接入妙控鼠标与妙控键盘进行输入操作。
妙控鼠标的指针操作方式自诞生时就是为了方便用户在二维平面的系统上使用,而来到基于三维空间设计的visionOS,鼠标指针大概就不会像在二维平面上那样高效。
近日,根据美国商标和专利局(USPTO)公示的清单,苹果公司获得了一项关于Apple Pencil的技术专利,不仅可以应用于 iPhone,而且可以用于增强现实、虚拟现实、混合现实设备使用。
想必这项专利就是苹果为Apple Vision Pro构建全新操作方式而准备的,根据专利描述,新款Apple Pencil将配有光学传感器系统,可用于在不具备触摸功能的表面上进行追踪与交互。
这套全新的光学传感器系统由功能不同的多个部分组成,包括光流传感器、激光散斑流传感器等。光流传感器通过检测空间与时间图像亮度变化(例如,帧与帧之间的亮度变化),来估算输入设备的运动。激光散斑流传感器可以检测由成像物体的相关照明所产生的散斑图案,以估计输入设备的轨迹。
在各个传感器的配合以及系统算法的配合之下,这套系统可以用于检测输入设备的状态与参数变化,进而得到包括位置、方向以及运动在内的信息。
甚至在条件允许的情况下,激光散斑流传感器可以包括一个发射器(例如垂直腔面发射激光器 VCSEL),用于向表面发射光线,以及一个探测器(例如图像传感器),该探测器捕捉环境的图像,以便检测从输入设备发射的光线反射或照射到表面上的光线。
这套系统也支持从一个或多个额外的传感器获取信息,进而接收包括输入设备施加的力、笔尖施加的力、惯性测量、磁测量,用于系统内部的视觉测量。
苹果的专利图以iPhone和新Apple Pencil作为例子,在使用iPhone时可以通过接触屏幕触控层或者不接触屏幕触控层这两种方式接受来自输入设备(新Apple Pencil)的输入。
配合带有光学传感器的输入设备(新Apple Pencil)可用于为增强现实、虚拟现实或混合现实相关的应用提供输入。
写在最后:
以苹果对于核心产品技术布局的提前程度,该项专利的说明中虽然是以iPhone的操作为主,但小编认为这显然是苹果为了提升用户在三维空间下进行精确操作而做的技术铺垫。
虽然现在看来该项专利中的很多想法有些天马行空,但在将来科技进一步发展之后,相信专利中出现的技术会落实到实际的产品中。
早在10年前,苹果就已经开始储备Apple Vision Pro相关的技术专利,在当时看来天马空行的想象,如今也已经要成为现实。