我目前使用过的产品主要是 HTC Vive Pro (VR 代表),Oculus (自用 VR),HoloLens (微软看家 AR)。这次看到 Vision Pro 的发布,感觉还是十分耳目一新。刚巧看到一些评论,在讨论是否创新这件事情。
想分享下我的想法。我觉得 Vision Pro 并非是部分人吐槽说是 Apple 在做别人剩下的。我在其中看到了一些针对痛点的创新,想来认真分析一下这款产品。
痛点 1: 虚拟和现实的界限不清晰

上图是 Vision Pro,主要由头戴,显示部分以及外接电池组成。
下图是我手边的 Oculus,它是一款 VR 设备,这里无需十分纠结用词。从本质上说 AR 和 VR 合在一起,其实是大部分人理解的 MR 混合现实,而 Apple 发布的这款产品,就是一款模糊二者边界的产品。
在 Oculus 这台设备上,正面是一个大塑料,而设备从内向外的透视,是通过前方几个摄像头实现的。受限制于性能,其实穿透过来的颜色、还有空间感是形变的。
这种感受我不知道说的是否清楚,就类似于你在公园玩哈哈镜的效果,哪怕外面的环境有扭曲,你看到的,就不会把它当作真实环境。
上图中 Apple 的眼镜,通过对内部眼睛关注点的还原和建模,可以做到在看屏幕内容和在看外部内容时候,有穿透的效果。这大概率是得益于 12 个摄像头,外加内容眼球追踪系列传感器的精准追踪,实现了对眼睛内(俗称的 VR),和穿透视觉(俗称的 AR)这两种模式的融合。
实现这一点,想想看其实也并不难,真正难的的确是非常堆料。就像这次的 Apple 眼睛一样,用双 4K Micro-OLED 镜片,配合单独的虚拟现实芯片,来做到这个效果,属实佩服这么做的决心。
同样关于虚拟与现实的界限,你也许会想,这样一定是直接视觉穿透最好。巧了,微软也是这么想的,下图我手上拿着的是 HoloLens,可以看到它和 Oculus 最大的区别在于,镜片是透明的。

在传统 AR 设备中,内容通过多重反射折射的方式投影到眼睛前方的镜片上,好处是通透,但坏处则是不是真的通透。
这种感觉,有点像是强迫你在室内戴着墨镜,虽然能看清,但感觉还是和真实环境有所脱节。当你摘下眼镜,才感觉回到了现实中,究其原因,我认为是这套方案为了保护眼睛内投影的清晰,牺牲了亮度。
更别提因为投影空间有限,哪怕我当时已经玩的是最新版本的 HoloLens,微软号称可视角度变大了,但实际上还是一不小心就脱离了 AR 的视觉区域。虽然体验十分惊艳,当你同样也会因为可视角度问题,亮度问题,不认为你看到的现实,是真的现实。
这就是我在玩传统几家大厂设备时,最大的感悟。感觉他们好像做了,又做的远远不够。
屏幕里无论宣传多么清晰,但始终能告诉你这不是真实的像素点,配合哈哈镜效果,配合昏暗感,时刻努力把你拉回现实。
在 Vision Pro 上,Apple 用这个小旋钮,来调节沉浸度。通过空间音频来完美告诉你声音的来源,把脑袋上的重量用外接点吃的方式挪到了你的腰胯上,用极度精密的显示器屏幕消除了模糊感。
用过空间音频的小伙伴,可能震撼于头部随意动,声源位置不动的震撼感,刚好我带着 AirPods Pro 开着空间音频看发布会,发布会上的音频也采用了环绕录制,效果极佳。
这个产品,组合以上提到的多个技术和硬件,在这个虚拟和现实边界的痛点上,我认为虽然可以理解为大力出奇迹,但是确实可以解决问题。
痛点 2: 操纵体验繁琐,且精准度始终差了一些
继续回看这张 Oculus 的大图,你会注意到这个很难忽视巨大的手柄,也是当代 VR 的标配。即便已经进步了的 Valve Index,还是 Oculus Pro,它们缩小的只是手柄大小,并没有干掉这个东西本身。传统的红外基站方案,也需要配合手柄上的识别使用。
而微软 HoloLens 的双指捏和手势做的虽然不错,但居然在你的手臂上放了个 UI,让你左右按右手,体验十分微妙。总体来说,手臂上类似投影方案,也是偏向于技术妥协的成果,实际显示效果玩具感很强,而且微软的光学方案,色彩会明显感觉到像是几个颜色累加在一起,仔细看是分层的。
Vision Pro 依旧是大力出奇迹。向外向下采用了恐怖的双芯片组合,配合 12 枚摄像头,外加多个红外光传感器,一直盯着你的手部操作。彻底干掉了对于额外控制器的需求,此刻,对外你的手,就是控制本身。而不是拿着手柄伸出一根光柱指向光标:一种大家都在用,实则很疲惫的操作方式,因为举着手本身就很累。
为了彻底解决精准度的问题,Vision Pro 在眼镜内部配上了恐怖的视网膜传感器。甚至达到了解锁精度,也就是对精度的最高要求。
在这个设定下,你的眼睛本身,就是伸出去的光柱。看到哪里,哪里的 UI 就会自动浮起,用上了之前对于 iPad 光标的设计思路,不得不佩服,Apple 确实是交互方式创新的大师。
痛点 3: 生态中没有内容支撑
目前内容支撑,能说做的比较不错的大概就是索尼大法的 PS VR 了,有第一方地平线这类大作的支持。另一点我觉得内容做的很好的是大疆,通过对于场景无人机器的锁定,在大疆 FPV 的 VR 头显中效果很好。
我还记得当时用大疆 FPV 头显看深圳夜景的震撼,这样在小场景下内容就足够了。然而对于诸如 Meta、微软、这样想做眼镜的就完全不是这么一回事了。
玩过 Oculus、HoloLens 等等,你会发现很久不玩吃灰的原因,是因为实在找不到什么别的用途了。你用它天天玩节奏光剑不现实,天天玩 Demo 里面做的最好的纸飞机扔出去,也总会扔腻了。看 VR 电影吧,虽然屏幕巨大,但每一颗硕大的像素点都提醒你,为什么不去看电视呢?用 HoloLens 打开 Powerpoint 办公,色差配合误触酸爽的体验谁用谁知道。
Apple 这会依旧把自己的看家本领,SwiftUI + Xcode + Reality Composer 全部拿到台面上,交给开发者,说全部拿去用。全部 iOS,iPad App 等首发日都自动支持,彻底解决了早期内容不够的问题。
总结
作为「心光」App 联合主创,也在进行 iOS 教程创作,对技术面相对熟悉。Apple 对于 AR 的关注,大概从技术面至少七年前就开始准备,诸如 ARKit 如今迭代到第 7 代,也已经相对成熟。如今看到 SwiftUI 的布局,也已经深入 visionOS 的思考中,作为开发的重要基石,依旧是发自内心的佩服 Apple 沉得住气。
就是忍不住想说,那个外接充电宝,好像林克腰上的的电池呀。
我很喜欢 VR 的沉浸感,也被 AR 初入眼帘,穿透屏幕看到不存在的物体感到震撼。开发者目前已经可以在 Xcode 中编译到 Vision Pro 进行测试。 今年稍晚的时候,会在上海加速器提供测试,也可以随时向 Apple 提出进行 App 适配测试请求。
本文以上三个痛点,是我对 Vision Pro 的看法。它解决了,且目前来看解决方案可靠,就已经足够定义全新的一代交互方式了。
还记得当时在学习新媒介研究的时候,人们总喜欢套入之前的框架思考,我想这篇文章也是吧。又想到是一个新时代的开始,觉得人类创造力,可真棒!