苹果 Vision Pro 将迎来一系列令人振奋的辅助功能更新,其中最引人注目的便是增强透视(Passthrough)的放大能力,以及利用设备端 AI 实时描述、查找或阅读视野内任何对象的能力。这些功能旨在为视力障碍人士提供更便捷的使用体验,预计将在今年晚些时候通过 visionOS 的软件更新推送。
值得注意的是,去年苹果在 WWDC24 发布 visionOS 2 之前一个月,就提前公布了一系列辅助功能。因此,我们有理由期待在下个月的 WWDC25 上,苹果可能会预览 visionOS 3 及其所包含的全新辅助特性。
透视放大与实时识别
经过改进的放大功能将作为“缩放”辅助功能的升级版本推出。目前,“缩放”功能仅能放大虚拟内容,而更新后,它也将能够放大现实世界,为视力较弱的用户提供更清晰的视觉体验。
此外,设备描述、查找或阅读视野内任何对象的能力,将成为 VoiceOver 屏幕阅读器的扩展功能,被称为“实时识别”(Live Recognition)。苹果表示,该功能将利用设备端机器学习技术处理透视视图,从而“描述周围环境、查找物体、阅读文档等等”。这意味着 Vision Pro 将能够像一位智能助手一样,实时地为用户提供视觉信息,极大地提升了其在日常生活中的实用性。
为辅助功能开放的透视 API
苹果还宣布将为“辅助功能开发者”提供一个新的 API,允许“经过批准的应用程序”访问透视视图。“这旨在为视觉解释提供实时、人对人的协助。” 这一举措有望推动更多创新性的辅助应用诞生,例如远程医疗专家可以通过 Vision Pro 的透视功能,实时地为视力障碍人士提供指导和帮助。
目前,Meta Quest 头显的 Horizon OS 允许所有应用在获得用户授权后访问透视摄像头。同样,谷歌的 Android XR 在发布时也将支持该功能。然而,visionOS 目前仅允许非公开的企业应用“在商业环境中使用”透视摄像头,并且需要获得苹果的特殊许可。这种限制性的做法引发了一些讨论,人们普遍认为,苹果在透视摄像头访问权限方面相对保守。
苹果在宣布更广泛的透视摄像头访问权限时使用的措辞表明,它将仅限于在经过特定审批流程的辅助应用中使用。 鉴于 Horizon OS 和 Android XR 的立场,我们将密切关注 WWDC25 上关于透视摄像头访问的任何进一步公告。 值得注意的是,虽然苹果的谨慎态度可能出于对用户隐私的考虑,但相比之下,Meta 和 Google 在开放性方面似乎更胜一筹。未来,苹果是否会调整策略,在保护用户隐私的同时,为开发者提供更大的创作空间,值得我们拭目以待。