编译/VR陀螺
苹果最新visionOS 26.4系统更新悄然推出一项革命性功能,有望彻底改变人们对Vision Pro平台上高性能应用的认知。与大多数侧重小幅优化的平台更新不同,苹果为此次更新带来了根本性突破:让此前一体式VR硬件无法实现的高门槛沉浸式体验成为可能。
这项突破的核心是一种名为“注视点串流(Foveated Streaming)”的新技术。根据苹果的官方文档,该技术允许visionOS应用从远程流媒体服务器那里获取高分辨率、低延迟的沉浸式内容。这并非普通的流媒体协议,而是一种复杂而先进的方法,有望重新定义本地空间计算与远程处理能力结合的可能性。更值得注意的是,这项技术的推出恰逢Vision Pro平台开始支持被称为“世界上最先进的飞行模拟器”的应用X-Plane 12。

X-Plane 12 图源:网络
其核心吸引力在于:像微软Flight Simulator、X-Plane 12 或 Laminar Research这样的专业飞行模拟器应用通常需要配备高端GPU的游戏电脑,现在理论上可以在Vision Pro展现其全画质效果,并且享有无与伦比的空间交互能力。这意味着用户体验将从简化的移动端风格应用,跃升为真正的专业级模拟工具。
注视点串流为什么是技术突破?
visionOS 26.4新功能的核心创新,在于它智能地结合了本地渲染和远程渲染。传统流式解决方案通常让开发者在受限于本地设备的处理能力与完全依赖远程服务器之间二选一。而苹果的注视点串流技术改变了这个局面,使混合渲染(Hybrid Rendering)成为可能。
苹果在其技术文档指出:“注视点串流使visionOS应用能够从流媒体服务器那里获取高分辨率、低延迟的沉浸式内容。”其实际运作方式更为巧妙,系统允许Vision Pro同时显示本地visionOS空间交互内容和远程流媒体内容。
苹果给出的飞行模拟器案例颇具代表性:应用可以使用设备的RealityKit在本地渲染精细的驾驶舱界面,同时从远程电脑串流计算量密集的地形和环境画面。

注视点串流 图源:网络
该技术的精妙之处在于,借助Vision Pro先进的眼动追踪硬件,系统能够准确判断用户正在看哪里,然后把最高分辨率和带宽分配给视线焦点区域,在周边视野则使用用户眼睛不易察觉的较低分辨率的画面。
这不仅仅优化了带宽,更是对沉浸式内容分布方式的一次根本性重设。
苹果似乎还解决了流媒体方案长期存在的延迟问题。这种混合架构可以让关键交互(例如操作驾驶舱开关、抓取空间UI元素)在本地以原生帧率运行,而把计算量巨大的背景渲染交给远程服务器处理。

图源:网络
根据文档,系统在处理远程内容流的同时还可以保持20毫秒以内的响应时间,这对自然的手部追踪体验至关重要。技术的核心亮点在于,系统可以根据交互需求而不是单纯的计算需求来分配本地和远程计算资源。
对游戏和模拟应用意味着什么
这项技术对高保真游戏和专业模拟应用的影响极为深远。在visionOS 26.4推出之前,开发者面临两难选择:要么选择创建受Vision Pro移动级算力限制的应用,要么放弃Vision Pro,转而使用PC平台。而这套新的流式架构彻底消除了这种抉择。
飞行模拟器完美展现了这项技术的优势,因为它正好兼具空间交互操作与高算力需求。苹果文档描述的混合渲染方案清晰说明了其运作方式:“在Apple Vision Pro上,注视点串流允许visionOS空间内容与流媒体内容同时显示。例如,飞行模拟器应用可以使用RealityKit渲染驾驶舱,同时从远程计算机串流计算量庞大的地形。”
现代飞行模拟器应用的计算需求非常夸张:需渲染数百英里的地形、模拟真实天气模式、实时计算复杂的空气动力学、管理包含数千个变量的空中交通系统,这通常需要10–20TFLOPS的算力,远远超过移动芯片的能力上限。而驾驶舱体验中那些拨动开关、调整配平手轮、读取仪表等等动作,正是空间交互相较于传统屏幕的独特优势所在。
这种架构还为许多之前无法在Vision Pro上实现的应用打开了大门,例如Autodesk的建筑可视化工具就能远程渲染照片级真实感的建筑模型,同时保留本地空间操作能力; 3D Organon、Complete Anatomy等医疗模拟平台可以远程处理复杂生理模型,同时在本地空间进行解剖操作;Dassault Systèmes等企业的工程CAD工具可以远程进行高精度渲染,同时与Vision Pro的精准空间操作工具相结合。

图源:网络
该技术在商业模式上也有十分显著的影响:开发者不再需要用户购买昂贵的高端电脑设备,而是可以提供云计算订阅服务,既扩大市场规模,又提升体验质量。
对开发者和生态系统的影响
对于开发者来说,visionOS 26.4提供的注视点串流技术不仅是机遇,也是一次架构层面的范式转变。这一架构要求开发者在开发应用时需重新思考如何围绕分布式计算模型进行设计。
从实际操作来看,开发者需要明确区分空间交互层(本地)和计算处理层(远程)。根据苹果的技术方向,这很可能涉及新的RealityKit API,用于管理本地空间内容与流媒体内容的集成接口。这也使得开发流程变得更为复杂,因为本质上需要同时面向两个运行环境(本地设备+远程服务器)进行开发。
基础设施要求也会变得很高,因为成功的应用需要强大的内容分发网络(CDN)、低延迟流媒体服务器以及智能带宽管理。因此,这可能更有利于已经拥有云基础设施的公司,例如使用AWS、Azure或Google Cloud的团队。
但这对企业市场而言反而是重大利好,诸如航空公司、医学院、工程团队这类企业在过去无法妥协于算力,如今有了清晰的技术路径。这些行业可以充分利用Vision Pro的空间交互能力,且不必牺牲应用所需的算力。
如果苹果证明本地+远程混合计算的体验优于纯本地计算,那么其他XR平台很可能必须跟进类似技术。
重新定义空间计算
在visionOS 26.4中推出注视点串流技术,表明苹果已经意识到空间计算的未来不是在本地计算和云计算之间二选一,而是两者的智能融合。
这次更新也使Vision Pro的定位不再只是一个一体式的MR设备,而是一个能够接入几乎无限算力的空间计算接口。

图源:苹果
飞行模拟器只是一个具有说服力的示范案例,真正令人兴奋的是接下来会出现的更多应用。随着开发者开始探索本地+远程混合渲染带来的可能性,我们或许会看到结合了Vision Pro空间感知能力与整个服务器集群算力的全新类别沉浸式应用,比如可实时渲染分子动力学模拟的科学可视化工具、团队协作的超高精度3D设计环境等等。
苹果在保留Vision Pro核心优势的同时,消除了其最大的限制,即设备算力。设备出色的空间追踪、手部与眼部交互能力,以及无缝的MR集成仍是体验的核心,但如今这些能力可与媲美高端工作站甚至超级计算机的计算资源相结合。
也就是说,Vision Pro正从一台令人惊艳但略显受限的空间计算设备,蜕变为一个算力无上限,帮助人们真正进入高性能MR世界的入口设备。这可能正是空间计算从“有趣的新技术”走向专业生产力工具的关键时刻。而对于愿意拥抱这种混合计算架构的开发者来说,应用的计算上限几乎已经变成无限。
参考链接:https://virtual.reality.news/news/apple-vision-pro-foveated-streaming-changes-vr-gaming/
投稿/爆料:tougao@youxituoluo.com
稿件/商务合作: 六六(微信 13138755620)
加入行业交流群:六六(微信 13138755620)
元宇宙数字产业服务平台
下载「陀螺科技」APP,获取前沿深度元宇宙讯息