Warning: file_get_contents(/data/phpspider/zhask/data//catemap/4/video/2.json): failed to open stream: No such file or directory in /data/phpspider/zhask/libs/function.php on line 167

Warning: Invalid argument supplied for foreach() in /data/phpspider/zhask/libs/tag.function.php on line 1116

Notice: Undefined index: in /data/phpspider/zhask/libs/function.php on line 180

Warning: array_chunk() expects parameter 1 to be array, null given in /data/phpspider/zhask/libs/function.php on line 181
Video 360视频中的视口和VR耳机中的全景视频_Video_Unity3d_Oculus_Gear Vr_360 Virtual Reality - Fatal编程技术网

Video 360视频中的视口和VR耳机中的全景视频

Video 360视频中的视口和VR耳机中的全景视频,video,unity3d,oculus,gear-vr,360-virtual-reality,Video,Unity3d,Oculus,Gear Vr,360 Virtual Reality,我正试图了解目前可在诸如Oculus或三星Gear VR等虚拟现实耳机中使用的360度视频是如何工作的。显然,他们使用的是全景视频(360度视频)的概念。我做了一些测试,发现原始视频的分辨率更高,在虚拟现实中,一个特殊区域(正对着眼睛)最初显示在视口中。用户还可以根据需要更改视图 以下是原始360全景视频的示例: 下面是如何在Gear VR等虚拟现实耳机中看到的(主视口): 现在我的问题是,是否有任何方法可以检测原始视频的哪一部分实际上当前在视口中?我的意思是,我们能检测到(几乎)360视频

我正试图了解目前可在诸如Oculus或三星Gear VR等虚拟现实耳机中使用的360度视频是如何工作的。显然,他们使用的是全景视频(360度视频)的概念。我做了一些测试,发现原始视频的分辨率更高,在虚拟现实中,一个特殊区域(正对着眼睛)最初显示在视口中。用户还可以根据需要更改视图

以下是原始360全景视频的示例:

下面是如何在Gear VR等虚拟现实耳机中看到的(主视口):

现在我的问题是,是否有任何方法可以检测原始视频的哪一部分实际上当前在视口中?我的意思是,我们能检测到(几乎)360视频的哪一部分正在被看到吗?VR头戴式耳机(如Gear VR、Oculus、Unity3D或任何其他VR相关工具)是否提供了任何API来了解这一点,可能使用了一些传感器或其他信息


我的信息有限,因此这方面的任何类型的信息对我都很有用。

如果你的意思是玩家可以检测到球体的哪一部分在用户的视线视图中,然后答案是肯定的,因为播放器实际上必须对原始视频执行转换,以创建用户当时实际看到的视图

它通过从设备传感器或键盘(例如,如果它正在浏览器中显示)获取输入信息,并由此确定用户在任何给定时刻的观看位置来实现这一点

基于此,播放器将对原始视频进行转换,以便在屏幕上仅显示用户视线内的视频部分

如果您询问“服务”视频的服务器是否能够知道用户在任何给定时间的视线位置,那么答案是否定的,因为它只服务于完整的360原始视频(无论如何,对于目前的大多数实现而言)


玩家可以向服务器报告分析结果,指示用户查看并报告任何更改,但这取决于每个玩家。肯定有一些公司已经强调了通过合作或基于特定玩家提供360视频分析的能力。

Cool。因此,总的来说,整个视频流和播放器(在客户端)决定哪个部分显示给定的传感器和其他。问题是,我现在正在用Gear VR查看360视频,每当我转头时,我最初看到的是一个质量较低的视频,它会迅速改善。这难道不意味着他们正以某种方式与服务器通信以报告用户的视图吗?!如果它是一个实时生成的视频,那么可能,但如果它只是360度视频,那么您可能只是看到了视频管道(正在准备和显示的帧集)突然刷新并再次填充新视图所造成的效果。这些算法可能足够聪明,可以先做一个粗略的传球,然后再填写更多细节(不确定-你提到的效果很有趣,希望其他人能证实)。另一方面,因为眼睛是如此的近,屏幕被放大,目前大多数360度的耳机视频都像你可能看到的那样有着非常粗糙的质量。