今天(2016年9月5日)在上海淮海路的Sony Store体验了一番传说中的PlayStation VR。
其实半年前,在日本九州福冈新开的一家Sony Store里与它擦肩而过——因为没有预约,因此当晚无法体验。好在在预计于今年年底发售之前的现在,体验到了一番。
在上海Sony Store的PlayStation体验内容并没有手上或者身体上的操作的互动,只是播放一段视频。视频的内容是作为海洋的生物学家或类似的身份,身处一个狭窄的笼子中,并被放入海里进行生物调查。期间遭到鲨鱼攻击,笼子的大门被鲨鱼撕咬,铰链断裂,铁笼的大门被扯下。
尽管没有手柄操纵,但VR眼睛硬件本身相比于Sony之前推出过的三代头戴式显示器,增加了三轴陀螺仪或者实现功能的部件,因此视野中的画面可以随着头部的转动而变化,基本感觉不到延迟或角度偏差,而且相比于其他体验者,我更注重向侧面、上方以及后面的视角,转头时基本都没有违和感。也就是说,视野内容的变化与头部转动方向角度的吻合程度,在我可以欣然接受的程度。
此外,画面内容虽然是一段视频,但却是实时演算的。理由就是在视野前方有“探照灯”的效果。我的判断依据是铁笼子的金属框,如果我的脑袋不正对着某根金属框架,那根金属框架就是暗淡的,一旦我头转过去,它就会泛出金属质感的漫反射——由此可见,它是实时演算的。
虽然有了根据头部运动来变化游戏画面视角的功能,但是在本次体验中,我注意到还有一项功能的缺乏的——也就是头部的运动,不是转动,而是位置移动。例如当我试图想凑近身边的某个仪表盘去看看上面的数值时,我发现画面并没有随着我头部的移动而改变。也就是说,今天的体验环境监测并反馈了头盔的转动,却还不能反馈头盔的位置移动。不知道只是这次体验的视频软件不支持,还是PlayStation VR硬件本身不具备这样的功能?我仿佛记得前不久在某篇新闻报道里读到过PlayStation VR对房间空间大小有要求,照这样来看,它理应支持空间位置移动捕捉才对啊。
此外,观看PlayStation VR的时候,刚才上的时候会觉得画面有一些模糊——或许是因为临时体验,因此没有调好眼镜的屈光度吧。例如当我抬头看海洋上方亮光(天空)的时候,画面依然是模糊的。不过这或许是一个难以解决的问题。因为在现实世界中,人眼查看不同距离事物时的成像,是与瞳孔的对焦有关,也就是说,这是涉及到瞳孔的放大缩小,以及一系列瞳孔内部的生理结构变化有关。但PlayStation VR以及现实一切的VR或许目前还只能捕捉到头部的转动,却难以精细地捕捉到眼球内部的变化。我唯一知道类似相关的技术,是佳能相机多年之前推出过的“眼控对焦”,据说是根据眼球的转动来控制相机取景器中对焦点的位置——但这也是根据眼球观察方向,而非根据眼球的瞳孔大小或肌肉状态来监测对焦情况。或许这个问题在近年还是个无解的问题。
不过经过今天的体验,PlayStation VR是一款足够让我沉浸片刻的产品了,与前几年同样是在Sony Store体验到的T2头戴式显有着明显的不同——在产品的重量上也明显减轻了。如果上市之后,有那么2、3款合我心意的VR游戏,我想我会入手PlayStation VR的。
各种著名IP大作游戏,VR化吧!