首页 > 硬件频道 > 硬件评测 > 让世界读懂你的眼神 VR眼球追踪模组aGlass评测

让世界读懂你的眼神 VR眼球追踪模组aGlass评测

来源:87870 作者:枫笛 2017-08-10
评论 3阅读 33489
作为一家技术驱动型科技公司,七鑫易维正式推出与HTC Vive合作并得到官方认证的全球首款VR眼球追踪模组——aGlass DK I,以配件的形式提供给Vive用户。

现实生活中,我们优先以眼球转动来快速锁定注视目标;而在目前的VR中,由于眼球追踪技术的不完善,只能采用基于陀螺仪的头动感知方式来锁定目标,不仅增加了不自然的头动,还使目标锁定的过程更长,既不自然、效率也较低。头动仅控制视野,眼动锁定目标——才是VR UI交互中的最佳选择。

不难预见,随着技术越发成熟,未来屏幕的分辨率也会越来越高。尽管目前主流VR头显配备的显示屏分辨率多集中在准2K(2160*1200)和2K(2560*1440),但未来会逐步全面提升到4K、8K,甚至16K。当GPU运算能力的发展渐渐跟不上屏幕显示技术的发展速度时,眼球追踪或许会成为一种必不可少的“曲线救国”式解决方案。

已经推出过两代VR眼球追踪模组的七鑫易维,显然就是为此而生。

作为一家技术驱动型科技公司,成立于2009年的七鑫易维在眼控领域已经有8年的技术积累,不仅对VR有着深刻的理解,又兼备雄厚的眼控技术储备。七鑫易维最初是把眼控技术应用到Google Glass这样的可穿戴产品上面,从2013年开始,开始接触VR。2016年11月,七鑫易维正式推出与HTC Vive合作并得到官方认证的全球首款VR眼球追踪模组——aGlass DK I,以配件的形式提供给Vive用户。

所以,作为一款配件的aGlass可以内置到Vive头显中,为其增加多项基于眼球追踪技术开发的功能,包括注视点渲染、VR眼控交互、眼动大数据以及VR眼控游戏。

产品技术方面, aGlass支持全视场角追踪,可满足人眼转动任何角度,覆盖FOV大于110°的主流VR设备;通过优化眼控算法和累积眼动数据,使得无论是亚洲人或欧美人,还是近视或眼疾用户,都能做到较好的可用性;低延迟,眼控VR算法追踪速度最高380Hz,延迟低于5ms。另外,aGlass可随意拆卸,便于携带和更换。

开箱——黑色包装内的那一小块“模组”


aGlass DK I采用了方方正正的包装盒设计,主色调以黑色为主,正面印有产品图,可以很直观的看到产品的外观。

打开包装盒,就可以看到产品的全家福——2个眼球追踪模组(左眼+右眼),3对近视镜片(分别应对为200°、400°、600°近视),1本说明书,1条数据线,1个拆卸工具以及1个安全控件。

考虑到Vive使用的是菲涅尔透镜,为了避免同心圆纹理会有干扰,aGlass的摄像头被设计在下方。

环绕着透镜的则是一圈红外补光灯,它还有一个Type-C接口用作供电和数据传输。

aGlass的四大应用场景:

注视点渲染:根据人眼注视原理,针对中央凹视野区域渲染,周边区域逐步降低渲染分辩率,降低GPU负荷;这项技术在英伟达MRS(multi-resolution shading)技术的基础上进一步缩小渲染范围,从而大幅提高渲染效率。

VR眼控交互:通过眼动锁定目标的方式交互,相对高效,用户在头部不动的时候,也可以通过注视视野中的不同物体来进行选择。

眼动大数据:对用户观看画面的注视点数据的采集与分析,可提供用户注视轨迹数据、注视区域数据、注视时长数据等特征数据。有了这些数据就可以对产品进行一个整体的分析,改变了传统数据统计行业所带来的复杂感,此设计可运用于广告行业。

而且,七鑫易维还专门为其研发了一款企业级VR内容分析监测工具——VRMonitorPro,它可以通过眼球追踪技术采集数据,包括VR受众的注视轨迹、注视热点,进行数据分析,从而提供VR内容优化整体解决方案。

VR眼控游戏:用眼控交互玩VR第一人称射击游戏,体验真实顶级战斗机的目标瞄准锁定方式,瞬间锁定敌机,一改传统以手柄为主的VR交互方式。

体验前的准备工作——安装简单、校准快速


在体验开始之前,我们需要先将aGlass安装到HTC Vive上。当然,对于近视用户而言,还要记得装上自带的三种(200°、400°、600°)规格的镜片(温馨提示:体验aGlass不支持佩戴自己的眼镜)。

安装成功后,我们需要对其进行校准——通过右键菜单中点击注视点进行校准,随后视野中会出现多个点,在界面下调整头显视距、瞳距和佩戴姿态,从而使视野变得更清晰。

当然了,如果之前已经做过校准,可在该界面校验是否准确。如果校准效果很好,可按键盘ESC按键退出校准程序。如果继续进行校准,单机键盘空格键进入下一场景“瞳孔对准”。

体验——“若有若无”的现实感


首先通过2个游戏场景Demo来体验aGlass的VR眼控交互功能。如上图所示,在这个场景中,我们可以轻而易举的通过眼球追踪那个“小南瓜”。作为回应,每当“小南瓜”被我们的“眼神”追踪到时,它就会跳起来。

在上图所示的另一个场景中,我们可以看见桌子上有一排道具,通过转动眼球,注视某个道具,即可进行与之进行交互。通过眼球追踪这种交互方式,不仅让交互更加自然,同时也有效避免靠频繁转动头部的“头动交互”带来的眩晕感。

通过这个飞机大战游戏Demo,我们体验眼球追踪技术在VR眼控游戏中的应用。在体验过程中,我们可以通过转动眼球调整眼睛注视点的方式,快速选定想要打击的敌方飞机,真正的做到看到哪里打哪里!

对于这个适用于广告行业的“眼动大数据”的体验,如上图所示——在未开启眼动大数据时,我们看到的是一个正常的房间效果图,而开启之后,场景整体呈白色,眼睛看过哪里,哪里的颜色就会加深,并且注视时间越长,颜色也对应的越深。

“眼动大数据”还可以应用在营销数据采集方面,以热力图形式反馈用户目光关注重心,分析观众在关注广告的什么地方、刺激点在哪里、以什么顺序观看等等。目前,七鑫易维已和指挥家合作开发了VR看房项目,用于准确记录用户视觉关注的重点区域,从而让开发商做出对应的策略调整。

至于注视点渲染,最好的验证方式就是通过对比,看它是不是可以降低对GPU的性能需求,或者用相同的GPU渲染出更精致细腻和高帧率的图像。

从实际的对比数据来看,在FunHouse场景中,开启注视点渲染技术后,渲染帧率提高一倍以上,“显存使用”、“GPU负载”以及“显存控制负载”都有很明显的降低。具体来说,未使用注视点渲染时,GPU负载为71%,帧率44.84FPS,延迟22.30ms;使用这项技术后,GPU负载降至34%,帧率达到90.25FPS,延迟降至11ms。

几项体验下来,让我们对aGlass在VR眼控交互、VR游戏交互、眼动交互以及注视点渲染等场景下的应用有了较为深刻的理解和认识,可以看出,不管是精度、稳定性,还是易用性、实用性等方面都表现的不错。唯一美中不足的在于,“习惯”了用头动配合手柄在VR中交互的我们,需要花费点时间去适应用“眼神”交互,而在游戏场景中,当我们集中精力“注视”某一目标并与之产生交互的过程中,不可避免错过了一些风景,这看起来算是个不太好调和的“矛盾”。

总结——眼球追踪技术还未到“爆发期”,但未来可期


毋庸置疑,眼球跟踪技术将在多方面推动着VR行业发展,表面上,它可以被用作一种新的输入形式,实际上,它也是一种很粗糙的思维读取方式——能让VR体验变得更具交互性和针对性。但目前眼控交互还不是很自然简单的交互方式,需要控制眼球转动,时间稍长就会感到疲劳。

不仅如此,在落地上,眼球追踪技术也面临着包括方案成本略高、内容适配不足、硬件装配率不高以及用户习惯和接受等几个有待突破的瓶颈。七鑫易维创始人兼CEO黄通兵此前在接受我们采访时也坦承,眼球追踪的未来在于“弱交互”,并不是要替代经年累月下来用户早已习惯的借助手、脚的“强交互”,而是让机器理解用户的“眼神”,并智能作出反馈。

但从谷歌收购Eyefluence,到Facebook收购Eye Tribe,到阿里巴巴收购EyeVerify,再到苹果收购SMI……从近几年来巨头们对眼球追踪技术相关公司的一笔又一笔重磅收购案中,我们也不难得出这么一个结论——眼球追踪技术是未来的一个趋势,在VR/AR、医疗、广告营销、人工智能、智能驾驶等领域都有着非常广泛的应用前景。

对于本身还处于早期阶段的VR行业来说,眼控交互才刚开始,还有很大的潜力,未来或许会有更多创新交互设计。致力于“让世界读懂你的眼神”的七鑫易维,已经推出并商用专为HTC Vive定制的眼球追踪模组aGlass,提前落好了身位,并且时刻准备着迎接“大爆发”到来的那一天。

我有话说

热门硬件

排名 名称 价格 评分