文件名称:基于卷积神经网络的动态场景视觉注意预测模型.pdf
文件大小:8.33MB
文件格式:PDF
更新时间:2023-05-16 05:11:36
虚拟现实 卷积神经网络 动态场景视觉
2020年IEEE虚拟现实国际*会议资料: 基于卷积神经网络的动态场景视觉注意预测模型。 在虚拟现实领域中,用户的注视信息可以被应用到很多不同的方面。目前虚拟现实中眼动追踪的解决方案主要是基于眼动仪。眼动仪虽然准确,但是价格昂贵、需要校准、且并非广泛可用。此外,眼动仪只能够测量用户当前时刻的注视位置,不能预测用户在未来时刻的注视。 资料中提出了一个新颖的基于CNN的注视预测模型DGaze,该模型可以用于虚拟现实头盔(HMD)中的注视预测。DGaze模型结合了动态物体位置序列、用户头动速度序列、以及场景内容的显著性特征来预测用户的注视位置。