厦门大学郭伟杰Displays:面向近眼显示系统的轻量化高精度眼动追踪
近日,厦门大学电子科学与技术学院郭伟杰课题组在眼动追踪与视觉交互领域取得研究进展。相关成果以“Lightweight deep learning with multi-scale feature fusion for high-precision and low-latency eye tracking”为题,发表于国际期刊《Displays》。
眼动追踪技术是虚拟现实(VR/AR)及辅助医疗等领域的重要基础支撑技术。针对现有眼动追踪系统普遍存在的依赖复杂标定、计算开销大、实时性不足等问题,研究团队提出了一种无需标定的轻量化深度学习眼动追踪方法与头戴式眼动追踪系统方案,在保证高精度的同时显著降低了系统延迟和计算成本。
该研究创新性地设计了一种多尺度特征提取与多模块特征融合的轻量化深度学习网络架构。通过引入注意力机制,对与注视方向高度相关的关键特征进行自适应增强,并结合多层特征融合策略,有效提升了在复杂光照和不同个体条件下的鲁棒性。同时,研究团队在网络中采用高效激活函数与轻量化卷积结构,在保持模型表达能力的同时显著减少参数规模,使模型更加适合嵌入式与移动平台部署。
在系统实现方面,研究团队自主研制了一套头戴式眼动追踪硬件装置,集成红外光源、眼部摄像头与场景摄像头,并结合所提出的深度学习算法,实现了完全无需用户标定的注视点估计。实验结果表明,该系统在多种光照条件下均保持稳定性能,最高角度精度达到1.76°。
该成果为低成本、低延迟、可穿戴眼动追踪系统的实际应用提供了新的技术路径,在AR/VR近眼显示视觉交互、辅助康复、教育评估以及环境艺术设计等领域具有良好的应用前景。该研究得到福建省科技计划项目、福建省技术创新重点攻关及产业化项目、深圳市科技计划等科研项目的支持。郭伟杰为通讯作者。
图1 所研制的眼动追踪测试装置
图2眼动追踪系统性能对比