基于嵌入式系统的眼动跟踪技术研究进展
Research Progress on Eye Tracking Technology Based on Embedded Systems
DOI: 10.12677/sea.2025.144075, PDF, HTML, XML,   
作者: 秦豆豆:上海理工大学健康科学与工程学院,上海;颜 敏:成都中医药大学眼科学院,四川 成都
关键词: 眼动跟踪嵌入式系统低功耗可穿戴设备Eye-Tracking Embedded Systems Low Power Wearable Devices
摘要: 眼动跟踪技术作为人机交互、医疗辅助、智能驾驶和虚拟现实等领域的重要支撑手段,近年来在嵌入式系统发展的推动下展现出显著的应用潜力。与传统平台相比,嵌入式系统具有体积小、功耗低和响应快等特点,更加适合部署于智能眼镜、可穿戴设备等对实时性与能效要求严格的场景。本文系统梳理了眼动跟踪的基本原理及人眼运动类型,分析了嵌入式系统的典型组成框架,并列举了当前主流的眼动跟踪方法。针对系统集成中存在的功耗瓶颈、计算资源限制以及数据互操作性差等问题,总结了相关优化策略及代表性成果。结合发展趋势,提出未来研究应关注低功耗算法设计、隐私保护与合规性等方向,以促进眼动跟踪技术从实验研究向大众化、低功耗、高集成的实际应用转变。
Abstract: Eye-tracking technology, as an important support tool in areas such as human-computer interaction, medical assistance, intelligent driving and virtual reality, has demonstrated significant application potential in recent years, driven by the development of embedded systems. Compared with traditional platforms, embedded systems have the characteristics of small size, low power consumption and fast response, making them more suitable for deployment in smart glasses, wearables and other scenarios where real-time performance and energy efficiency are strictly required. This paper systematically appears to comprise the basic principles of eye movement tracking and the types of human eye movement, what the analysis tends to support is a typical composition framework of embedded systems, and lists what appears to represent the current mainstream eye movement tracking methods. What seems to emerge from these findings regarding relevant optimization strategies and representative results were largely summarized for problems such as power consumption bottlenecks, computing resource limitations and poor data interoperability in system integration. What the evidence appears to reveal, given the complexity of these theoretical relationships, is that combined with the development trend, it seems to lend support to what may represent that future research should apparently focus on low-power algorithm design, privacy protection and compliance, in order to promote eye tracking technology from what appears to be experimental research to practical application that are popular, low-power, and highly integrated.
文章引用:秦豆豆, 颜敏. 基于嵌入式系统的眼动跟踪技术研究进展[J]. 软件工程与应用, 2025, 14(4): 855-865. https://doi.org/10.12677/sea.2025.144075

1. 引言

眼动跟踪技术是一种通过检测和分析人眼运动轨迹以获取注意力、认知状态和行为意图的关键手段,广泛应用于人机交互[1]、医疗保健[2]、驾驶辅助系统[3]、虚拟现实[4]、教育培训[5]等场景。与传统计算平台相比,在可穿戴设备中的嵌入式系统依靠微型化、低功耗和实时响应等特性,成为部署眼动跟踪算法的理想载体。但是,在嵌入式系统中部署复杂的图像处理和机器学习算法,面临算力不足、存储限制、功耗管理等多方面挑战[6]。怎样在保证实时性和精准性的前提下[7],减少系统的功耗量、优化硬件资源的利用水平,是现阶段研究的热点。本综述旨在总结眼动跟踪在嵌入式系统的应用及相关研究进展,讨论现阶段的潜在问题,也对未来发展的方向进行展望。

2. 眼动跟踪基本原理与系统组成

2.1. 人眼的生理结构及眼动类型

人眼的生理结构(包括角膜、瞳孔、虹膜、视网膜等)为眼动跟踪提供了物理基础。眼睛的形状为半径约12 mm的近似球形,在眼窝中可见的眼睛外部部分是巩膜(眼睛的白色部分)、虹膜(眼睛的彩色部分)和位于眼窝中的瞳孔[8]。虹膜的中心角膜是一层透明的保护膜,没有血管,向前方突出,覆盖虹膜。虹膜中心有一个圆形的光圈,称为瞳孔,它通过不断改变大小来调节进入眼睛的光量。虹膜后面是晶状体,一种双凸的多层结构。晶状体的形状在调节过程中会发生变化,调节过程允许将物体的图像带到视网膜中的锐焦点,视网膜是位于眼睛后部的包含光敏细胞的薄层,在晶状体和视网膜之间的空间是透明的凝胶状玻璃体,如图1所示。

通过检测瞳孔中心、虹膜边缘或反射点的变化,可以推算眼球的运动轨迹与注视方向。由于视觉感知是大脑中最基本的感觉交互之一,因此眼动轨迹包含了有关生理、心理健康、感知、意图和偏好的关键信息。眼球的运动轨迹可以被捕捉为信号,用于不同的应用[9]。目前眼动跟踪的热门方法主要分为以下几种[10] [11]:视频眼动图(video-based oculography, VOG)、红外眼动图(infrared oculography, IOG)、眼电图(electrooculography, EOG)、巩膜探测线圈技术和微型传感器。

Figure 1. Human eye structure

1. 眼睛结构图1

眼球运动是视觉认知活动的重要组成部分,常见的眼动类型包括注视、眼跳和追随运动[12]。注视是眼球持续停留在目标物体上以获取信息。在注视过程中,眼睛的睫状肌会保持一定的紧张状态,使晶状体的形状相对稳定,从而使视线能够集中在特定的目标上;眼跳运动,又称扫视,常发生于阅读或寻找目标,此时眼球在不同的注视点之间快速移动,重新定位目标;追随运动则是指眼球以相对稳定、连续的速度,跟随一个移动目标的过程,以使目标图像保持在视网膜的中央(黄斑区)以获得清晰视觉[13]

2.2. 嵌入式系统组成框架

随着嵌入式硬件和软件的技术进步,眼动跟踪设备也从笨重,耗时的头戴式显示器转变为轻巧、不显眼的可穿戴设备。例如,Tobii Pro Glasses 2 [14],Pupil Invisible [15]。不少嵌入式开发板能够同时满足机器学习算法与通讯设备集成,将眼球跟踪系统与互联网或其他智能设备互联,整体更加智能,可以更好地满足用户日常所需。

典型的眼动跟踪设备是眼动仪,也是市面上最热销的产品。眼动仪的系统通常由硬件模块与软件模块两部分组成。硬件模块包括:图像采集装置(可见光摄像头或红外摄像头);光源系统(用于增强眼部特征,例如红外LED);处理单元(如微控制器、AI芯片、SoC);存储与通信模块(用于数据存储与上传)。软件模块包括:图像预处理(去噪、增强、ROI提取);眼球检测与定位(如瞳孔识别、虹膜边界提取);视线估计算法(几何法、学习法等);状态判断与交互响应模块。

3. 嵌入式系统眼动跟踪技术分类与实现

在嵌入式系统中,已有学者在K210 [16]、树莓派[17]等平台上成功部署轻量级瞳孔检测和眼动跟踪算法。眼动跟踪的实现方法基本可分为以下几类:

3.1. 光学式眼动跟踪

3.1.1. 基于VOG的眼动跟踪

VOG是当前应用最广泛的眼动跟踪技术之一。该方法利用可见光摄像头对人眼进行图像采集,并通过图像处理算法提取眼球的关键特征(如瞳孔中心、角膜反射等)。通过对图像序列逐帧分析,可实现对眼睛运动轨迹与注视点的精确计算。

医学领域是VOG的典型应用场景,可以通过视频图像跟踪眼球运动,分析青光眼患者的偏斜眨眼轨迹[18]。由于VOG的检查过程无创、较为舒适,波形分析和量化十分可靠,也常被应用于诊断瞳孔分散[19],以及用于分析患者的眼球震颤[20]。但是实时眼动分析的耗电量和计算量较大,需要每秒数十帧连续检测眼睛的运动状态。关键的想法是,眼睛的图像是非常冗余的,并非所有图像细节都需要进行分析。Mayberry等人[21]使用低功耗ARM Cortex M3微控制器,仅处理每帧图像中的眼球区域,实现了连续的检测眼睛运动。不足的地方在于,用户快速转动头部时,摄像头容易丢失眼球特征,需结合惯性测量单元(IMU)、同步定位与建图(SLAM)技术进行运动补偿。

在头戴式产品中,质量更好的眼睛图像意味着质量更好的跟踪,摄像机位置是限制图像质量的一个重要因素,通常使用倾斜的摄像头或多摄像头布局以减少睫毛、眼皮遮挡[22]。进而提供更多可用于分析的像素信息,这有助于提高跟踪的空间分辨率与鲁棒性。此法不仅适用于静态场景下的视线追踪,也支持用户在动态环境中进行自然交互。但是VOG通常使用可见光摄像头,受自然光或室内光照条件影响较大。此外,拍摄过程中往往会包含用户的眼周特征,这些数据若未经用户同意被收集或用于商业分析,容易引发隐私问题。

3.1.2. 基于IOG的眼动跟踪

IOG是一种基于红外成像的非接触式眼动追踪方法。该方法利用红外光源照射眼部,并通过红外摄像头捕捉图像中的关键特征,包括瞳孔中心位置与角膜反射点(又称第一普尔金耶像)。当眼球发生旋转时,瞳孔中心与角膜反射点在图像中的相对位置会发生变化。通过对这些变化进行逐帧分析,嵌入式系统可以精确计算出眼球的朝向和注视点,如图2所示。

Figure 2. Working principle diagram of IOG

2. IOG的工作原理图2

Miladinovic等人[23]使用高分辨率照相机、红外LED,通过追踪鼻梁上的标记点,诊断儿童的视觉障碍。由于成本低且方便易用,为早期诊断立体视觉缺陷提供了新工具。然而,虹膜可能被眼睑部分遮挡,系统的检测精度有限,垂直眼动检测不如水平方向稳定。并且需粘贴标记点,不便在皮肤敏感的儿童中应用。

Crafa等人[24]通过将光电探测器集成到眼镜镜片的边缘,仅用4个光电探测器的信号作为输入,即可构建视线的运动方向。但是光路优化不足,眼动跟踪精度远低于商用眼动仪。系统需红外LED主动照明,未考虑多光源竞争或动态光照条件,容易受环境光干扰。

Khaki等人[25]基于形态学操作检测瞳孔中心(PC)和角膜闪烁中心(GC),通过建立PC-GC向量与屏幕的映射关系来估计用户的注视方向。同时采用行缓冲和窗口缓冲进行硬件加速,实现高速推理。但是,此法过于依赖人工设定阈值和迭代次数,无法自适应不同用户差异以及光照条件,实际应用中可能因动态环境导致性能下降。

在体积受限的情况下,如何最大限度的做到低功耗和高精度检测,是当前的热门研究方向。Pezzoli等人[26]设计了一种用于智能眼镜的低功耗分层神经网络(HNN),以及全天候持续运行的低功耗系统,用于实现智能眼镜上的红外眼动跟踪。然而,该系统仅在机器人上仿真模拟,并未验证真人数据。也没有讨论头部移动(如走路、转头)对眼动信号的影响。

Pettenella等人[27]提出了一种无摄像头的智能眼镜眼动跟踪解决方案,该方案利用集成在镜片边缘的红外光电探测器来追踪眼睛的运,低功耗,可以全天佩戴。但是仅测试了少量支援者,并未充分测试不同面部结构、眼镜佩戴位置或环境光干扰的影响。

与VOG相比之下,IOG抗环境光干扰能力强,尤其适合低光照环境与头部动态交互场景,如临床医学和驾驶监测。相比之下,IOG在精度和鲁棒性方面更具优势,硬件体积较小,适合嵌入式设备。VOG则在可实现性和功能扩展性方面更为强大,系统结构更为灵活,但是通常需要较大的摄像头模组,容易遮挡用户的视线。

VOG和IOG的跟踪都是基于光学信号,表1对上述两种眼动跟踪方法进行了对比分析。

Table 1. Comparison of VOG and IOG tracking technologies

1. VOG与IOG跟踪技术对比

方法

精度

侵入性

优势

劣势

应用场景

VOG

中等

非侵入式

技术成熟;适用范围广;可记录完整轨迹

体积大;易受环境干扰;有隐私风险

人机交互分析、心理学实验

IOG

非侵入式

抗环境光干扰;易集成;高帧率

佩戴需校准;

医疗设备、可穿戴眼动仪

3.2. 接触式眼动跟踪

3.2.1. 基于EOG的眼动跟踪

EOG是一种基于生物电信号的眼动追踪方法,通过在眼睛周围放置电极,测量由眼球运动引起的角膜与视网膜之间的电位差来实现对眼球位置的估计[28],如图3所示。与基于光学成像的技术不同,EOG 不依赖于摄像头或图像处理,因此具有较强的隐私保护能力与环境鲁棒性,并且能检测包括快速眼跳在内的高速眼动。EOG 通常不适用于日常使用场景,主要用于临床医学、神经康复、睡眠监测等专业领域。

通常情况下,EOG会与脑电、肌电等结合,构建更精准、响应更丰富的人机交互系统。Tsui等人[11]结合肌电信号与眼电信号开发了一款免手动操作的控制系统,用于控制电动轮椅。通过采集眼动与眉肌信号,经过嵌入式设备处理后,转换为多方向控制命令(向前,向左,向右等)。但是这些信号容易受到非控制性表情影响(如眨眼、皱眉、笑等)。受到电极位置限制,EOG 信号用于速度调节时精度不高。

VOG主要适用于静态环境下的精确监测,而EOG更适用于移动场景与相对眼动分析,如手势控制、方向导航[29]。但是眼电信号易受噪声干扰(如电源干扰、皮肤电阻变化)。长时间记录会产生电位漂移,需要校准或滤波补偿。因电极贴近皮肤,用户接受度不如非接触方式。此外,用户的眼动与意图不一定等同,需要设计更加智能的算法加以区分。

Figure 3. Electrode distribution of electrooculogram

3. EOG的电极位置分布3

3.2.2. 基于巩膜探测线圈的眼动跟踪

巩膜探测线圈技术是一种高精度眼动跟踪方法,其核心原理是将微型感应线圈嵌入特制的硅胶隐形眼镜或环状支架中,并置于巩膜表面,外形如图4所示。通过测量线圈在磁场中的感应电流来确定眼睛的位置,这种方法以高角度分辨率和快速响应时间而闻名[10]

Figure 4. A scleral search coil system

4. 一种巩膜探测线圈4

当前嵌入式系统中的眼动追踪多采用光学方式,存在精度低、延迟大、对环境敏感等问题。相比之下,巩膜探测线圈是精度最高的眼动追踪方式[30]。Ghosh等人[31]利用四线圈的互感原理进行测距,在眼睛上放置一组薄的半圆形线圈,通过测量这些线圈之间的感应电动势,从而确定眼睛的注视角度。不足之处在于,系统仅支持二维距离测量,只能估算水平视角与距离,尚未支持垂直方向。

由于巩膜探测线圈属于高侵入式装置,需直接与眼球表面接触,对用户的生理舒适度构成挑战。Bevilacqua等人[32]将磁偶极追踪算法、磁阻传感阵列集成于护目镜之中,通过在角膜镜中嵌入磁体实现了非接触式跟踪。尽管如此,佩戴过重的角膜镜容易有异物感,长时间使用可能引发眼部干涩、刺激或滑动移位,严重时甚至影响跟踪数据的稳定性。此外,该技术需要在特定磁场环境中配合复杂校准流程,不利于日常使用。

EOG和巩膜探测线圈跟踪的特点为接触式或侵入式。表2对EOG和巩膜探测线圈进行了对比分析。

Table 2. Comparison of EOG and scleral search coil tracking technologies

2. EOG与巩膜探测线圈跟踪技术对比

方法

精度

侵入性

优势

劣势

应用场景

EOG

接触式(需贴电极)

无光依赖;隐私性好;超低延迟

需频繁校准;无法检测瞳孔大小;长期佩戴不适

辅助控制、睡眠研究

巩膜探测线圈

最高

高侵入性

精度高;不受环境影响;可同步测量头部运动

用户接受度低;易滑动需固定;成本高

神经科学研究、前庭功能评估

3.3. 基于微型传感器的眼动跟踪

随着传感技术的发展,研究人员开始探索非光学、非侵入式的眼动跟踪方法。这类技术不依赖传统摄像头或红外成像,也并非采用侵入式的探测器,而是通过微型传感器直接检测眼球运动引起的物理信号变化,具备低延迟、低功耗、高采样率等潜在优势。

虽然基于摄像头的嵌入式系统识别准确率较高,但是相机模块的位置经常干扰用户的视野,也难以集成到智能眼镜框架中,限制了在可穿戴设备中的应用。MEMS微镜体积微小(毫米级),重量轻,可集成到各种设备中,如智能眼镜[33]、AR和VR头显设备[34]。解决了传统摄像头的大尺寸问题,实现传感器在眼镜框架中的隐形设计。MEMS微镜的驱动功耗为毫瓦级[35],远低于传统摄像头。尽管有诸多优势,可MEMS微镜对环境条件较为敏感。除了光照条件外,电磁干扰、空气中的灰尘颗粒等外部因素也会对MEMS微镜的信号产生影响。

动态视觉传感器(DVS),是一种基于事件驱动的视觉传感器,专注于捕捉场景中的动态变化,而不是像传统相机那样捕捉静态图像,这使得基于DVS的眼动跟踪设备功耗极低。利用DVS捕捉像素亮度变化,通过眼球运动引起的局部动态特征可以快速检测眼睛转动[36]。在VR、AR设备中,用户可能会在各种不同的光照环境下使用,DVS对光强变化非常敏感[37],能够处理从极暗到极亮的场景。但DVS在眼球跟踪应用中仍面临模型泛化性差、依赖特定校准等问题,需结合机器学习。相比传统的眼动跟踪技术,基于DVS的眼动跟踪技术仍处于发展阶段,相关的算法和应用生态还不够成熟。

柔性传感器[38]具备可弯曲性和小于1 mm的厚度,易于穿戴,具有高灵敏度,能够检测眼睛的微妙运动。当眨眼和眼球转动时,传感器会将眼睛运动引起的机械变形转换为电信号,克服了传统眼动追踪系统体积大、成本高、需频繁校准和信号弱等局限性。然而,柔性传感器与皮肤贴合时可能会出现空隙以及相对位移,进而产生干扰,降低数据的质量和可靠性。此外,高温、高湿环境可能会影响柔性传感器的性能。

在可穿戴设备中,设备功率受到微型电池的限制,这些电池通常安装在太阳穴两侧,仅为嵌入式系统提供几个毫瓦。这种功率限制对嵌入式系统的计算与感知能力提出了更高的低功耗要求。针对这一挑战,Li等人[39]设计一种名为LiGaze的嵌入式系统,专用于VR设备。该系统依靠几个低成本的光电二极管,根据瞳孔的光吸收特性来推断眼球转动方向。此外,为进一步提升系统的环境适应性,研究人员还考虑采用超声波传感器[40]作为补充。超声波传感器不会受环境光影响,且具有低功耗和快速响应的特点,完全可以由太阳能电池供电,其在持续运行的可穿戴设备中具有极高的应用潜力。

综上所述,基于微型传感器的眼动跟踪在嵌入式设备中表现各具特色。表3对此类非光学、非侵入式的眼动跟踪方式进行了对比分析。

Table 3. Comparison of eye tracking technologies using different sensors

3. 不同传感器的眼动跟踪技术对比

传感器类型

优点

局限性

适用场景

MEMS微镜

低功耗,非侵入式,超高采样率,微型化

需精密光学校准,扫描范围有限

智能眼镜等可穿戴设备

动态视觉传感器

超低延迟、高动态范围

数据处理复杂,高成本

高速眼动研究、神经形态计算

柔性传感器

低功耗、无光依赖

仅适合眼睑或眼周监测

长周期健康监测

光电二极管

结构简单、成本低

易受环境光影响,精度较低

VR设备、消费级穿戴设备

超声波传感器

非接触、实时性好

精度受限,容易受眼眶结构遮挡影响

AR、VR设备

4. 不足与展望

4.1. 不足

4.1.1. 临床应用合规性问题

医疗辅助等场景涉及生物安全性、数据隐私和医疗器械认证,需满足安全标准与监管要求。红外光源长期照射可能对眼睛造成伤害,需严格限制光强和曝光时间。侵入式设备(如巩膜线圈)的机械摩擦或磁场干扰可能损伤角膜或视网膜。部分眼动跟踪设备,例如南京大学朱衡天[41]研发的眼动跟踪隐形眼镜,直接接触角膜,需符合第三类医疗器械标准,并通过细胞毒性测试、生物相容性测试。

4.1.2. 隐私与功能平衡性问题

便携式设备通常依赖电池供电,电量储备有限。为了延长续航时间,眼动跟踪系统需在硬件与算法层面进行低功耗优化,以最大限度地降低能耗[42]。低功耗使得全天候眼动跟踪成为可能,同时也引发了隐私担忧[43]。眼动数据包含用户的敏感信息,包括注意力分布、健康状况,若未经加密或匿名化处理,可能被滥用或泄露。眼动数据具有生物特征唯一性,应该存储在设备还是上传至云端,技术设计需要提前考虑合规性。

4.1.3. 接口标准化与数据互操作性问题

不同嵌入式设备的数据格式不互通,整合难度大。这导致在多设备协同工作或数据共享时,面临数据无法有效整合和利用的问题,影响了眼动跟踪技术在实际应用中的效率。目前缺乏统一的眼动数据格式与接口标准,导致跨平台兼容性差。开源生态不完善,算法和硬件方案碎片化。

4.1.4. 眼动跟踪的稳定性

在AR、VR领域,用户长时间佩戴设备会出现眼睛疲劳,伴随着泪液分泌增加,频繁眨眼,注意力也会分散。用户行为的变化会使跟踪系统难以准确捕捉到实际注视点。头部快速运动或复杂背景(如驾驶场景)会降低跟踪精度,需结合IMU或SLAM技术补偿,但这样将增加嵌入式系统的复杂度。未来研究可以集中在提高跟踪精度、增强对用户多样性的适应能力、优化硬件设计以支持更高的采样率。

4.2. 展望

针对当前的问题,嵌入式系统的眼动跟踪技术仍具有广阔的发展前景。

对于临床应用合规性问题,未来可以建立严格的产品研发和测试流程,确保所有眼动跟踪设备符合相应的医疗器械标准。对于高风险的侵入式设备,可以选择更柔软、生物相容性更高的材料,减少机械摩擦对角膜和视网膜的损伤[38]。同时,提前进行细胞毒性测试、生物相容性测试等,确保产品在上市前的安全性和可靠性。

为了保护好用户隐私,可以对眼动数据进行加密和匿名化处理,确保数据在传输和存储过程中的安全性。同时,明确数据所有权,让用户能够自主控制自己的眼动数据,决定是否上传至云端。在硬件层面,可以通过优化压缩算法[44]和硬件加速[45]技术,实现嵌入式系统的低功耗优化,更好的满足实时性要求。

针对接口标准与数据互通问题,未来需要推动行业制定统一的眼动数据格式和接口标准,促进不同设备之间的数据互通和共享。搭建数据整合与共享平台,为用户提供便捷的数据管理和分析工具,帮助用户更好地利用多设备采集眼动数据。

最后,集成于可穿戴嵌入式设备中的眼动跟踪技术,未来有望彻底变革人类与数字环境的交互模式。实现稳定且精准的眼动跟踪检测,将是未来研究的核心议题。针对资源受限的嵌入式设备[46],开发并部署轻量化模型[47],将有力推动该技术在硬件资源受限场景下的广泛应用。未来可以通过融合多传感器数据以补偿头部运动及环境干扰,提升眼动跟踪的精度。

5. 总结

眼动跟踪技术作为人机交互、医疗辅助、虚拟现实等领域的重要支撑手段,正随着嵌入式系统不断发展,逐步朝着便携、低功耗、高集成度方向迈进,本文对眼动跟踪的基本原理与系统组成进行了系统梳理,详细介绍了VOG、IOG、EOG、巩膜探测线圈技术与微型传感器等多种技术在嵌入式平台上的研究进展,指出各类方法的优点与弊端。

在实际部署中,嵌入式眼动跟踪系统需要在精度与功耗、实时性与计算复杂度之间做出平衡。可以通过软硬件协同设计、模型轻量化、图像压缩与数据预处理等手段,不断拓展系统性能的边界。近年来,面向可穿戴设备的低功耗技术方案不断涌现,推动眼动跟踪从实验室走向大众消费市场。

目前依然存在临床合规性、数据隐私保护、系统互操作性和跟踪稳定性等现实挑战。未来,眼动跟踪技术的发展将聚焦于系统集成度提升、算法的跨平台适应性以及在多模态感知系统中的协同优化。随着人工智能、可穿戴硬件、新型传感器等领域的不断进步,嵌入式眼动跟踪有望在健康监测、辅助医疗、人机交互等方面发挥更出色的效果。

NOTES

1图片根据文献表述,二次手绘。已获取授权信息。原文:Eye gaze tracking techniques for interactive applications,DOI:https://doi.org/10.1016/j.cviu.2004.07.010

2图片来自文献,Figure 4,已获取授权信息。原文:Eye Tracking Algorithms, Techniques, Tools, and Applications with an Em phasis on Machine Learning and Internet of Things Technologies,DOI:https://doi.org/10.1016/j.eswa.2020.114037。

3图片源自开源文献,Figure 2,原文:Advances in Materials, Sensors, and Integrated Systems for Monitoring Eye Movements,链接:https://doi.org/10.3390/bios12111039。

4图片来自文献,Figure 3。已获取授权信息。原文:Eye Tracking Algorithms, Techniques, Tools, and Applications with an Em phasis on Machine Learning and Internet of Things Technologies,DOI:https://doi.org/10.1016/j.eswa.2020.114037。

参考文献

[1] Wang, Z., Li, S. and Shen, G. (2025) Advanced Sensory Hardware for Intelligent Eye‐Machine Interfacing: From Wearables to Bionics. Advanced Functional Materials.
https://doi.org/10.1002/adfm.202503519
[2] Al-Moteri, M.O., Symmons, M., Plummer, V. and Cooper, S. (2017) Eye Tracking to Investigate Cue Processing in Medical Decision-Making: A Scoping Review. Computers in Human Behavior, 66, 52-66.
https://doi.org/10.1016/j.chb.2016.09.022
[3] Kumar, S. and Raja, P. (2014) Study on Smart Wheelchair Based on Microcontroller for Physically Disabled Persons. International Journal of Recent Research Aspects, 2, 97-103.
[4] 范家玮, 魏中华. VR虚拟现实场景眼动交互信号动态预测方法研究[J]. 自动化与仪器仪表, 2021(4): 1-3+7.
[5] Deng, R. and Gao, Y. (2022) A Review of Eye Tracking Research on Video-Based Learning. Education and Information Technologies, 28, 7671-7702.
https://doi.org/10.1007/s10639-022-11486-7
[6] 张华威. 基于深度学习的超低功耗目标检测系统研究[D]: [硕士学位论文]. 西安: 西安电子科技大学, 2023.
[7] 韩伟. 基于SOM-RK3399的可穿戴式眼-机交互接口装置研究[D]: [硕士学位论文]. 太原: 中北大学, 2020.
[8] Morimoto, C.H. and Mimica, M.R.M. (2005) Eye Gaze Tracking Techniques for Interactive Applications. Computer Vision and Image Understanding, 98, 4-24.
https://doi.org/10.1016/j.cviu.2004.07.010
[9] Majaranta, P. and Bulling, A. (2014) Eye Tracking and Eye-Based Human-Computer Interaction. In: Fairclough, S.H. and Gilleade, K., Eds., Human-Computer Interaction Series, Springer, 39-65.
https://doi.org/10.1007/978-1-4471-6392-3_3
[10] Klaib, A.F., Alsrehin, N.O., Melhem, W.Y., Bashtawi, H.O. and Magableh, A.A. (2021) Eye Tracking Algorithms, Techniques, Tools, and Applications with an Emphasis on Machine Learning and Internet of Things Technologies. Expert Systems with Applications, 166, Article ID: 114037.
https://doi.org/10.1016/j.eswa.2020.114037
[11] Tsui, C.S.L., Jia, P., Gan, J.Q., Hu, H. and Yuan, K. (2007) EMG-Based Hands-Free Wheelchair Control with EOG Attention Shift Detection. 2007 IEEE International Conference on Robotics and Biomimetics (ROBIO), Sanya, 15-18 December 2007, 1266-1271.
https://doi.org/10.1109/robio.2007.4522346
[12] 陈庆荣, 周曦, 韩静, 等. 眼球追踪: 模式、技术和应用[J]. 实验室研究与探索, 2012, 31(10): 10-15.
[13] Carl, J.R. and Gellman, R.S. (1987) Human Smooth Pursuit: Stimulus-Dependent Responses. Journal of Neurophysiology, 57, 1446-1463.
https://doi.org/10.1152/jn.1987.57.5.1446
[14] Niehorster, D.C., Hessels, R.S. and Benjamins, J.S. (2020) Glassesviewer: Open-Source Software for Viewing and Analyzing Data from the Tobii Pro Glasses 2 Eye Tracker. Behavior Research Methods, 52, 1244-1253.
https://doi.org/10.3758/s13428-019-01314-1
[15] Ehinger, B.V., Groß, K., Ibs, I. and König, P. (2019) A New Comprehensive Eye-Tracking Test Battery Concurrently Evaluating the Pupil Labs Glasses and the Eyelink 1000. PeerJ, 7, e7086.
https://doi.org/10.7717/peerj.7086
[16] 孙旺, 付泽民, 赵志繁. 一种基于YOLOv6n的轻量化疲劳驾驶检测算法[J]. 汽车画刊, 2024(2): 78-80.
[17] 盛啸, 冯丽娜, 黄远彬, 等. 基于树莓派和OpenCV的瞳孔追踪和眼球控制系统[J]. 信息通信, 2019(5): 105-106.
[18] Yeon, J.S., Jung, H.N., Kim, J.Y., Jung, K.I., Park, H.L., Park, C.K., et al. (2023) Deviated Saccadic Trajectory as a Biometric Signature of Glaucoma. Translational Vision Science & Technology, 12, Article No. 15.
https://doi.org/10.1167/tvst.12.7.15
[19] Ivanchenko, D., Rifai, K., Hafed, Z.M. and Schaeffel, F. (2021) A Low-Cost, High-Performance Video-Based Binocular Eye Tracker for Psychophysical Research. Journal of Eye Movement Research, 14, Article No. 16910.
https://doi.org/10.16910/jemr.14.3.3
[20] Kim, H. and Park, S. (2021) Video-Oculographic Analysis in Nystagmus Patients. Journal of the Korean Ophthalmological Society, 62, 674-679.
https://doi.org/10.3341/jkos.2021.62.5.674
[21] Mayberry, A., Hu, P., Marlin, B., Salthouse, C. and Ganesan, D. (2014) iShadow: Design of a Wearable, Real-Time Mo-bile Gaze Tracker. Proceedings of the 12th Annual International Conference on Mobile Systems, Applications, and Services, Bretton Woods, 16-19 June 2014, 82-94.
https://doi.org/10.1145/2594368.2594388
[22] Adhanom, I.B., MacNeilage, P. and Folmer, E. (2023) Eye Tracking in Virtual Reality: A Broad Review of Applications and Challenges. Virtual Reality, 27, 1481-1505.
https://doi.org/10.1007/s10055-022-00738-z
[23] Miladinović, A., Quaia, C., Kresevic, S., Ajčević, M., Diplotti, L., Michieletto, P., et al. (2024) High-Resolution Eye-Tracking System for Accurate Measurement of Short-Latency Ocular Following Responses: Development and Observational Study. JMIR Pediatrics and Parenting, 7, e64353-e64353.
https://doi.org/10.2196/64353
[24] Crafa, D.M., Di Giacomo, S., Natali, D., Fiorini, C.E. and Carminati, M. (2024) Towards Invisible Eye Tracking with Lens-Coupled Lateral Photodetectors. Proceedings of the 2024 Symposium on Eye Tracking Research and Applications, Glasgow, 4-7 June 2024, 1-7.
https://doi.org/10.1145/3649902.3656354
[25] Khaki, A.M.Z., Yang, S., Kim, H., Singh, A. and Lee, B. (2023) A Resource-Efficient Multi-Function Embedded Eye Tracker System Implemented on FPGA. IEEE Access, 11, 142931-142939.
https://doi.org/10.1109/access.2023.3342839
[26] Pezzoli, C., Santoro, E., Paracchini, M.B.M., Marano, G., Bani, D., Raduzzi, L.F., et al. (2025) Low-Power Hierarchical Network: Pervasive Eye-Tracking on Smart Eyewear. Proceedings of the 2025 Symposium on Eye Tracking Research and Applications, Tokyo, 26-29 May 2025, 1-7.
https://doi.org/10.1145/3715669.3727346
[27] Pettenella, A., Crafa, D.M., Spagnoli, J., Pezzoli, C., Paracchini, M., Di Giacomo, S., et al. (2025) Development of a Low-Power Wearable Eye Tracker Based on Hidden Photodetectors. Proceedings of the 2025 Symposium on Eye Tracking Research and Applications, Tokyo, 26-29 May 2025, 1-7.
https://doi.org/10.1145/3715669.3727347
[28] Ban, S., Lee, Y.J., Kim, K.R., Kim, J. and Yeo, W. (2022) Advances in Materials, Sensors, and Integrated Systems for Monitoring Eye Movements. Biosensors, 12, Article No. 1039.
https://doi.org/10.3390/bios12111039
[29] Shi, Y., Yang, P., Lei, R., Liu, Z., Dong, X., Tao, X., et al. (2023) Eye Tracking and Eye Expression Decoding Based on Transparent, Flexible and Ultra-Persistent Electrostatic Interface. Nature Communications, 14, Article No. 3315.
https://doi.org/10.1038/s41467-023-39068-2
[30] Whitmire, E., Trutoiu, L., Cavin, R., Perek, D., Scally, B., Phillips, J., et al. (2016) EyeContact: Scleral Coil Eye Tracking for Virtual Reality. Proceedings of the 2016 ACM International Symposium on Wearable Computers, Heidelberg, 12-16 September 2016, 184-191.
https://doi.org/10.1145/2971763.2971771
[31] Ghosh, C., Mastrangelo, A., Karkhanis, M., Deshpande, A., Banerjee, A., Kim, H., et al. (2021) Low-Profile Induced-Voltage Distance Ranger for Smart Contact Lenses. IEEE Transactions on Biomedical Engineering, 68, 2203-2210.
https://doi.org/10.1109/tbme.2020.3040161
[32] Bevilacqua, G., Biancalana, V., Carucci, M., Cecchi, R., Chessa, P., Donniacuo, A., et al. (2023) A Wearable Wireless Magnetic Eye-Tracker, In-Vitro and In-Vivo Tests. IEEE Transactions on Biomedical Engineering, 70, 3373-3380.
https://doi.org/10.1109/tbme.2023.3286424
[33] Huang, Z., Duan, X., Zhu, G., Zhang, S., Wang, R. and Wang, Z. (2024) Assessing the Data Quality of Adhawk Mindlink Eye-Tracking Glasses. Behavior Research Methods, 56, 5771-5787.
https://doi.org/10.3758/s13428-023-02310-2
[34] Meyer, J., Schlebusch, T., Fuhl, W. and Kasneci, E. (2020) A Novel Camera-Free Eye Tracking Sensor for Augmented Reality Based on Laser Scanning. IEEE Sensors Journal, 20, 15204-15212.
https://doi.org/10.1109/jsen.2020.3011985
[35] Sarkar, N., Strathearn, D., Lee, G., Olfat, M., Rohani, A. and Mansour, R.R. (2015) A Large Angle, Low Voltage, Small Footprint Micromirror for Eye Tracking and Near-Eye Display Applications. 2015 Transducers-2015 18th International Conference on Solid-State Sensors, Actuators and Microsystems (TRANSDUCERS), Anchorage, 21-25 June 2015, 855-858.
https://doi.org/10.1109/transducers.2015.7181058
[36] Bonazzi, P., Bian, S., Lippolis, G., Li, Y., Sheik, S. and Magno, M. (2024) Retina: Low-Power Eye Tracking with Event Camera and Spiking Hardware. 2024 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW), Seattle, 17-18 June 2024, 5684-5692.
https://doi.org/10.1109/cvprw63382.2024.00577
[37] Tan, S., Yang, J., Huang, J., Yang, Z., Chen, Q., Zheng, L., et al. (2025) Toward Efficient Eye Tracking in AR/VR Devices: A Near-Eye Dvs-Based Processor for Real-Time Gaze Estimation. IEEE Transactions on Circuits and Systems I: Regular Papers, 1-13.
https://doi.org/10.1109/tcsi.2025.3553497
[38] Kim, N., Chen, J., Wang, W., Moradnia, M., Pouladi, S., Kwon, M., et al. (2020) Highly-Sensitive Skin-Attachable Eye‐movement Sensor Using Flexible Nonhazardous Piezoelectric Thin Film. Advanced Functional Materials, 31, Article ID: 2008242.
https://doi.org/10.1002/adfm.202008242
[39] Li, T., Liu, Q. and Zhou, X. (2017) Ultra-Low Power Gaze Tracking for Virtual Reality. Proceedings of the 15th ACM Conference on Embedded Network Sensor Systems, Delft, 6-8 November 2017, 1-14.
https://doi.org/10.1145/3131672.3131682
[40] Golard, A. and Talathi, S.S. (2021) Ultrasound for Gaze Estimation—A Modeling and Empirical Study. Sensors, 21, Article No. 4502.
https://doi.org/10.3390/s21134502
[41] Zhu, H., Yang, H., Xu, S., Ma, Y., Zhu, S., Mao, Z., et al. (2024) Frequency-Encoded Eye Tracking Smart Contact Lens for Human-Machine Interaction. Nature Communications, 15, Article No. 3588.
https://doi.org/10.1038/s41467-024-47851-y
[42] Vasseur, A., Passalacqua, M., Sénécal, S. and Léger, P. (2023) The Use of Eye-Tracking in Information Systems Research: A Literature Review of the Last Decade. AIS Transactions on Human-Computer Interaction, 15, 292-321.
https://doi.org/10.17705/1thci.00192
[43] Fuhl, W., Bozkir, E. and Kasneci, E. (2021) Reinforcement Learning for the Privacy Preservation and Manipulation of Eye Tracking Data. In: International Conference on Artificial Neural Networks, Springer International Publishing, 595-607.
https://doi.org/10.1007/978-3-030-86380-7_48
[44] Morozkin, P., Swynghedauw, M. and Trocan, M. (2016) An Image Compression for Embedded Eye-Tracking Applications. 2016 International Symposium on Innovations in Intelligent Systems and Applications (INISTA), Sinaia, 2-5 August 2016, 1-5.
https://doi.org/10.1109/inista.2016.7571852
[45] Mayberry, A., Tun, Y., Hu, P., Smith-Freedman, D., Marlin, B., Salthouse, C., et al. (2016) CIDER: Enhancing the Performance of Computational Eyeglasses. Proceedings of the Ninth Biennial ACM Symposium on Eye Tracking Research & Applications, Charleston, 14-17 March 2016, 313-314.
https://doi.org/10.1145/2857491.2884063
[46] Morozkin, P. (2018) Design and Implementation of Image Processing and Compression Algorithms for a Miniature Em-bedded Eye Tracking System. Doctoral Dissertation, Sorbonne Université.
[47] Bonazzi, P., Rüegg, T., Bian, S., Li, Y. and Magno, M. (2023) TinyTracker: Ultra-Fast and Ultra-Low-Power Edge Vision In-Sensor for Gaze Estimation. 2023 IEEE SENSORS, Vienna, 29 October-1 November 2023, 1-4.
https://doi.org/10.1109/sensors56945.2023.10325167