[本站(zhàn)訊]3月(yuè)(yuè)16日-21日,虛拟現實研究領域的國際頂級學術會議(CCF推薦A類會議)IEEE VR (IEEE Virtual Reality Conference and 3D User Interfaces)在美國奧蘭多召開。以山東大學軟件學院碩士研究生(shēng)張桐瑜爲第一(yī)作(zuò)者,沈益冉、周元峰教授指導的論文“Swift-Eye: Towards Anti-blink Pupil Tracking for Precise and Robust High-Frequency Near-Eye Movement Analysis with Event Cameras”獲得了(le)本次會議的最佳論文獎,沈益冉教授爲該論文的通訊作(zuò)者。這一(yī)工作(zuò)的第一(yī)作(zuò)者和通訊作(zuò)者單位均爲山東大學軟件學院,是軟件學院首次在計算(suàn)學會推薦的CCF A類頂級會議上(shàng)獲得最佳論文獎。本次會議共有6篇論文獲得最佳論文獎(獲獎比例1%),Swift-Eye是唯一(yī)一(yī)篇來自中國的獲獎論文。本論文相關工作(zuò)由山東大學軟件學院領銜,香港科技大學、北京工商(shāng)大學合作(zuò)共同完成。
本篇獲獎論文主要研究的是高頻眼動追蹤問題。由于眼球在快(kuài)速掃視期間速度可以達到很快(kuài)(角速度可以達到700◦/s, 角加速度可以達到24,000◦/s2), 本團隊的上(shàng)一(yī)篇發表在NeurIPS2024的論文“EV-Eye: Rethinking High-frequency Eye Tracking through the Lenses of Event Cameras”,收集了(le)一(yī)個事(shì)件與RGB圖片組成的眼動多模态數據集。其中事(shì)件數據相比于RGB數據, 可以捕獲高頻率(微秒(miǎo)級)的眼動。Swift-Eye是EV-Eye的後續工作(zuò),其使用插幀模型Timelens, 将事(shì)件數據轉變爲可視化(huà)的眼動數據,使得研究人(rén)員更直觀地對其進行研究。現有的瞳孔檢測算(suàn)法, 在眨眼過程中, 檢測到的瞳孔會發生(shēng)異常的形變, Swift-Eye提出使用旋轉目标檢測算(suàn)法, 以利用瞳孔是橢圓這一(yī)先驗信息,同時, 以自監督的方式,生(shēng)成大量的眨眼數據來訓練模型, 并使用時間域上(shàng)的特征融合模塊, 來輔助對遮擋瞳孔的檢測。本論文中的消融實驗, 證明了(le)生(shēng)成眨眼數據方法, 以及時間域上(shàng)的特征融合模塊的有效性。同時,在與其他瞳孔檢測算(suàn)法的對比過程中, Swift-Eye得到了(le)最好(hǎo)(hǎo)的效果。
【供稿單位:軟件學院 作(zuò)者:沈益冉 攝影:沈益冉 編輯:新(xīn)聞網工作(zuò)室 責任編輯:蔣曉涵 周末 】