山東大學新(xīn)聞網
山大郵箱 | 投稿系統 | 高級檢索 | 舊版回顧

視點首頁 > 學術縱橫 > 正文

軟件學院沈益冉、周元峰教授成果在CCF A類會議IEEE VR上(shàng)獲最佳論文獎

發布日期:2024年03月(yuè)(yuè)21日 18:38 點擊次數:

[本站(zhàn)訊]3月(yuè)(yuè)16日-21日,虛拟現實研究領域的國際頂級學術會議(CCF推薦A類會議)IEEE VR (IEEE Virtual Reality Conference and 3D User Interfaces)在美國奧蘭多召開。以山東大學軟件學院碩士研究生(shēng)張桐瑜爲第一(yī)作(zuò)者,沈益冉、周元峰教授指導的論文“Swift-Eye: Towards Anti-blink Pupil Tracking for Precise and Robust High-Frequency Near-Eye Movement Analysis with Event Cameras”獲得了(le)本次會議的最佳論文獎,沈益冉教授爲該論文的通訊作(zuò)者。這一(yī)工作(zuò)的第一(yī)作(zuò)者和通訊作(zuò)者單位均爲山東大學軟件學院,是軟件學院首次在計算(suàn)學會推薦的CCF A類頂級會議上(shàng)獲得最佳論文獎。本次會議共有6篇論文獲得最佳論文獎(獲獎比例1%),Swift-Eye是唯一(yī)一(yī)篇來自中國的獲獎論文。本論文相關工作(zuò)由山東大學軟件學院領銜,香港科技大學、北京工商(shāng)大學合作(zuò)共同完成。

undefined

本篇獲獎論文主要研究的是高頻眼動追蹤問題。由于眼球在快(kuài)速掃視期間速度可以達到很快(kuài)(角速度可以達到700◦/s, 角加速度可以達到24,000◦/s2), 本團隊的上(shàng)一(yī)篇發表在NeurIPS2024的論文“EV-Eye: Rethinking High-frequency Eye Tracking through the Lenses of Event Cameras”,收集了(le)一(yī)個事(shì)件與RGB圖片組成的眼動多模态數據集。其中事(shì)件數據相比于RGB數據, 可以捕獲高頻率(微秒(miǎo)級)的眼動。Swift-Eye是EV-Eye的後續工作(zuò),其使用插幀模型Timelens, 将事(shì)件數據轉變爲可視化(huà)的眼動數據,使得研究人(rén)員更直觀地對其進行研究。現有的瞳孔檢測算(suàn)法, 在眨眼過程中, 檢測到的瞳孔會發生(shēng)異常的形變, Swift-Eye提出使用旋轉目标檢測算(suàn)法, 以利用瞳孔是橢圓這一(yī)先驗信息,同時, 以自監督的方式,生(shēng)成大量的眨眼數據來訓練模型, 并使用時間域上(shàng)的特征融合模塊, 來輔助對遮擋瞳孔的檢測。本論文中的消融實驗, 證明了(le)生(shēng)成眨眼數據方法, 以及時間域上(shàng)的特征融合模塊的有效性。同時,在與其他瞳孔檢測算(suàn)法的對比過程中, Swift-Eye得到了(le)最好(hǎo)(hǎo)的效果。

undefined


【供稿單位:軟件學院    作(zuò)者:沈益冉    攝影:沈益冉         編輯:新(xīn)聞網工作(zuò)室    責任編輯:蔣曉涵 周末  】

 匿名發布 驗證碼 看不清楚,換張圖片
0條評論    共1頁   當前第1拖動光标可翻頁查看更多評論

免責聲明

您是本站(zhàn)的第: 位訪客

新(xīn)聞中心電話:0531-88362831 0531-88369009 聯系信箱:xwzx@sdu.edu.cn

建議使用IE8.0以上(shàng)浏覽器(qì)和1366*768分(fēn)辨率浏覽本站(zhàn)以取得最佳浏覽效果

歡迎關注山大視點微信