Connexion
S'inscrire
Réinitialiser le mot de passe
Publier & Distribuer
Solutions d'édition
Solutions de distribution
Thèmes
Architecture et design
Arts
Business et économie
Chimie
Chimie industrielle
Droit
Géosciences
Histoire
Informatique
Ingénierie
Intérêt général
Linguistique et sémiotique
Littérature
Mathématiques
Musique
Médecine
Pharmacie
Philosophie
Physique
Sciences bibliothécaires et de l'information, études du livre
Sciences des matériaux
Sciences du vivant
Sciences sociales
Sport et loisirs
Théologie et religion
Études classiques et du Proche-Orient ancient
Études culturelles
Études juives
Publications
Journaux
Livres
Comptes-rendus
Éditeurs
Blog
Contact
Chercher
EUR
USD
GBP
Français
English
Deutsch
Polski
Español
Français
Italiano
Panier
Home
Journaux
International Journal of Advanced Network, Monitoring and Controls
Édition 7 (2022): Edition 1 (January 2022)
Accès libre
Research on the Estimation of Gaze Location for Head-eye Coordination Movement
Qiyou Wu
Qiyou Wu
et
Changyuan Wang
Changyuan Wang
| 28 mai 2023
International Journal of Advanced Network, Monitoring and Controls
Édition 7 (2022): Edition 1 (January 2022)
À propos de cet article
Article précédent
Article suivant
Résumé
Article
Figures et tableaux
Références
Auteurs
Articles dans cette édition
Aperçu
PDF
Citez
Partagez
Publié en ligne:
28 mai 2023
Pages:
116 - 131
DOI:
https://doi.org/10.2478/ijanmc-2022-0009
Mots clés
Head-Eye Coordination
,
Gaze Estimation Method
,
Experimental Platform Design
,
Deep Residual Networks
© 2022 Qiyou Wu et al., published by Sciendo
This work is licensed under the Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
Figure 1.
Deployment of the “Three Cameras and Eight Lights” platform
Figure 2.
Flow chart of head-eye movement data collection
Figure 3.
The experimental process of head-eye movement data collection
Figure 4.
Euler angle of head posture
Figure 5.
Three-axis attitude data record
Figure 6.
Face detection, Eye detection results
Figure 7.
Location of the target center point
Figure 8.
Purkinje detect results
Figure 9.
Eye gaze point estimation network structure
Figure 10.
Gaze estimation model with head-eye movement fusion
Figure 11.
Comparison of the performance of different models
Figure 12.
Comparison of the performance of three gaze estimation models
图 1
“三目八光源”平台部署示意图”
图 2
头眼运动数据采集流程图
图 3
头眼运动数据采集实验过程
图 4
头部姿态欧拉角
图 5
三轴姿态数据记录
图 6
人脸检测、人眼检测结果
图 7
目标中心点位置
图 8
普尔钦斑检测结果
图 9
人眼视线落点估计网络结构
图 10
融合头眼运动的视线落点估计模型
图 11
Eye 和 Eye&Purkinje 模型性能对比分析图
图 12
三种视线落点估计模型性能对比分析图