Vous êtes ici

Modèles de perception visuelle pour l’imagerie HDR

Equipe et encadrants
Département / Equipe: 
Directeur de thèse
Rémi Cozot
Co-directeur(s), co-encadrant(s)
Olivier Le Meur
Contact(s)
NomAdresse e-mailTéléphone
Rémi Cozot
cozot@irisa.fr
0299842230
Sujet de thèse
Descriptif

Les écrans HDR (High Dynamic Range) arrivent massivement sur le marché de la télévision.  Un écran HDR se caractérise pour une dynamique (contraste) élevée (1:10.000). Cette dynamique est atteinte en augmentant la valeur maximale de luminance. La tendance actuelle est de proposer des valeurs maximales de luminance de l’ordre de 1.000 nits (cd/m2) [4,5]. Les modèles actuels de perception visuelle humaine (modèle d’apparence de couleurs, modèle d’attention visuelle, modèle de saillance) ont été conçus pour des gammes de contraste beaucoup plus faibles (1:100) [1]. Ces modèles montrent une corrélation  entre le contraste et la perception visuelle. Dès lors il est intéressant de se poser la question de savoir si ces modèles sont toujours valides sur des écrans HDR.  Nous savons a priori que les modèles actuels ne prennent pas en compte le phénomène d’éblouissement qui arrive lors de fort contraste. Ce phénomène est également appelé masquage de luminance [2]. Il provient de la diffusion de la lumière au sein du corps hyalin (humeur vitrée de l’oeil). L’éblouissement peut se produire face à un écran HDR. Outre cet aspect, des études ont montré qu’un contenu HDR avait une influence forte sur le déploiement de l’attention [6]. En effet, nous ne regardons pas un contenu HDR de la même façon qu’un contenu ayant des gammes de contrastes.  Il s'avère donc nécessaire de proposer de nouveaux modèles de perception visuelle dédiés aux caractéristiques de l’imagerie HDR.

Le but de cette thèse est l’étude, la modélisation et la simulation de la perception visuelle pour l’imagerie HDR. Plus spécifiquement, le candidat travaillera à définir sur les modèles d’apparence de couleur [1] ainsi que les modèles de saillance dans un contexte HDR [7, 8]. Les modèles d’apparence consistent à prédire la couleur perçue en fonction d'un patch de couleur et de son environnement.Les modèles de saillance ont pour objectif de prédire les zones de l’image qui attirent le regard. Les modèles proposées seront construits à partir de données expérimentales issues  de tests psychophysiques effectués grâce à l’écran HDR de l’IRISA et de tests oculométriques. Ils pourront, soit modéliser et simuler précisément les phénomènes physiques au sein du système visuel humain (diffusion de la lumière dans le corps hyalin par exemple), soit reproduire le phénomène grâce à un modèle obtenu à l’aide de techniques d’apprentissage. Les modèle de perception visuelle HDR sont importants et utiles dans de nombreux cas d’utilisation et en particulier ils permettent de  contrôler la colorimétrie des contenus, de mesurer la qualité des images, de prédire des différences de perception. Tous ces éléments sont indispensables à l’édition/manipulation d’image, l’adaptation de contenu, la compression, etc.

Dans ce travail, différents domaines scientifiques seront utilisées : perception visuelle humaine (de la physiologie, l’attention visuelle et l’apparence de couleurs), imagerie HDR, la simulation physique de la diffusion de la lumière, les modèles statistiques  et les méthodes d’apprentissage.

Bibliographie

[1] Mark D. Fairchild, Color Appearance Models, Weiley, 3rd Edition, ISBN: 978-1-119-96703-3, August 2013

[2] Rafał Mantiuk, Kil Joong Kim, Allan G. Rempel and Wolfgang Heidrich, HDR-VDP-2: A calibrated visual metric for visibility and quality predictions in all luminance conditions, In: ACM Transactions on Graphics (Proc. of SIGGRAPH'11), 2011

[3] ​M.D. Fairchild and P.-H. Chen, Brightness, lightness, and specifying color in high-dynamic-range scenes and images, SPIE/IS&T Electronic Imaging Conference, San Francisco, 78670O-1-78670O-14,2011.

[4] R. Boitard, R. Cozot, K. Bouatouch, Chapter 6 - Video Tone Mapping of book: HDR Video From Acquisition to Display and Applications, Edited by: Frédéric Dufaux, Patrick Le Callet, Rafal Mantiuk and Marta Mrak, Pages 161-183, Elsevier Ltd., 2016

[5] Frédéric Dufaux, Patrick Le Callet, Rafal Mantiuk and Marta Mrak​, High Dynamac Range Video: From Acquisition to Display and Applications, Edited by: , Pages 161-183, Elsevier Ltd., 2016

 

[6] Narwaria, M., Da Silva, M. P., Le Callet, P., & Pepion, R., Tone mapping based HDR compression: Does it affect visual experience?, Signal Processing: Image Communication, 29(2), 257-273, 2014.

 

[7] Le Meur, O., & Liu, Z., Saccadic model of eye movements for free-viewing condition, Vision research, 116, 152-164, 2015

[8] Le Meur, O., & Coutrot, A.,Introducing context-dependent and spatially-variant viewing biases in saccadic models, Vision research, 121, 72-84, 2016.​

Début des travaux: 
septembre/octobre 2017
Mots clés: 
perception visuelle, imagerie HDR
Lieu: 
IRISA - Campus universitaire de Beaulieu, Rennes