Vous êtes ici

Édition d'image guidée par exemple

Les contributions de cette thèse sont divisées en trois parties principales.
Dans la première partie, nous proposons une méthode locale utilisant une distribution GGM pour approcher les distributions des images en les subdivisant en groupes de pixels que nous appelons dorénavant clusters. L'idée principale consiste à déterminer quelle caractéristique (couleur, luminance) est plus représentative pour une image donnée. Puis nous utilisons cette caractéristique pour subdiviser l'image en clusters. Quatre stratégies de mise en correspondance des clusters de l'image d'entrée avec ceux de l'image cible sont proposées. Ces stratégies ont pour but de produire des images photo-réalistes dont le style ressemble à celui de l'image cible (dans notre cas le style d'une image est défini en termes de couleur et luminosité). Nous étendons le principe de transfert de couleur au transfert simultané de couleur et de gradient. Afin de pouvoir décrire las distributions de couleur et de gradient par une seule distribution, nous adoptons le modèle MGGD (Multivariate Generalized Gaussian Distribution). Nous proposons une nouvelle transformation de distribution MGGD pour des applications de traitement d'image telles que le transfert multi-dimensionnel de caractéristiques d'image, de couleur, etc. De plus, nous adoptons aussi un modèle de distribution plus précis (distribution Beta bornée) pour représenter des distributions de couleur et de luminosité. Nous proposons une transformation de distribution Beta qui permet d'effectuer un transfert de couleur entre images et qui s'avère plus performante que celles basées sur les distributions Gaussiennes.

Dans la deuxième partie, nous introduisons une nouvelle méthode permettant de créer des images HDR à partir d'une paire d'images, l'une prise avec flash et l'autre pas. Notre méthode consiste en l'utilisation d'une fonction de luminosité (brightness) simulant la fonction de réponse d'une caméra, et d'une nouvelle fonction d'adaptation de couleur (CAT), appelée CAT bi-locale (bi-local CAT), permettant de reproduire les détails de l'image flash. Cette approche évite toutes les limitations inhérentes aux méthodes classiques de création d'images HDR.

Enfin, dans la partie 3, nous exploitons le potentiel de notre adaptation bi-locale CAT pour diverses applications d'édition d'image telles que la suppression de bruit (dé-bruitage), la suppression de flou, le transfert de texture, etc. Nous introduisons notre nouveau filtre guidé dans lequel nous incorporons l'adaptation bi-locale CAT dans la partie 3.

 

Orateur: 
Hristina HRISTOVA (FRVSense)
Date: 
Vendredi, 20. octobre 2017 - 9:30 - 11:00
Lieu: 
IRISA-Inria salle Métivier- campus de Beaulieu RENNES
Type soutenance: 
Composition du Jury: 
  • Joëlle THOLLOT Professeur à Univ. de Grenoble /rapporteur
  • Alan CHALMERS Professor à Univ. de Warwick /rapporteur
  • Marcelo BERTALMÍO Associate professor à Univ. Pompeu Fabra /examinateur
  • Nicolas BONNEEL Chargé de Chercheur CNRS, LIRIS /examinateur
  • Eric MARCHAND Professeur ESIR /examinateur
  • Kadi BOUATOUCH Professeur à Univ. de Rennes 1 /examinateur
  • Rémi COZOT Maître de Conférences à Univ. de Rennes 1 /directeur de thèse
  • Olivier LE MEUR Maître de Conférences à Univ. de Rennes 1 /co-directeur de thèse