Journées
Chaînes de Markov Cachées et Filtrage Particulaire
ENST Paris, 21 et 22 janvier 2002
Résumés

Alexis Bienvenüe (LMC / IMAG, Grenoble)

Utilisation du fitness sharing pour traiter la multimodalité en filtrage particulaire.
(travail commun avec Jean Bérard, Marc Joannides, Éric Fontenas et Olivier François)

Résumé Dans le cas d'une fonction d'observation non injective, le filtre particulaire peut, par manque de particules, perdre un des modes du filtre optimal. Ce problème se rencontre aussi sous le nom de premature convergence dans l'utilisation d'algorithmes génétiques pour l'optimisation. Pour ces algorithmes, le fitness sharing peut être utilisé pour maintenir une certaine diversité. Nous l'utilisons aussi dans le contexte de filtrage.


Stéphane Boucheron (Université Paris-Sud, Orsay)

Identication de l'ordre des HMM à espace d'états fini.
(travail commun avec Élisabeth Gassiat)

Abstract We consider the estimation of the order, that is the number of hidden states, of a discrete-time finite alphabet Hidden Markov Model (HMM). The estimators we investigate are related by BIC estimators: penalized maximum likelihood estimators and penalized versions of the mixture estimator introduced by Liu and Narayan (IEEE-IT 1994). We prove consistency of those estimators without assuming any a priori upper bound on the order and smaller penalties than previous works (Kieffer, IEEE-IT 1993). The difficulty of the problem pertains to the fact that the maximum likelihood estimator in a given model does not have a simple form. The round-about is provided by functional large deviations principles. As a matter of fact the (Bahadur)-efficiency of HMM order estimators is investigated using large deviation principles for the empirical measure of various extended Markov chains. We prove a version of Stein's lemma for HMM order estimation and derive an upper-bound on under-estimation exponents. Then we prove that this upper-bound can be achieved by the penalized maximum likelihood estimators.

http://www.lri.fr/~bouchero/PUB/oeehmmoe.pdf.gz


Nicolas Chopin (ENSAE, Malakoff)

Filtrage particulaire pour des modèles à espace d'états discret : inférence séquentielle et détermination du nombre d'états.

Abstract We investigate the application of particle filtering methodology to discrete state-space models, that is models which involve a conditioning on an unobserved discrete process. We first focus on the case where the states are Markov (hidden Markov models). In that setting, we show how to marginalize out the states of the considered posterior distribution, in order to reduce the volatility of the particle weights. The corresponding algorithm can be seen as a Monte Carlo generalization of the HMM filter. We then propose a sequential state number determination procedure, in order to detect the number of distinct states that have actually appeared at time t. Within this approach, we show how to make an improper prior modeling possible. Finally we consider to which extent these results apply to hidden semi-Markov models, and to change-point models.

Keywords change-point models, HMM filter, hidden Markov models, hidden semi-Markov models, Metropolis-Hastings, MCMC


Carine Hue (IRISA / INRIA, Rennes)

Filtrage particulaire et suivi multi-pistes. (transparents)

Résumé Le suivi multi-pistes consiste à estimer la loi de densité de plusieurs processus dynamiques à l'aide des réalisations de processus d'observation. La difficulté majeure provient du fait que l'association entre les observations et les cibles est inconnue. Il s'agit ainsi de résoudre conjointement l'estimation et l'association au cours du temps. Les approches classiques sont fondées sur le filtrage de Kalman, éventuellement linéarisé, et mènent à des algorithmes tels que le JPDAF, le MHT ou le PMHT qui different par leurs hypothèses d'association. Nous nous intéressons aux méthodes orientées filtrage particulaire. Nous proposons un algorithme, le MOPF, combinant le filtre particulaire à un échantilloneur de Gibbs dont le but est d'estimer les probabilités a posteriori d'association de chaque cible. Dans le contexte du suivi par mesures d'angles, nous comparons les performances du MOPF à celles d'une autre approche, le SIR-JPDA, liant filtrage particulaire et JPDA.

Mots-clés suivi multi-pistes, filtrage particulaire, échantillonneur de Gibbs, suivi par mesure d'angles, SIR-JPDA


Sébastien Paris (IRISA / INRIA, Rennes)

Extraction automatique de pistes fréquentielles en sonar passif par chaînes de Markov cachées.

Résumé Les raies de fréquences éventuellement présentes sur la représentation temps fréquence appelée lofargramme permettent à un opérateur sonar de classifier, voire de trajectographier partiellement, les sources d'intérêts. Pour la trajectographie, les raies de fréquences constantes mais décalées par effet Doppler sont utilisées. Pour la classification, c'est l'instabilité des raies fréquentielles qui est source d'information.
Nous nous intéressons à l'extraction de pistes fréquentielles instables (estimation des pistes présentes dans l'image). Les problèmes fondamentaux de l'extraction sont la méconnaissance du nombre de pistes présentes, de leurs instants d'apparition et de disparition, de leurs rapports signal sur bruit respectifs et la gestion du croisement de pistes.
Nous adoptons une approche basée sur une modélisation par chaînes de Markov : chaque piste fréquentielle est supposée suivre une marche aléatoire; l'espace d'état est défini par l'ensemble des canaux fréquentiels de l'analyse spectrale et par un ensemble discret et fini de pentes associées à chaque piste. Le lofargramme fournit les mesures. Dans le cas mono-piste, nous proposons une solution basée sur la version "normalisée" des algorithmes issus de la littérature des chaînes de Markov cachées (HMM, hidden Markov models) : algorithme de Viterbi (VA), algorithme forward (F) et forward-backward (FB). Dans le cas multi-pistes, nous avons développé un nouvel algorithme FB "normalisé" dans lequel chaque probabilité est conditionnée par l'événement exclusif suivant : deux pistes fréquentielles ne peuvent être dans le même état simultanément. L'algorithme travaille en deux étapes : 1) les lignes sont extraites du début jusqu'à la fin du lofargramme; 2) les instants de début et de fin de chaque piste sont estimés. Lorsque ces deux dates sont égales, la piste est éliminée. Avec cette stratégie, le nombre de pistes fréquentielles doit être a priori surestimé. Des essais sur des données synthétiques et sur des données réelles ont été menés à bien pour valider nos algorithmes en utilisation opérationnelle.

Mots-clés extraction, pistes fréquentielles, lofargramme, estimation, détection, HMM, Viterbi, forward-backward


Retour à la page de François LeGland